Membangun AI yang bertanggung jawab dan dapat dipercaya
Scott Zoldi dari FICO
Karena penggunaan AI menjadi semakin meluas, ilmuwan data dan organisasi hanya 'melakukan yang terbaik' tidak akan cukup. Scott Zoldi, pakar AI di FICO menjelaskan bahwa dengan munculnya pendukung AI, AI yang bertanggung jawab akan menjadi harapan dan standar.
Dalam beberapa tahun terakhir, data dan AI telah digunakan secara luas di banyak industri untuk menginformasikan dan membentuk strategi dan layanan, mulai dari perawatan kesehatan dan ritel hingga perbankan dan asuransi. Dan baru-baru ini, AI menjadi yang terdepan dalam melacak pertempuran melawan virus corona.
Namun, peningkatan volume data yang dihasilkan secara digital, ditambah dengan kebutuhan pengambilan keputusan otomatis yang diaktifkan oleh AI, menghadirkan tantangan baru, bagi bisnis dan pemerintah, dengan fokus yang berkembang pada alasan di balik algoritme pengambilan keputusan AI.
Karena AI mengambil pengambilan keputusan lebih jauh dari individu-individu yang dipengaruhi keputusan tersebut, keputusan dapat tampak menjadi lebih tidak berperasaan, bahkan mungkin ceroboh. Bukan hal yang aneh bagi organisasi untuk mengutip data dan algoritme sebagai pembenaran untuk keputusan yang tidak populer dan hal ini dapat menimbulkan kekhawatiran jika menyangkut pemimpin terhormat yang melakukan kesalahan.
Beberapa contohnya termasuk:chatbot online Microsoft yang rasis dan ofensif pada tahun 2016, sistem rekrutmen AI Amazon yang mengabaikan pelamar wanita pada tahun 2018 dan mobil Tesla yang jatuh di Autopilot setelah mengira truk sebagai rambu jalan yang ditangguhkan pada tahun 2019.
Selain potensi pengambilan keputusan yang salah, ada juga isu bias AI. Akibatnya, peraturan baru telah diperkenalkan untuk melindungi hak-hak konsumen dan terus mencermati perkembangan AI.
Pilar AI yang bertanggung jawab
Organisasi perlu menerapkan AI yang kuat sekarang. Untuk melakukan ini, mereka harus memperkuat dan menetapkan standar mereka dengan tiga pilar AI yang bertanggung jawab:kemampuan menjelaskan, akuntabilitas, dan etika. Dengan menerapkannya, semua jenis organisasi dapat yakin bahwa mereka membuat keputusan digital yang tepat.
Dapat dijelaskan :Bisnis yang mengandalkan sistem keputusan AI harus memastikannya memiliki konstruksi algoritmik yang menangkap hubungan antara variabel keputusan untuk sampai pada keputusan bisnis. Dengan akses ke data ini, sebuah bisnis dapat menjelaskan mengapa model membuat keputusan itu – misalnya menandai transaksi sebagai risiko penipuan yang tinggi. Penjelasan ini kemudian dapat digunakan oleh analis manusia untuk menyelidiki lebih lanjut implikasi dan keakuratan data tersebut. keputusan.
Akuntabilitas :Model pembelajaran mesin harus dibangun dengan benar dan dengan fokus pada keterbatasan pembelajaran mesin dan pemikiran yang cermat terhadap algoritme yang digunakan. Teknologi harus transparan dan sesuai. Perhatian dalam pengembangan model memastikan keputusan masuk akal, misalnya skor beradaptasi dengan tepat dengan meningkatnya risiko.
Selain AI yang dapat dijelaskan, ada konsep AI yang sederhana — memastikan bahwa model hanya digunakan pada contoh data yang serupa dengan data yang dilatihnya. Jika tidak demikian, model tersebut mungkin tidak dapat dipercaya dan seseorang harus menurunkan versi ke algoritme alternatif.
Etika :Berdasarkan penjelasan dan akuntabilitas, model etika harus diuji dan diskriminasi apa pun dihilangkan. Arsitektur pembelajaran mesin yang dapat dijelaskan memungkinkan ekstraksi hubungan non-linier yang biasanya menyembunyikan cara kerja sebagian besar model pembelajaran mesin. Hubungan non-linier ini perlu diuji, karena dipelajari berdasarkan data di mana model dilatih dan data ini terlalu sering secara implisit penuh dengan bias sosial. Model etis memastikan bahwa bias dan diskriminasi diuji dan dihilangkan secara eksplisit.
Pasukan yang menegakkan AI yang bertanggung jawab
Membangun model AI yang bertanggung jawab membutuhkan waktu dan kerja keras, dengan pengawasan berkelanjutan yang cermat sangat penting untuk menegakkan AI yang bertanggung jawab secara berkelanjutan. Pengawasan ini harus mencakup regulasi, audit, dan advokasi.
Peraturan penting untuk menetapkan standar perilaku dan aturan hukum untuk penggunaan algoritma. Namun pada akhirnya regulasi tersebut dipenuhi atau tidak dan menunjukkan keselarasan dengan regulasi membutuhkan audit.
Mendemonstrasikan kepatuhan terhadap peraturan memerlukan kerangka kerja untuk membuat model dan proses pemodelan yang dapat diaudit. Materi audit ini mencakup proses pengembangan model, algoritme yang digunakan, uji deteksi bias, dan demonstrasi penggunaan keputusan dan penilaian yang wajar. Saat ini, audit proses pengembangan model dilakukan dengan cara yang serampangan.
Sistem audit pengembangan model berbasis blockchain baru sedang diperkenalkan untuk menegakkan dan mencatat standar pengembangan model yang tidak dapat diubah, metode pengujian, dan hasil. Selanjutnya, mereka digunakan untuk merekam kontribusi rinci dari ilmuwan data dan persetujuan manajemen di seluruh siklus pengembangan model.
Melihat ke masa depan, organisasi 'melakukan yang terbaik' dengan data dan AI tidak akan cukup. Dengan munculnya pendukung AI dan penderitaan nyata yang ditimbulkan karena hasil yang salah dari sistem AI, AI yang bertanggung jawab akan segera menjadi harapan dan standar di seluruh dunia dan di seluruh dunia.
Organisasi harus menerapkan AI yang bertanggung jawab sekarang dan memperkuat serta menetapkan standar penjelasan, akuntabilitas, dan etika AI mereka untuk memastikan mereka berperilaku secara bertanggung jawab saat membuat keputusan digital.
Penulisnya adalah Dr. Scott Zoldi adalah kepala petugas analisis di FICO .
Tentang penulis
Dr. Scott Zoldi adalah kepala petugas analisis di FICO. Saat berada di FICO, Scott bertanggung jawab untuk menulis 110 paten yang telah dibuat, dengan 56 diberikan dan 54 tertunda. Scott secara aktif terlibat dalam pengembangan produk analitik baru dan aplikasi analitik Big Data, banyak di antaranya memanfaatkan inovasi analitik streaming baru seperti analitik adaptif, profil kolaboratif, dan analitik kalibrasi mandiri. Scott menjabat di dua dewan direksi, Software San Diego dan Cyber Center of Excellence. Scott menerima gelar Ph.D. dalam fisika teoretis dan komputasional dari Duke University.