Menemukan “Blind Spots” di AI Untuk Meningkatkan Keamanan Kendaraan Self-Driving
- Model baru berbasis pembelajaran mesin membuat kendaraan tanpa pengemudi lebih aman.
- Ini mendeteksi contoh di mana AI dapat belajar dari contoh yang dapat menyebabkan kesalahan berbahaya di dunia nyata.
Kemajuan terbaru di bidang kecerdasan buatan telah membuat kendaraan self-driving dan robot otonom lebih pintar. Meskipun masih dalam masa pertumbuhan, mobil tanpa pengemudi menjadi semakin umum dan dapat secara radikal mengubah sistem transportasi kita di tahun-tahun mendatang.
Baru-baru ini, para peneliti di MIT dan Microsoft mengembangkan model yang dapat mengungkap 'titik buta' sistem otonom dengan bantuan masukan manusia. Ini mengidentifikasi contoh di mana sistem otonom ini belajar (dari contoh pelatihan atau simulasi) ketika mereka dapat membuat kesalahan di lingkungan dunia nyata.
Mobil self-driving yang digerakkan oleh AI, misalnya, dilatih secara ekstensif dalam simulasi untuk mempersiapkan kendaraan untuk hampir semua skenario yang mungkin terjadi di jalan. Namun, sistem terkadang membuat kesalahan di dunia nyata:sistem tidak mengubah perilakunya (di tempat yang seharusnya) dalam skenario tertentu.
Misalnya, jika mobil tanpa pengemudi (tidak terlatih secara ekstensif) melaju di jalan raya dan ambulans menyalakan sirenenya, mobil tersebut mungkin menganggap ambulans hanya sebagai mobil putih besar dan mungkin tidak menepi atau memberi jalan kepada ambulans atau keadaan darurat lainnya. kendaraan.
Para peneliti ingin menjembatani kesenjangan antara simulasi dan dunia nyata dengan mengintegrasikan masukan manusia dan membantu sistem otonom lebih mengetahui apa yang tidak mereka ketahui.
Bagaimana Model Menerima Umpan Balik Manusia?
Sistem otonom awalnya dilatih dalam simulasi virtual yang memetakan setiap situasi ke tindakan terbaik. Ini kemudian diterapkan di dunia nyata, di mana manusia menginterupsi sistem setiap kali mengambil tindakan yang salah.
Manusia dapat memberi makan data baik dengan koreksi atau demonstrasi. Untuk memberikan koreksi, seseorang dapat duduk di kursi pengemudi sementara kendaraan melaju sendiri di sepanjang rute yang direncanakan. Jika sistem mengambil tindakan yang tidak tepat, manusia dapat mengambil alih kemudi dan ini mengirimkan sinyal ke AI bahwa ia mengambil tindakan yang salah dan apa yang harus dilakukan dalam situasi tertentu.
Referensi: arXiv:1805.08966 | MIT
Atau, manusia dapat melatih sistem dengan mendemonstrasikan/mengemudikan kendaraan di dunia nyata. Sistem menganalisis dan membandingkan setiap tindakan manusia dengan apa yang akan dilakukannya dalam kondisi tersebut. Setiap ketidakcocokan (apakah ada) menunjukkan tindakan sistem yang tidak dapat diterima.
Menangani Titik Buta
Setelah pelatihan manual selesai, sistem pada dasarnya memiliki daftar tindakan yang dapat diterima dan tidak dapat diterima. Tujuannya adalah untuk mendeteksi situasi ambigu (atau titik buta) yang sulit dibedakan oleh AI.
Salam peneliti | MIT
Misalnya, sistem otonom mungkin telah melaju di samping kendaraan besar beberapa kali tanpa menepi. Namun, jika melakukan hal yang sama dengan ambulans (yang tampak persis sama dengan AI), ia menerima sinyal umpan balik yang menunjukkan tindakan yang tidak dapat diterima.
Untuk menangani situasi seperti ini, tim menggunakan metode pembelajaran mesin yang dikenal sebagai algoritma Dawid-Skene. Dibutuhkan semua titik buta yang diberi label sebagai 'dapat diterima' dan tidak dapat diterima', menggabungkannya, dan menggunakan perhitungan probabilitas untuk mendeteksi pola dalam label tersebut.
Algoritme kemudian menghasilkan satu titik buta agregat bersama dengan tingkat kepercayaan untuk setiap situasi. Ini juga menghasilkan peta panas yang menunjukkan kemungkinan rendah hingga tinggi untuk menjadi titik buta untuk setiap situasi.
Baca:Algoritma Kendaraan Self-Driving Baru Dapat Mengubah Jalur Secara Agresif
Di dunia nyata, jika model memetakan situasi sebagai titik buta dengan probabilitas tinggi, ia dapat meminta tindakan yang tepat kepada manusia, memungkinkan eksekusi yang lebih aman. Jenis model ini juga dapat membantu robot otonom memprediksi kapan ia mungkin mengambil tindakan yang tidak pantas dalam kondisi baru.