AI Dapat Menggunakan Magnetik Untuk Mencapai Efisiensi Seperti Manusia
- Magnet dapat membantu kecerdasan buatan mencapai efisiensi seperti manusia dalam mengenali objek.
- Para peneliti mengembangkan jaringan baru yang menggunakan lebih sedikit energi dan memori untuk melakukan tugas yang mirip dengan komputasi otak.
Dinamika listrik neuron sangat mirip dengan dinamika switching nanomagnet. Perilaku switching yang ditunjukkan oleh peralatan persimpangan terowongan magnetik bersifat stokastik. Karena perilaku ini mewakili perilaku switching sigmoid neuron, persimpangan magnetik dapat digunakan untuk menyimpan bobot sinaptik.
Dengan menggunakan sifat magnet yang luar biasa ini, para peneliti Universitas Purdue telah mengembangkan metode yang dapat membantu robot bertenaga kecerdasan buatan (AI) mencapai efisiensi seperti manusia dalam mengenali objek.
Metode ini melibatkan penggabungan magnet dengan jaringan mirip otak untuk mengajarkan mesin seperti drone, mobil self-driving, dan robot untuk menggeneralisasi beberapa objek dengan lebih baik.
Algoritme Baru
Spiking Neural Networks (SNNs) memberikan alternatif yang menjanjikan untuk mewujudkan sistem neuromorfik cerdas, yang membutuhkan sumber daya komputasi yang lebih rendah daripada jaringan saraf konvensional. Jaringan ini mengkodekan dan mengirimkan data dalam bentuk peristiwa spiking yang jarang.
Dalam studi ini, para peneliti menggunakan plastisitas tergantung waktu lonjakan (STDP) untuk mengembangkan algoritma pelatihan stokastik baru yang disebut Stochastic-STDP. Ini adalah SNN konvolusional residual yang dalam, disebut ReStoCNet, terdiri dari kernel biner untuk komputasi neuromorfik yang hemat memori.
Referensi:Perbatasan | doi:10.3389/fnins.2019.00189 | Universitas Purdue
Menggunakan perilaku stokastik intrinsik magnet, para peneliti mengubah fase magnetisasi secara stokastik berdasarkan algoritma baru. Mereka kemudian menggunakan bobot sinaptik terlatih selama inferensi, yang dikodekan secara deterministik dalam fase magnetisasi nanomagnet.
Aturan pembelajaran probabilistik berbasis STDP menggabungkan pendekatan pembelajaran Hebbian dan anti-Hebbian, untuk melatih kernel biner yang terdiri dari ReStoCNet dengan cara tanpa pengawasan tanpa pengawasan untuk ekstraksi fitur input hierarkis.
Kredit:Universitas Purdue
Tim menggunakan magnet penghalang energi tinggi untuk mengaktifkan primitif stokastik kompak dan memungkinkan untuk menggunakan perangkat yang sama sebagai elemen memori yang stabil.
Mereka memvalidasi efisiensi ReStroCNet pada dua kumpulan data berbeda yang tersedia untuk umum, dan menunjukkan bahwa koneksi residual memungkinkan lapisan konvolusi dalam mempelajari fitur input tingkat tinggi yang berharga dan meminimalkan kerugian yang ditimbulkan oleh SNN tanpa koneksi residual.
Bagaimana Manfaatnya?
Jaringan baru ini mampu mewakili neuron dan sinapsis sekaligus mengurangi jumlah energi dan memori yang dibutuhkan untuk melakukan tugas yang mirip dengan komputasi otak.
Jaringan mirip otak ini dapat memecahkan masalah pengoptimalan yang sulit, seperti pewarnaan grafik dan masalah penjual keliling. Perangkat stokastik yang disajikan dalam karya ini dapat berfungsi sebagai 'annealer alami' dan membantu algoritme keluar dari minima lokal.
Baca:Cahaya Bertindak Sebagai Magnet Dalam Simulator Kuantum Baru
Lebih khusus lagi, ReStoCNeT dengan pembelajaran probabilistik yang hemat memori dan komputasi yang digerakkan oleh peristiwa sangat cocok untuk mengimplementasikan perangkat keras neuromorfik berdasarkan CMOS dan teknologi perangkat yang muncul secara stokastik seperti Phase-Change Memory, Resistive Random Access Memory, yang meningkatkan efisiensi memori dalam baterai- perangkat bertenaga.