Chip AI Revolusioner Melampaui Batas Transistor, Menghadirkan Kekuatan Komputasi yang Masif
INSIDER Elektronik &Sensor
Peneliti Princeton telah sepenuhnya menata ulang fisika komputasi untuk membangun sebuah chip untuk beban kerja AI modern. Dan dengan dukungan baru dari pemerintah AS, mereka akan melihat betapa cepat, ringkas, dan hemat dayanya chip ini. Prototipe awal digambarkan di atas. (Gambar:Hongyang Jia/Universitas Princeton)
Organisasi penelitian terbesar di Departemen Pertahanan telah bermitra dengan upaya yang dipimpin Universitas Princeton untuk mengembangkan microchip canggih untuk kecerdasan buatan.
Perangkat keras baru ini menata ulang chip untuk beban kerja modern yang dapat menjalankan sistem AI yang kuat dengan menggunakan energi yang jauh lebih sedikit dibandingkan semikonduktor tercanggih saat ini, menurut Naveen Verma, profesor teknik elektro dan komputer. Verma, yang akan memimpin proyek ini, mengatakan bahwa kemajuan ini mampu menembus hambatan utama yang menghambat chip untuk AI, termasuk ukuran, efisiensi, dan skalabilitas.
Chip yang membutuhkan lebih sedikit energi dapat digunakan untuk menjalankan AI di lingkungan yang lebih dinamis, mulai dari laptop dan ponsel, rumah sakit, jalan raya, hingga orbit rendah Bumi dan sekitarnya. Jenis chip yang mendukung model paling canggih saat ini terlalu besar dan tidak efisien untuk dijalankan pada perangkat kecil, sehingga chip tersebut hanya terbatas pada rak server dan pusat data besar.
Kini, Badan Proyek Penelitian Lanjutan Pertahanan (DARPA) mengumumkan akan mendukung pekerjaan Verma, berdasarkan serangkaian penemuan penting dari laboratoriumnya, dengan hibah sebesar $18,6 juta. Pendanaan DARPA akan mendorong eksplorasi mengenai seberapa cepat, kompak, dan hemat daya yang bisa dicapai oleh chip baru ini.
“Ada batasan yang cukup penting dimana AI terbaik hanya tersedia di pusat data,” kata Verma. “Anda membuka kuncinya dari situ dan cara kita mendapatkan manfaat dari AI akan meledak.”
Pengumuman ini datang sebagai bagian dari upaya DARPA yang lebih luas untuk mendanai “kemajuan revolusioner dalam ilmu pengetahuan, perangkat, dan sistem” untuk komputasi AI generasi berikutnya. Program yang disebut OPTIMA ini mencakup proyek-proyek di berbagai universitas dan perusahaan. Permintaan proposal program ini memperkirakan total pendanaan sebesar $78 juta, meskipun DARPA belum mengungkapkan daftar lengkap institusi atau jumlah total pendanaan yang telah diberikan program tersebut hingga saat ini.
Dalam proyek yang dipimpin Princeton, para peneliti akan berkolaborasi dengan startup Verma, EnCharge AI. Berbasis di Santa Clara, CA, EnCharge AI mengkomersialkan teknologi berdasarkan penemuan dari laboratorium Verma, termasuk beberapa makalah penting yang ia tulis bersama mahasiswa pascasarjana teknik elektro sejak tahun 2016.
Verma mendirikan EnCharge AI pada tahun 2022 bersama Kailash Gopalakrishnan, mantan IBM Fellow, dan Echere Iroaga, pemimpin dalam desain sistem semikonduktor.
Gopalakrishnan mengatakan bahwa inovasi dalam arsitektur komputasi yang ada, serta peningkatan dalam teknologi silikon, mulai melambat tepat pada saat AI mulai menciptakan tuntutan baru yang besar akan daya komputasi dan efisiensi. Bahkan unit pemrosesan grafis (GPU) terbaik yang digunakan untuk menjalankan sistem AI saat ini tidak dapat memitigasi hambatan dalam memori dan energi komputasi yang dihadapi industri. “Meskipun GPU adalah alat terbaik yang tersedia saat ini,” katanya, “kami menyimpulkan bahwa jenis chip baru akan diperlukan untuk membuka potensi AI.”
Antara tahun 2012 dan 2022, jumlah daya komputasi yang dibutuhkan oleh model AI tumbuh sekitar satu juta persen, menurut Verma, yang juga direktur Keller Center for Innovation in Engineering Education di Universitas Princeton. Untuk memenuhi permintaan, chip terbaru dikemas dalam puluhan miliar transistor, masing-masing dipisahkan oleh virus kecil. Namun chip tersebut masih belum cukup padat dalam hal daya komputasi untuk kebutuhan modern.
Model-model terkemuka saat ini, yang menggabungkan model bahasa besar dengan visi komputer dan pendekatan pembelajaran mesin lainnya, dikembangkan menggunakan lebih dari satu triliun variabel masing-masing. GPU rancangan Nvidia yang memicu ledakan AI telah menjadi sangat berharga, sehingga perusahaan-perusahaan besar dilaporkan mengangkutnya melalui mobil lapis baja. Tunggakan untuk membeli atau menyewakan chip ini mencapai titik hilang.
Ketika Nvidia menjadi perusahaan ketiga yang mencapai valuasi $2 triliun, Wall Street Journal melaporkan bahwa peningkatan pesat pendapatan perusahaan tidak disebabkan oleh pengembangan model, yang disebut pelatihan, namun melalui chip yang memungkinkan penggunaan sistem AI setelah model tersebut dilatih. Para ahli teknologi menyebut tahap penerapan ini sebagai inferensi. Dan kesimpulannya adalah saat Verma mengatakan penelitiannya akan memberikan dampak paling besar dalam jangka waktu dekat hingga menengah.
“Ini semua tentang desentralisasi AI, melepaskannya dari pusat data,” katanya. “Kita harus pindah dari pusat data ke tempat-tempat di mana kita dan proses-proses yang penting bagi kita dapat mengakses komputasi secara maksimal, yaitu ponsel, laptop, pabrik, dan sebagainya.”
Untuk membuat chip yang dapat menangani beban kerja AI modern di lingkungan yang padat atau terbatas energi, para peneliti harus sepenuhnya menata ulang fisika komputasi sambil merancang dan mengemas perangkat keras yang dapat diproduksi dengan teknik fabrikasi yang ada dan akan bekerja dengan baik dengan teknologi komputasi yang ada, seperti unit pemrosesan pusat.
“Model AI telah berkembang pesat dalam ukurannya,” kata Verma, “dan itu berarti dua hal.” Chip AI harus menjadi lebih efisien dalam mengerjakan matematika dan lebih efisien dalam mengelola dan memindahkan data.
Pendekatan mereka memiliki tiga bagian penting.
Arsitektur inti dari setiap komputer digital mengikuti pola yang tampak sederhana, pertama kali dikembangkan pada tahun 1940an:menyimpan data di satu tempat, melakukan komputasi di tempat lain. Itu berarti memindahkan informasi antara sel memori dan prosesor. Selama dekade terakhir, Verma telah memelopori penelitian terhadap pendekatan terbaru di mana komputasi dilakukan secara langsung di sel memori, yang disebut komputasi dalam memori. Itu bagian pertama. Komputasi dalam memori dijanjikan akan mengurangi waktu dan energi yang diperlukan untuk memindahkan dan memproses data dalam jumlah besar.
Namun sejauh ini, pendekatan digital terhadap komputasi dalam memori masih sangat terbatas. Verma dan timnya beralih ke pendekatan alternatif:komputasi analog. Itu bagian kedua.
“Dalam kasus khusus komputasi dalam memori, Anda tidak hanya perlu melakukan komputasi secara efisien,” kata Verma, “Anda juga perlu melakukannya dengan kepadatan yang sangat tinggi karena sekarang komputasi harus muat di dalam sel memori yang sangat kecil ini.” Daripada menyandikan informasi dalam rangkaian 0 dan 1, dan memproses informasi tersebut menggunakan sirkuit logika tradisional, komputer analog memanfaatkan fisika perangkat yang lebih kaya. Kelengkungan roda gigi. Kemampuan kawat menahan muatan listrik.
Sinyal digital mulai menggantikan sinyal analog pada tahun 1940-an terutama karena skala kode biner menjadi lebih baik seiring dengan pertumbuhan komputasi yang eksponensial. Namun sinyal digital tidak memanfaatkan secara mendalam sifat fisik perangkat, sehingga memerlukan lebih banyak penyimpanan dan pengelolaan data. Mereka kurang efisien dalam hal itu. Analog mendapatkan efisiensinya dari pemrosesan sinyal yang lebih halus menggunakan fisika intrinsik perangkat. Namun hal ini mungkin memerlukan pengorbanan dalam hal ketepatan.
“Kuncinya adalah menemukan fisika yang tepat untuk pekerjaan tersebut pada perangkat yang dapat dikontrol dengan sangat baik dan diproduksi dalam skala besar,” kata Verma.
Timnya menemukan cara untuk melakukan perhitungan yang sangat akurat menggunakan sinyal analog yang dihasilkan oleh kapasitor yang dirancang khusus untuk menghidupkan dan mematikan dengan presisi yang tepat. Itu bagian ketiga. Berbeda dengan perangkat semikonduktor seperti transistor, energi listrik yang bergerak melalui kapasitor tidak bergantung pada kondisi variabel seperti suhu dan mobilitas elektron dalam suatu material. “Mereka hanya bergantung pada geometri,” kata Verma. “Mereka bergantung pada jarak antara satu kawat logam dan kawat logam lainnya.” Dan geometri adalah satu hal yang dapat dikontrol dengan sangat baik oleh teknik manufaktur semikonduktor tercanggih saat ini.
Sumber