Manufaktur industri
Industri Internet of Things | bahan industri | Pemeliharaan dan Perbaikan Peralatan | Pemrograman industri |
home  MfgRobots >> Manufaktur industri >  >> Industrial Internet of Things >> Sensor

Data Pelatihan Penjahit Pipeline Bertenaga Simulasi untuk Robot Cekatan

DALAM Desain Gerak

PhysicsGen dapat melipatgandakan beberapa lusin demonstrasi realitas virtual menjadi hampir 3.000 simulasi per mesin untuk pendamping mekanis seperti lengan dan tangan robot. (Gambar:Dirancang oleh Alex Shipps/MIT CSAIL, menggunakan foto dari para peneliti)

Ketika ChatGPT atau Gemini memberikan tanggapan yang tampaknya ahli terhadap pertanyaan-pertanyaan Anda yang membara, Anda mungkin tidak menyadari betapa banyak informasi yang diandalkan untuk memberikan jawaban tersebut. Seperti model kecerdasan buatan (AI) generatif populer lainnya, chatbot ini mengandalkan sistem tulang punggung yang disebut model dasar yang melatih miliaran, atau bahkan triliunan titik data.

Sejalan dengan itu, para insinyur berharap dapat membangun model dasar yang melatih berbagai robot dengan keterampilan baru seperti mengambil, memindahkan, dan meletakkan benda di tempat seperti rumah dan pabrik. Masalahnya adalah sulitnya mengumpulkan dan mentransfer data instruksional melalui sistem robot. Anda dapat mengajarkan sistem Anda dengan mengoperasikan perangkat keras secara jarak jauh selangkah demi selangkah menggunakan teknologi seperti realitas virtual (VR), namun hal ini dapat memakan waktu. Pelatihan menggunakan video dari internet kurang memberikan pelajaran, karena klip tersebut tidak memberikan panduan langkah demi langkah dan tugas khusus untuk robot tertentu.

Pendekatan berbasis simulasi yang disebut “PhysicsGen” dari Laboratorium Ilmu Komputer dan Kecerdasan Buatan (CSAIL) MIT dan Institut Robotika dan AI menyesuaikan data pelatihan robot untuk membantu robot menemukan gerakan paling efisien untuk suatu tugas. Sistem ini dapat melipatgandakan beberapa lusin demonstrasi VR menjadi hampir 3.000 simulasi per mesin. Instruksi berkualitas tinggi ini kemudian dipetakan ke konfigurasi yang tepat dari perangkat mekanis seperti lengan dan tangan robot.

PhysicsGen membuat data yang digeneralisasikan ke robot dan kondisi tertentu melalui proses tiga langkah. Pertama, headset VR melacak bagaimana manusia memanipulasi objek seperti balok menggunakan tangan mereka. Interaksi ini sekaligus dipetakan dalam simulator fisika 3D, memvisualisasikan titik-titik kunci tangan kita sebagai bola kecil yang mencerminkan gerakan kita. Misalnya, jika Anda membalik mainan, Anda akan melihat bentuk 3D yang mewakili berbagai bagian tangan Anda yang memutar versi virtual objek tersebut.

Pipeline kemudian memetakan kembali titik-titik ini ke model 3D dari pengaturan mesin tertentu (seperti lengan robot), memindahkannya ke “sambungan” yang tepat di mana sistem berputar dan berputar. Terakhir, PhysicsGen menggunakan pengoptimalan lintasan — yang pada dasarnya menyimulasikan gerakan paling efisien untuk menyelesaikan tugas — sehingga robot mengetahui cara terbaik untuk melakukan hal-hal seperti mengubah posisi kotak.

Setiap simulasi adalah titik data pelatihan terperinci yang memandu robot melalui cara-cara potensial untuk menangani objek. Saat diterapkan ke dalam kebijakan (rencana tindakan yang diikuti robot), mesin memiliki beragam cara untuk melakukan tugas dan dapat mencoba berbagai gerakan jika salah satu tidak berhasil.

“Kami menciptakan data khusus robot tanpa memerlukan manusia untuk merekam ulang demonstrasi khusus untuk setiap mesin,” kata Lujie Yang, seorang Ph.D. mahasiswa teknik elektro dan ilmu komputer dan afiliasi CSAIL yang merupakan penulis utama makalah baru yang memperkenalkan proyek ini. “Kami meningkatkan data dengan cara yang otonom dan efisien, menjadikan instruksi tugas berguna untuk lebih banyak mesin.”

Menghasilkan begitu banyak lintasan instruksional untuk robot pada akhirnya dapat membantu para insinyur membangun kumpulan data besar untuk memandu mesin seperti lengan robot dan tangan tangkas. Misalnya, jalur pipa dapat membantu dua lengan robot berkolaborasi dalam mengambil barang-barang gudang dan menempatkannya di kotak yang tepat untuk pengiriman. Sistem ini juga dapat memandu dua robot untuk bekerja sama dalam satu rumah dalam tugas-tugas seperti menyimpan cangkir.

Potensi PhysicsGen juga meluas dalam mengubah data yang dirancang untuk robot tua atau lingkungan berbeda menjadi instruksi berguna untuk mesin baru. “Meskipun dikumpulkan untuk jenis robot tertentu, kami dapat menghidupkan kembali kumpulan data sebelumnya agar lebih berguna secara umum,” kata Yang. PhysicsGen mengubah hanya 24 demonstrasi manusia menjadi ribuan demonstrasi, membantu robot digital dan dunia nyata mengubah orientasi objek.

Yang dan rekan-rekannya pertama kali menguji saluran pipa mereka dalam eksperimen virtual di mana tangan robot yang mengambang perlu memutar balok ke posisi target. Robot digital tersebut melaksanakan tugas tersebut dengan tingkat akurasi 81 persen dengan melatih kumpulan data besar PhysicsGen, peningkatan sebesar 60 persen dari data dasar yang hanya dipelajari dari demonstrasi manusia.

Para peneliti juga menemukan bahwa PhysicsGen dapat meningkatkan cara lengan robot virtual berkolaborasi untuk memanipulasi objek. Sistem mereka menciptakan data pelatihan tambahan yang membantu dua pasang robot berhasil menyelesaikan tugas sebanyak 30 persen lebih sering dibandingkan data dasar yang murni diajarkan oleh manusia.

Dalam percobaan dengan sepasang lengan robotik di dunia nyata, para peneliti mengamati peningkatan serupa ketika mesin-mesin tersebut bekerja sama untuk membalikkan sebuah kotak besar ke posisi yang ditentukan. Ketika robot menyimpang dari lintasan yang diinginkan atau salah menangani objek, mereka dapat memulihkan tugasnya di tengah tugas dengan merujuk lintasan alternatif dari perpustakaan data instruksional mereka.

Penulis senior Russ Tedrake, yang merupakan Profesor Teknik Elektro dan Ilmu Komputer, Aeronautika dan Astronautika, dan Teknik Mesin Toyota di MIT, mengatakan bahwa teknik pembuatan data dengan panduan imitasi ini menggabungkan kekuatan demonstrasi manusia dengan kekuatan algoritme perencanaan gerak robot.

“Bahkan satu demonstrasi dari manusia dapat membuat masalah perencanaan gerak menjadi lebih mudah,” kata Tedrake, yang juga merupakan wakil presiden senior model perilaku besar di Toyota Research Institute dan peneliti utama CSAIL. “Di masa depan, mungkin model dasar akan mampu memberikan informasi ini, dan jenis teknik pembuatan data ini akan memberikan semacam resep pasca-pelatihan untuk model tersebut.”

Dalam waktu dekat, PhysicsGen dapat diperluas ke batas baru:mendiversifikasi tugas yang dapat dijalankan oleh mesin. “Kami ingin menggunakan PhysicsGen untuk mengajari robot menuangkan air ketika ia hanya dilatih untuk menyimpan piring, misalnya,” kata Yang. “Pipa kami tidak hanya menghasilkan gerakan yang layak secara dinamis untuk melakukan tugas-tugas biasa; namun juga berpotensi menciptakan beragam interaksi fisik yang kami yakini dapat berfungsi sebagai landasan untuk menyelesaikan tugas-tugas baru yang belum pernah dilakukan manusia.”

Membuat banyak data pelatihan yang dapat diterapkan secara luas pada akhirnya dapat membantu membangun model dasar untuk robot, meskipun para peneliti MIT mengingatkan bahwa tujuan ini masih jauh dari kenyataan. Tim yang dipimpin CSAIL sedang menyelidiki bagaimana PhysicsGen dapat memanfaatkan sumber daya yang luas dan tidak terstruktur — seperti video internet — sebagai benih simulasi. Sasarannya:mengubah konten visual sehari-hari menjadi data yang kaya dan siap digunakan oleh robot yang dapat mengajarkan mesin untuk melakukan tugas yang tidak diperlihatkan secara eksplisit oleh siapa pun.

Yang dan rekan-rekannya juga bertujuan untuk menjadikan PhysicsGen lebih berguna bagi robot dengan beragam bentuk dan konfigurasi di masa depan. Untuk mewujudkan hal tersebut, mereka berencana memanfaatkan kumpulan data dengan demonstrasi robot sungguhan, dan menangkap bagaimana sendi robot bergerak, bukan sendi manusia.

Para peneliti juga berencana untuk menggabungkan pembelajaran penguatan, di mana sistem AI belajar melalui trial and error, untuk membuat PhysicsGen memperluas kumpulan datanya melampaui contoh yang diberikan oleh manusia. Mereka dapat melengkapi saluran mereka dengan teknik persepsi canggih untuk membantu robot memahami dan menafsirkan lingkungannya secara visual, sehingga memungkinkan mesin menganalisis dan beradaptasi dengan kompleksitas dunia fisik.

Untuk saat ini, PhysicsGen menunjukkan bagaimana AI dapat membantu kita mengajari berbagai robot untuk memanipulasi objek dalam kategori yang sama, terutama objek kaku. Pipeline ini mungkin akan segera membantu robot menemukan cara terbaik untuk menangani benda lunak (seperti buah-buahan) dan benda yang dapat berubah bentuk (seperti tanah liat), namun interaksi tersebut belum mudah untuk disimulasikan.

Sumber


Sensor

  1. Laporan Khusus Maret 2026:Memajukan ADAS, Kendaraan Terhubung &Otomatis
  2. Kerja Sensor Taktil dan Jenisnya
  3. Robot 'Mendengar', Menggunakan Telinga dari Belalang
  4. Spesifikasi dan Aplikasi ICM-20608-G
  5. Sistem Propulsi untuk Penerbangan Hipersonik
  6. Peneliti Mengembangkan Metode untuk Menekan Hamburan Balik, Meningkatkan Transmisi Data Optik
  7. Dengan A.I., Robotic Exoskeletons Mendapatkan Kontrol Diri
  8. Kualitas Teknik dari Sumber:Pengujian Berbasis Pengembang untuk Keunggulan Otomotif
  9. Probe Molekul Kerja Cepat
  10. Perpustakaan Peristiwa Tanda Tangan Grid Memberdayakan Analisis Jaringan Listrik Mendalam