Bagaimana Keberagaman Data dan Praktik Etis Mendorong Rekayasa AI yang Bertanggung Jawab
Perjalanan teknik Karen Panetta membawanya untuk mengidentifikasi bias kritis dalam sistem pengenalan wajah dan memperjuangkan teknologi transparan yang melindungi kesejahteraan manusia.
Oleh
- Esther Shittu, Penulis Berita
- Shaun Sutner, Direktur Berita Senior
Diterbitkan:01 Juli 2025
Jalan Karen Panetta untuk meraih gelar teknik dimulai dari nasihat ayahnya bahwa kebiasaan berbelanjanya perlu ditopang oleh karier finansial yang kuat.
Setelah menghabiskan beberapa waktu membuat komputer dan mendesain CPU, rekan IEEE dan dekan pendidikan teknik pascasarjana di Universitas Tufts ini ingin terjun ke dunia akademis. Namun, ia menyadari ada masalah besar di bidang teknik.
“Mereka berkata, 'Kami mempekerjakan Anda untuk menjadi mentor bagi perempuan,' dan kemudian ketika saya masuk ke kelas pertama, tidak ada perempuan,'” Panetta menceritakan episode terbaru podcast Targeting AI dari Informa TechTarget. "Itulah cara saya menjadi mentor, pendukung, dan pendukung dalam membawa audiens inklusif ke dunia teknik."
Semangatnya kemudian beralih ke teknologi AI ketika dia mulai bekerja untuk menyelamatkan anak-anak dari perdagangan manusia.
“Saya perhatikan semua kumpulan data yang dilatih di luar sana untuk pengenalan wajah diambil langsung, kedua telinganya terlihat,” kata Panetta. "Database sebagian besar diambil dari database orang kulit berwarna dan kriminal. Jadi sepertinya, oke, ada bias di sana."
Sebagai tanggapan, Panetta dan timnya membuat database beragam orang dari seluruh dunia, berusia 3 hingga 78 tahun. Gambar tersebut menampilkan orang-orang dalam skenario berbeda, baik dengan kacamata hitam, masker, atau rotasi kepala berbeda.
“AI yang dilatih dengan data yang sangat murni tidak akan berfungsi di dunia nyata,” kata Panetta. "Dunia nyata tidak secara otomatis diterjemahkan ke dalam AI."
Panetta menambahkan bahwa teknologi AI juga harus beretika, artinya tidak merugikan manusia atau penghidupan mereka.
“Saat kita berbicara tentang AI yang etis, kita berbicara tentang cara kami mengumpulkannya, hak-hak masyarakat, dan cara kami menggunakannya,” katanya.
Sedangkan AI yang bertanggung jawab adalah kemampuan menjelaskan mengapa sistem AI mengambil keputusan tersebut, ujarnya.
Esther Shittu adalah penulis berita Informa TechTarget dan pembawa acara podcast yang meliput perangkat lunak dan sistem AI. Shaun Sutner adalah direktur berita senior untuk tim manajemen informasi Informa TechTarget, yang mendorong liputan teknologi AI, analitik dan manajemen data, serta teknologi besar dan regulasi federal. Dia adalah jurnalis veteran dengan pengalaman berita lebih dari 30 tahun. Bersama-sama, mereka meliput podcast Targeting AI.
Gali lebih dalam tentang teknologi AI
-
11 contoh dan kasus penggunaan AI agen di dunia nyata
Oleh:Mary Pratt
-
Visi AI perusahaan IBM untuk penyesuaian dan kolaborasi
Oleh:Esther Shittu
-
CEO Black Girls Code mengatakan Keberagaman dalam AI mencakup semua orang
Oleh:Esther Shittu
-
Bagaimana pendekatan Cerebras bersaing dengan Nvidia
Oleh:Esther Shittu