Model AI terbaru Google PaliGemma2 mengklaim mampu mengidentifikasi emosi manusia melalui analisis gambar, sehingga menimbulkan kontroversi luas. Model ini didasarkan pada model terbuka Gemma dan mampu menghasilkan deskripsi gambar secara detail, termasuk perilaku karakter dan emosi. Namun, para ahli sangat mempertanyakan sifat ilmiah dan keamanan teknologi ini, karena percaya bahwa teori dasarnya lemah dan mungkin memiliki bias dan risiko etika yang serius.
Google baru-baru ini meluncurkan rangkaian model AI baru, PaliGemma2, yang fitur paling menarik perhatiannya adalah klaimnya mampu "mengenali" emosi manusia melalui analisis gambar. Klaim ini dengan cepat memicu diskusi luas dan keraguan serius di kalangan akademisi dan pakar etika teknologi.
Sistem AI berbasis model terbuka Gemma ini dapat menghasilkan deskripsi gambar secara detail, tidak hanya sekedar pengenalan objek sederhana, tetapi juga mencoba menggambarkan perilaku dan emosi karakter dalam gambar. Namun, banyak ahli yang berwenang telah mengeluarkan peringatan serius tentang ilmu pengetahuan dan potensi risiko dari teknologi ini.
Sandra Wachter, seorang profesor etika data dari Oxford Internet Institute, secara blak-blakan menyatakan bahwa mencoba "membaca" emosi manusia melalui AI adalah seperti "meminta nasihat pada bola ajaib." Metafora ini dengan jelas mengungkapkan absurditas teknologi pengenalan emosi.
Faktanya, dasar ilmiah untuk pengenalan emosi itu sendiri sangatlah rapuh. Teori awal enam emosi dasar yang dikemukakan oleh psikolog Paul Ekman telah banyak dipertanyakan oleh penelitian selanjutnya. Ada perbedaan yang signifikan dalam cara orang-orang dari budaya yang berbeda mengekspresikan emosi, membuat pengenalan emosi secara universal menjadi tugas yang hampir mustahil.
Mike Cook, peneliti AI dari Queen Mary University, menyatakannya dengan lebih blak-blakan: Secara umum, deteksi emosi tidak mungkin dilakukan. Meskipun manusia sering kali percaya bahwa mereka dapat menilai emosi orang lain melalui observasi, kemampuan ini jauh lebih kompleks dan tidak dapat diandalkan daripada yang dibayangkan.
Yang lebih mengkhawatirkan lagi adalah sistem AI semacam itu sering kali mempunyai bias yang serius. Berbagai penelitian menunjukkan bahwa model analisis wajah dapat menghasilkan penilaian emosional yang berbeda bagi orang-orang dengan warna kulit berbeda, yang tentunya akan memperburuk diskriminasi sosial yang sudah ada.
Meskipun Google mengklaim telah menguji PaliGemma2 secara ekstensif dan berkinerja baik di beberapa benchmark, para ahli tetap skeptis. Mereka percaya bahwa pengujian terbatas saja tidak dapat sepenuhnya menilai risiko etika yang mungkin ditimbulkan oleh teknologi ini.
Hal yang paling berbahaya adalah model terbuka ini dapat disalahgunakan di bidang-bidang utama seperti lapangan kerja, pendidikan, penegakan hukum, dan lain-lain, sehingga menyebabkan kerugian nyata bagi kelompok rentan. Seperti yang diperingatkan oleh Profesor Wachter, hal ini dapat mengarah pada masa depan yang “tak terkendali”: kesempatan kerja, pinjaman, dan pendidikan bagi masyarakat akan ditentukan oleh “penilaian emosional” dari sistem AI yang tidak dapat diandalkan.
Saat ini, dengan pesatnya perkembangan kecerdasan buatan, inovasi teknologi menjadi penting, namun etika dan keselamatan tidak dapat diabaikan. Kemunculan PaliGemma2 sekali lagi menyoroti perlunya kita mempertahankan pandangan yang jelas dan kritis terhadap teknologi AI.
Kontroversi PaliGemma2 mengingatkan kita bahwa kita perlu memperlakukan teknologi AI dengan hati-hati, terutama di bidang yang melibatkan emosi manusia dan keadilan sosial. Dalam pengembangan AI di masa depan, pertimbangan etis harus diprioritaskan untuk menghindari penyalahgunaan teknologi dan konsekuensi sosial yang tidak dapat diperbaiki.