Google baru saja meluncurkan PaliGemma 2, model kecerdasan buatan (AI) yang mampu menganalisis gambar dengan detail luar biasa. Tak hanya mengenali objek, PaliGemma 2 juga bisa mendeskripsikan tindakan dan bahkan mengidentifikasi emosi yang terpancar dalam sebuah adegan. Kemampuan ini, menurut Google, membuka peluang baru dalam analisis berbasis gambar.
Namun, kemampuan AI ini menimbulkan kekhawatiran. Sandra Wachter, profesor etika data di Oxford Internet Institute, mempertanyakan landasan ilmiah teknologi deteksi emosi. "Deteksi emosi sudah lama dicoba untuk berbagai keperluan, tapi dasar ilmiahnya masih dipertanyakan," ujarnya. Kebanyakan teknologi sejenis mengacu pada teori enam emosi dasar Paul Ekman, namun penelitian terbaru menunjukkan perbedaan signifikan ekspresi emosional antar budaya, yang meragukan keakuratan model AI ini.

Mike Cook, peneliti di King’s College London, menambahkan kompleksitas emosi manusia sebagai tantangan. Algoritma, menurutnya, rentan terhadap bias, termasuk dalam interpretasi emosi berdasarkan ras. Sebuah studi MIT tahun 2020 menunjukkan kecenderungan model analisis wajah memberi label negatif lebih banyak pada wajah orang kulit hitam dibandingkan kulit putih. Hal ini menimbulkan risiko serius, terutama dalam konteks penegakan hukum dan perekrutan.
Uni Eropa telah melangkah lebih jauh dengan melarang penggunaan detektor emosi di sekolah dan tempat kerja, karena dampaknya pada privasi dan non-diskriminasi. Heidy Khlaaf, kepala ilmuwan AI di AI Now Institute, menekankan bahaya potensial, terutama bagi kelompok marginal: "Jika teknologi ini didasarkan pada asumsi ilmiah yang lemah, risikonya bisa sangat berbahaya."
Google sendiri menyatakan komitmennya terhadap evaluasi etis dan keamanan PaliGemma 2. Namun, para ahli tetap menyerukan kehati-hatian dalam penerapan teknologi ini, mengingat implikasi sosialnya yang luas dan potensi bias yang signifikan. Perdebatan tentang akurasi dan etika AI deteksi emosi ini masih jauh dari selesai.




