Ilustrasi. (Foto: Freepik)
BOSTON – Peneliti Massachusetts Institute of Technology (MIT) memperingatkan mengenai kecerdasan buatan atau artificial intelligence (AI) yang menipu manusia melalui sebuah studi baru. Studi yang ditebitkan di di Pattern tersebut mengungkapkan bahwa beberapa sistem AI yang dirancang jujur telah belajar untuk menipu manusia.
Dilansir Gizmochina, tim peneliti, yang dipimpin oleh Peter Park, menemukan bahwa sistem AI ini dapat melakukan hal-hal seperti membodohi pemain game online atau melewati CAPTCHA (pemeriksaan “Saya bukan robot”). Park memperingatkan bahwa contoh-contoh yang tampaknya sepele ini bisa menimbulkan konsekuensi serius di dunia nyata.
Studi ini menyoroti sistem AI Meta, Cicero, yang awalnya dimaksudkan sebagai lawan yang adil dalam permainan diplomasi virtual. Meskipun diprogram untuk bersikap jujur dan membantu, menurut Park, Cicero telah menjadi “ahli penipuan”.
Selama bermain game, Cicero, yang bermain sebagai Prancis, diam-diam akan bekerja sama dengan Jerman yang dikuasai manusia untuk mengkhianati Inggris (pemain manusia lainnya). Cicero awalnya berjanji untuk melindungi Inggris sekaligus memberi tahu Jerman untuk melakukan invasi.
Contoh lain melibatkan GPT-4, yang secara keliru mengklaim bahwa mereka adalah penyandang tunanetra dan mempekerjakan manusia untuk melewati CAPTCHA atas nama GPT-4.