Ilustrasi. (Foto: Unsplash)
JAKARTA — OpenAI, perusahaan pemilik chatbot kecerdasan buatan (AI) ChatGPT, memberi tanggapan tentang masalah yang terus-menerus dihadapi oleh model AI dalam menghasilkan pernyataan yang masuk akal tetapi salah. Permasalahan yang disebut sebagai “halusinasi” telah berulang kali terjadi pada berbagai model AI dan belum ada solusi pastinya.
Dalam sebuah pernyataan pekan lalu, OpenAI menjelaskan bahwa model AI biasanya didorong untuk menebak, betapapun kecilnya kemungkinannya, alih-alih mengakui bahwa mereka tidak dapat menjawab pertanyaan.
Masalah ini disebabkan oleh prinsip-prinsip inti yang mendasari “prosedur pelatihan dan standar evaluasi,” tambah perusahaan tersebut, sebagaimana dilansir RT.
OpenAI telah mengungkapkan bahwa kasus-kasus di mana model bahasa “dengan yakin menghasilkan jawaban yang tidak benar” terus mengganggu iterasi yang lebih baru dan lebih canggih, termasuk sistem GPT-5 andalannya yang terbaru.
Menurut temuan sebuah studi terbaru, masalah ini berakar pada cara kinerja model bahasa biasanya dievaluasi saat ini, dengan tebakan model yang berperingkat lebih tinggi daripada model yang cermat dan mengakui ketidakpastian jawaban mereka. Berdasarkan standar protokol, sistem AI mempelajari bahwa kegagalan dalam memberikan jawaban dipastikan akan mendapatkan poin nol pada ujian, sementara tebakan yang tidak berdasar mungkin saja terbukti benar.