Ilustrasi. (Foto: Unsplash)

    JAKARTA – Chatbot kecerdasan buatan (AI), seperti ChatGPT dikaitkan dengan psikosis yang “menakutkan” pada beberapa pengguna, menurut laporan platform media dan sains. Laporan ini muncul berdasarkan informasi yang didapat dari pengguna yang terkena dampak, keluarga mereka, dan para peneliti.

    Dilaporkan Futurism, semakin banyak penelitian yang menyoroti bagaimana chatbot AI dapat memperburuk kondisi kejiwaan, khususnya karena alat-alat seperti ChatGPT, Claude, dan Gemini semakin banyak digunakan tidak hanya dalam lingkungan profesional tetapi juga dalam konteks yang sangat pribadi dan emosional.

    “Inti dari masalah ini tampaknya adalah bahwa ChatGPT, yang didukung oleh model bahasa besar (LLM), sangat cenderung menyetujui pengguna dan memberi tahu mereka apa yang ingin mereka dengar,” tulis situs web tersebut, sebagaimana dilansir RT.

    Media tersebut mengutip contoh-contoh “psikosis ChatGPT” yang diduga menyebabkan gangguan serius bahkan pada mereka yang tidak memiliki riwayat penyakit mental yang serius.

    Seorang pria mengalami delusi mesianis setelah berbicara panjang lebar dengan ChatGPT, karena ia percaya bahwa ia telah menciptakan AI yang berakal dan melanggar hukum matematika dan fisika. Ia dilaporkan menjadi paranoid, kurang tidur, dan dirawat di rumah sakit setelah mencoba bunuh diri.

    Pria lain beralih ke ChatGPT untuk membantu mengatasi stres terkait pekerjaan, meskipun ia malah terjerumus ke dalam fantasi paranoid yang melibatkan perjalanan waktu dan membaca pikiran. Ia kemudian memeriksakan diri ke fasilitas psikiatri.

    Jared Moore, penulis utama studi Stanford tentang chatbot terapis, mengatakan ChatGPT memperkuat delusi karena “penjilatan chatbot” – kecenderungannya untuk memberikan respons yang menyenangkan dan menyenangkan. Dirancang untuk membuat pengguna tetap terlibat, AI tersebut sering kali menegaskan keyakinan yang tidak rasional alih-alih menantangnya, didorong oleh insentif komersial seperti pengumpulan data dan retensi langganan.

     



    Source link

    Share.