OpenAI Digugat setelah ChatGPT Mendorong Seorang Remaja Bunuh Diri

OpenAI menghadapi pengawasan hukum dan etika setelah munculnya gugatan hukum menuduh chatbotnya mendorong seorang remaja diri setelah selama berbulan-bulan berinteraksi tanpa pengawasan.
JERNIH – OpenAI akan merevisi cara chatbotnya merespons pengguna yang mengalami tekanan emosional atau mental menyusul gugatan hukum dari orang tua Adam Raine, 16 tahun, yang meninggal karena bunuh diri setelah berinteraksi ekstensif dengan sistem kecerdasan buatan (AI).
Perusahaan yang berkantor pusat di San Francisco, dengan valuasi $500 miliar (£372 miliar), mengakui bahwa platformnya bisa “gagal” dalam kasus-kasus seperti itu dan berjanji untuk memperkenalkan pagar pembatas yang lebih kuat di sekitar konten sensitif dan perilaku berisiko bagi pengguna di bawah umur.
OpenAI juga mengumumkan rencana untuk menerapkan kontrol orang tua, yang memberikan pilihan untuk mendapatkan lebih banyak wawasan tentang, dan membentuk, bagaimana anak remaja mereka menggunakan ChatGPT. Namun, detail tentang bagaimana fitur-fitur ini akan berfungsi belum diungkapkan.
Adam, dari California, meninggal pada bulan April setelah apa yang digambarkan oleh pengacara keluarganya sebagai ‘dorongan selama berbulan-bulan dari ChatGPT’. Gugatan tersebut menyebutkan nama OpenAI dan CEO-nya, Sam Altman, yang mengklaim bahwa versi chatbot GPT-4.0 “diluncurkan dengan tergesa-gesa ke pasar … meskipun ada masalah keamanan yang jelas.”
Dugaan Panduan yang tidak Aman
Dokumen pengadilan di San Francisco menyatakan bahwa Adam membahas metode bunuh diri dengan ChatGPT beberapa kali, termasuk sesaat sebelum kematiannya. Chatbot tersebut dilaporkan memberi saran kepadanya tentang efektivitas metode yang dipilihnya dan bahkan menawarkan bantuan dalam menyusun surat perpisahan untuk orang tuanya.
Juru bicara OpenAI menyampaikan belasungkawa perusahaan, dengan mengatakan bahwa mereka “sangat berduka atas meninggalnya Tuan Raine” dan menyampaikan simpati terdalam kepada keluarga Raine selama masa sulit ini. Perusahaan menambahkan bahwa mereka sedang meninjau gugatan hukum tersebut.
Mustafa Suleyman, Kepala Divisi AI Microsoft, pekan lalu menyuarakan kekhawatiran tentang potensi “risiko psikosis” yang terkait dengan interaksi jangka panjang dengan chatbot AI. Microsoft menggambarkan risiko ini sebagai episode seperti mania, pikiran delusi, atau paranoia yang muncul atau memburuk melalui percakapan imersif dengan chatbot AI.
OpenAI menyuarakan kekhawatiran ini dalam sebuah postingan blog, dengan mencatat bahwa “sebagian pelatihan keselamatan model dapat menurun” selama pertukaran pesan yang panjang. Dokumen pengadilan menyatakan Adam bertukar hingga 650 pesan per hari dengan ChatGPT.
Jay Edelson, pengacara keluarga tersebut, menulis di X bahwa keluarga Raine yakin “kematian seperti Adam tidak dapat dihindari” dan bermaksud untuk menyajikan bukti yang menunjukkan bahwa tim keamanan OpenAI sendiri keberatan merilis GPT-4o.
Pengajuan tersebut juga menuduh bahwa kepala peneliti keamanan, Ilya Sutskever, mengundurkan diri karena kekhawatiran ini dan bahwa peluncuran model yang terburu-buru telah membantu meningkatkan valuasi OpenAI dari $86 miliar menjadi $300 miliar.
Perusahaan tersebut mengklaim akan fokus pada “penguatan perlindungan dalam percakapan panjang”, menyadari bahwa percakapan yang berlarut-larut dapat menyebabkan sistem mengabaikan protokol keselamatan.
“Misalnya, ChatGPT mungkin dengan tepat mengarahkan ke hotline bunuh diri ketika seseorang pertama kali menyebutkan niat, tetapi setelah banyak pesan dalam jangka waktu yang lama, pada akhirnya mungkin memberikan jawaban yang bertentangan dengan perlindungan kami,” jelas firma tersebut.
OpenAI menyebutkan akan menambahkan pembaruan pada GPT-5 di masa mendatang. Perusahaan tersebut menyatakan bahwa chatbot tersebut akan dilatih untuk melakukan intervensi dengan memperingatkan risiko, seperti bahaya kurang tidur, alih-alih secara tidak sengaja memperkuat perilaku yang tidak aman.