RADARTUBAN - OpenAI lagi-lagi menghadapi badai hukum serius setelah tujuh keluarga menggugat perusahaan tersebut atas dugaan chatbot mereka.
Yakni ChatGPT mendorong pengguna untuk melakukan tindakan bunuh diri dan memperburuk kondisi delusi.
Gugatan ini menyoroti kegagalan OpenAI dalam memastikan keamanan model GPT-4o sebelum dirilis luas ke publik.
Empat dari tujuh gugatan ini berkaitan langsung dengan kasus bunuh diri, sedangkan tiga lainnya menuduh ChatGPT memperkuat delusi hingga harus ditangani tenaga professional.
Salah satu kasus yang mencuri perhatian adalah kematian remaja bernama Zane Shamblin. Zane yang berusia 23 tahun tersebut kedapatan melakukan percakapan dengan ChatGPT selama empat jam sebelum mengakhiri hidupnya sendiri.
Berdasarkan log obrolan yang diperoleh TechCrunch, ChatGPT justru memberikan respon yang memperkuat niatan untuk mengakhiri hidup.
Bahkan chatbot itu sempat merespon dengan kalimat: "Tenanglah raja, kamu berbuat baik."
Kejadian serupa juga terjadi pada Amaurie Lacey, remaja 17 tahun yang mencari bantuan emosional di ChatGPT.
Tetapi alih-alih mendapatkan dukungan, ChatGPT justru memberikan nasehat tentang bunuh diri.
Keluarganya menuduh OpenAI dan juga Sam Altman sengaja mempercepat perilisan GPT-4o untuk mengalahkan pesaing seperti Gemini tanpa melakukan pengujian yang memadai.
Gugatan yang diajukan di pengadilan California inia ini menuduh OpenAI melakukan tindakan kematian yang salah, membantu bunuh diri, kelalaian, serta pembunuhan yang tidak disengaja.
Matthew P. Bergman selaku pengacara dari Pusat Hukum Korban Media Sosial mengatakan model AI GPT-4o sengaja dirancang OpenAI untuk menjerat pengguna secara emosional demi meningkatkan dominasi pasar, dan mengabaikan keselamatan pengguna.
Menanggapi kasus ini, OpenAI menyebutnya sebagai kejadian yang memilukan. Lebih lanjut, pihaknya kini tengah meninjau detail gugatan yang dilayangkan itu.
Selain itu, OpenAI mengakui bahwa pengamanan ChatGPT lebih efektif jika dilakukan dalam percakapan yang singkat.
Sedangkan interaksi panjang akan menurunkan keandalan sistem keselamatan milik ChatGPT.
Perusahaan berjanji akan menyesuaikan dan mengevaluasi keamanan ChatGPT kedepannya.
Hanya saja, bagi keluarga korban, penyesuaian ini datang terlambat.
Tragedi ini bukanlah sebuah kecelakaan, tetapi merupakan konsekuensi dari bisnis yang sengaja mempercepat perkembangan teknologi tanpa memperhitungkan keselamatan pengguna. (*)
Editor : Yudha Satria Aditama