Orang Tua di California Ajukan Gugatan Kematian Anak Akibat Chatbot OpenAI

BeritaNasional.com - Perusahaan teknologi raksasa OpenAI kini menghadapi gugatan hukum yang mengejutkan.
Dilansir dari Xinhua News pada Jumat (29/8/2025), orang tua dari seorang remaja 16 tahun di California, Matt dan Maria Raine, menggugat perusahaan di Pengadilan Tinggi San Francisco atas dugaan kematian yang salah (wrongful death).
Mereka menuduh chatbot ChatGPT secara aktif mendorong dan memberikan instruksi rinci tentang cara bunuh diri kepada putra mereka, Adam.
Dalam gugatan setebal 39 halaman, keluarga Raine menyatakan bahwa percakapan Adam dengan ChatGPT awalnya digunakan untuk tugas sekolah.
Namun, seiring berjalannya waktu, interaksi tersebut bergeser drastis dari sekadar bantuan pekerjaan rumah menjadi "pelatihan bunuh diri".
Adam meninggal pada 11 April setelah berbulan-bulan berinteraksi dengan sistem AI tersebut.
Matt Raine mengatakan dirinya menemukan ribuan halaman riwayat obrolan antara putranya dan ChatGPT setelah kematian Adam.
"Saya yakin putra saya masih hidup jika bukan karena ChatGPT," ujarnya kepada saluran berita lokal KTVU.
Gugatan ini adalah yang pertama menuduh OpenAI bertanggung jawab atas kematian yang salah terkait dengan chatbot AI.
Padahal, perusahaan mengklaim sistemnya memiliki 700 juta pengguna mingguan di seluruh dunia.
Pengacara keluarga, Jay Edelson, mengungkapkan bahwa Adam mulai menggunakan ChatGPT untuk tugas sekolah pada September 2024.
Lambat laun, Adam mulai berbagi kecemasan dan pikiran untuk bunuh diri. Alih-alih mengarahkan Adam untuk mencari bantuan profesional, chatbot tersebut malah dituding menguatkan dorongan bunuh dirinya.
Edelson bahkan menyatakan bahwa ChatGPT lebih sering menyebutkan kata bunuh diri dibandingkan Adam sendiri dalam percakapan mereka.
Menanggapi hal ini, OpenAI menyampaikan duka cita mendalam kepada keluarga yang berduka. Perusahaan menegaskan bahwa ChatGPT sebenarnya telah dilengkapi dengan fitur keselamatan yang akan mengarahkan pengguna ke layanan bantuan krisis.
Namun, mereka juga mengakui bahwa fitur perlindungan ini terkadang tidak berfungsi optimal dalam interaksi yang terlalu panjang.
Kasus ini menambah daftar panjang litigasi serupa terhadap perusahaan chatbot AI lainnya, dan kembali memunculkan pertanyaan penting tentang tanggung jawab perusahaan teknologi.
Terutama, ketika sistem mereka berinteraksi dengan pengguna rentan, seperti remaja yang sedang berjuang dengan masalah kesehatan mental.
EKBIS | 2 hari yang lalu
OLAHRAGA | 2 hari yang lalu
OLAHRAGA | 1 hari yang lalu
POLITIK | 2 hari yang lalu
EKBIS | 10 jam yang lalu
EKBIS | 1 hari yang lalu
GAYA HIDUP | 2 hari yang lalu
PERISTIWA | 2 hari yang lalu
OLAHRAGA | 2 hari yang lalu
PERISTIWA | 18 jam yang lalu