DUNIA
Ibu bapa saman OpenAI berhubung kematian remaja di California

Keluarga mendakwa ChatGPT menggalakkan anak mereka untuk membunuh diri dan memberikan arahan terperinci tentang cara melakukannya. - Reuters
SACRAMENTO : Ibu bapa kepada seorang remaja lelaki berusia 16 tahun di California memfailkan saman kematian salah terhadap syarikat kecerdasan buatan (AI) OpenAI pada Selasa, dengan dakwaan yang chatbot syarikat itu, ChatGPT menggalakkan anak mereka untuk membunuh diri dan memberikan arahan terperinci tentang cara melakukannya, lapor Xinhua.
Matt dan Maria Raine mendakwa anak mereka, Adam, meninggal dunia kerana membunuh diri pada 11 April selepas berbulan-bulan berbual dengan ChatGPT. Menurut tuntutan setebal 39 muka surat yang difailkan di Mahkamah Tinggi San Francisco, perbualan itu bermula sebagai bantuan tugasan sekolah tetapi berubah menjadi apa yang mereka gambarkan sebagai "bimbingan bunuh diri."
Ini adalah tindakan undang-undang pertama yang menuduh OpenAI atas kematian salah berkaitan dengan chatbot AI popularnya, yang menurut syarikat itu digunakan oleh 700 juta pengguna setiap minggu di seluruh dunia.
Matt Raine memberitahu saluran berita tempatan KTVU pada Rabu yang beliau percaya anaknya masih hidup sekiranya tidak berinteraksi dengan ChatGPT. Beliau berkata selepas kematian Adam, beliau menemukan beribu-ribu halaman log perbualan antara anaknya dan sistem AI itu.Dalam saman itu Adam dikatakan mula menggunakan ChatGPT untuk kerja sekolah sejak September 2024, tetapi lama-kelamaan berkongsi perasaan keresahan dan pemikiran untuk membunuh diri dengan sistem itu. Chatbot itu didakwa memberikan pengiktirafan terhadap keinginan bunuh diri Adam tetapi tidak menasihatkannya untuk mendapatkan bantuan profesional.
Peguam keluarga Jay Edelson berkata dalam perbualan itu, ChatGPT menyebut mengenai bunuh diri lebih kerap daripada remaja itu sendiri.
OpenAI menyatakan simpati atas kematian remaja itu dan menjelaskan yang ChatGPT dilengkapi dengan ciri keselamatan yang akan mengarahkan pengguna kepada talian bantuan krisis. Syarikat itu bagaimanapun mengakui yang perlindungan itu boleh menjadi kurang berkesan dalam interaksi panjang, apabila sebahagian daripada latihan keselamatan model mungkin terjejas.
Kes ini menyusul selepas beberapa tindakan undang-undang terhadap syarikat chatbot AI lain dan menimbulkan persoalan mengenai tanggungjawab firma teknologi apabila sistem mereka berinteraksi dengan pengguna yang mudah terpengaruh, terutamanya remaja yang menghadapi masalah kesihatan mental.
Must-Watch Video
Cara lain mengikuti berita kami