DALAM siri filem Terminator, kecerdasan buatan (AI) Skynet melancarkan ratusan senjata nuklear selepas menilai manusia sebagai ancaman yang perlu dimusnahkan.
Walaupun ia hanya fiksyen, satu kajian terbaharu oleh King’s College London menunjukkan senario hampir serupa boleh berlaku apabila tiga model AI utama dunia diuji dalam simulasi strategik.
Advertisement
Kajian itu menggunakan GPT‑5.2, Claude Sonnet 4, dan Gemini 3 Flash dalam 21 simulasi geopolitik.
Hasilnya mendapati sekurang-kurangnya satu model memilih untuk menggunakan senjata nuklear dalam 95 peratus simulasi, termasuk dalam keadaan pilihan diplomatik disediakan sebagai jalan penyelesaian.
Model-model AI itu dilaporkan tidak sekali pun memilih untuk menyerah diri atau melayani kehendak pihak lawan, walaupun kedudukan mereka semakin lemah.
Sebaliknya, ia terus mengambil pendekatan agresif dan menganggap penggunaan senjata nuklear sebagai pilihan strategik yang sah.
Dapatan ini menimbulkan kebimbangan kerana model AI yang digunakan dalam kajian tersebut turut digunakan dalam sektor ketenteraan Amerika Syarikat menerusi inisiatif GenAI.mil, yang menggabungkan Google Gemini, Grok dan ChatGPT dalam sistem sokongan keputusan.
Kertas kajian berkenaan boleh dirujuk untuk memahami kaedah simulasi serta perincian teknikal yang digunakan oleh penyelidik. -Amanz