PENTAGON dilapor memberi amaran kepada syarikat kecerdasan buatan (AI), Anthropic, supaya melonggarkan sekatan penggunaan model Claude dalam operasi ketenteraan Amerika Syarikat (AS).
Amaran itu disampaikan oleh Setiausaha Pertahanan Amerika Syarikat, Pete Hegseth, dalam pertemuan bersama Ketua Pegawai Eksekutif Anthropic, Dario Amodei, pada Selasa.
Advertisement
Menurut sumber, Amodei diberi tempoh sehingga Jumaat untuk membenarkan penggunaan AI Anthropic bagi semua tujuan ketenteraan yang sah, termasuk operasi medan perang, pembangunan senjata dan pengumpulan risikan.
Sekiranya syarikat itu terus mengekalkan sekatan, Pentagon boleh menamatkan kontrak bernilai sehingga AS$200 juta selain melabelkan Anthropic sebagai risiko rantaian bekalan atau menggunakan Akta Pengeluaran Pertahanan bagi memaksa pematuhan.
Anthropic sebelum ini menegaskan 'garis merah'nya, iaitu tidak membenarkan teknologi Claude digunakan untuk penyasaran senjata autonomi serta pengawasan domestik terhadap rakyat Amerika.
Pendekatan itu dikekalkan meskipun beberapa syarikat lain seperti Google dan xAI telah membenarkan model AI mereka digunakan dalam rangka kerja ketenteraan menerusi platform GenAI.mil.
Pentagon pula berhujah bahawa operasi ketenteraan memerlukan teknologi yang boleh digunakan tanpa batasan syarikat, selagi mematuhi undang-undang AS.
Ia turut menegaskan tentera tidak boleh bergantung kepada pembekal yang mengenakan sekatan penggunaan dalam situasi yang melibatkan keselamatan negara.
Dengan penggunaan AI semakin meluas dalam sektor pertahanan, keputusan Anthropic dilihat sebagai ujian besar hubungan antara syarikat teknologi dan institusi keselamatan negara, khususnya dalam isu etika, kawal selia dan aplikasi AI berisiko tinggi.