GADGETS
OpenAI menemukan sebab mengapa AI berhalusinasi

Menurut penyelidik di OpenAI, model dilatih untuk memberikan jawapan dalam apa jua bentuk dengan ia tidak digalakkan untuk mengatakan tidak tahu. - Foto Amanz
SEJAK dari awal pelancarannya tiga tahun yang lalu, ChatGPT mempunyai isu memaparkan fakta yang salah.
Contoh terbaik, seseorang itu dikatakan pengasas laman teknologi milik pesaing sedangkan dia tidak pernah bekerja di syarikat penerbitan tersebut.
Ini ialah isu halusinasi yang berlaku pada semua model kecerdasan buatan (AI) dan mengapa ia berlaku selama ini adalah satu misteri.
Penyelidik di OpenAI hujung minggu lalu menerbitkan kertas kajian dengan hipotesis mengatakan halusinasi berlaku kerana proses pralatihan model AI, menumpukan pada mendapatkan model untuk meramalkan perkataan seterusnya dengan betul tanpa mengambil kira ia betul atau salah.Model dilatih untuk memberikan jawapan dalam apa jua bentuk dengan ia tidak digalakkan untuk mengatakan tidak tahu.
Dalam penilaian model pula, AI diberikan markah tinggi untuk jawapan yang betul.
Dalam situasi perlu menjawab soalan, AI akan memilih untuk meneka jawapan yang tidak diketahui dengan kebarangkalian ia betul, daripada memilih tidak menjawab dan mendapat markah sifar markah.
Penyelidik kini mencadangkan dalam penilaian model, jawapan salah akan menerima markah negatif sementara jawapan salah yang diberikan dengan yakin kerana halusinasi, diberikan potongan markah lebih tinggi.
Separuh markah pula akan diberikan jika ia mengaku tidak tahu.
Dengan ini, model AI yang sedang dilatih mempunyai insentif memberikan jawapan yang tepat sepanjang masa.
Di masa hadapan masalah halusinasi mungkin dapat dikurangkan dengan sistem latihan model AI yang lebih baik.
Must-Watch Video
Cara lain mengikuti berita kami