OpenAI klaim identifikasi penyebab utama halusinasi AI

image cover

OpenAI mengklaim telah mengidentifikasi penyebab utama halusinasi pada AI, di mana model bahasa besar (LLM) menghasilkan informasi yang terdengar meyakinkan namun tidak akurat. Riset terbaru OpenAI bersama Georgia Tech menunjukkan bahwa masalah ini bukan semata-mata karena data pelatihan buruk, melainkan karena cara evaluasi dan pelatihan model yang mendorong AI untuk menebak daripada menunjukkan ketidakpastian. Model didorong untuk selalu memberikan jawaban, bahkan jika tidak yakin, demi skor yang lebih tinggi.

Artificial Intelligence
Sains
AI
Halusinasi AI
OpenAI
Model Bahasa Besar
Georgia Tech
Riset AI