OpenAI Akui Masalah Serius 'Halusinasi' AI, Ungkap Penyebabnya

image cover

OpenAI mengakui masalah 'halusinasi' pada model bahasa AI-nya, di mana sistem menghasilkan informasi yang salah namun meyakinkan. Perusahaan menjelaskan bahwa masalah ini berakar pada cara model dilatih dan dievaluasi, yang sering mendorong AI untuk menebak daripada mengakui ketidakpastian. Meskipun model terbaru seperti GPT-5 menunjukkan pengurangan halusinasi, OpenAI menekankan perlunya merevisi kerangka evaluasi untuk mengatasi masalah ini secara efektif.