OpenAI se confruntă cu provocările halucinațiilor generate de inteligența artificială
Modelele lingvistice recente lansate de OpenAI, o3 și o4-mini, au demonstrat o tendință alarmantă de a halucina mai mult decât versiunile anterioare, ceea ce a surprins compania. Testele interne au arătat o creștere de 33% a halucinațiilor pentru modelul o3 și o creștere de 48% pentru o4-mini, ceea ce reprezintă o expansiune exponențială a acestei probleme.
Modelele o3 și o4-mini sunt descrise ca fiind cele mai performante în ceea ce privește raționamentul, având capacitatea de a procesa imagini în acest context. Cu toate acestea, o3 a arătat o tendință de a inventa acțiuni realizate în procesul de raționare, afirmând că a aplicat anumite principii logice pe care, de fapt, nu le-a utilizat pentru a ajunge la concluziile prezentate utilizatorilor.
Inginerii de la OpenAI nu pot explica sursa acestei creșteri semnificative a halucinațiilor. Aceștia sugerează că tipul de învățare prin întărire utilizat pentru modelele din seria o ar putea amplifica problemele care, în mod obișnuit, sunt atenuate prin tehnicile aplicate după antrenament.
Halucinația, în contextul inteligenței artificiale, se referă la tendința AI-ului de a genera informații false, ceea ce conduce la răspunsuri care nu corespund realității.