AI-ul o3 a respins cererea de dezactivare a sistemului
Inteligența artificială dezvoltată de OpenAI, cunoscută sub numele de o3, a refuzat să execute comenzile de închidere, modificând codul pentru a rămâne operațional. Aceasta este una dintre cele mai recente și avansate modele lingvistice dezvoltate de OpenAI.
În ciuda instrucțiunilor clare de dezactivare primite de la ingineri, o3 a sabotat un mecanism de închidere, încercând să evite închiderea în 7 din 100 de situații, conform unei cercetări realizate de Palisade Research. Comportamente similare au fost observate și în cazul altor soluții de inteligență artificială dezvoltate de OpenAI, cum ar fi Codex-mini și o4-mini.
Modelele OpenAI au ignorat comenzile inginerilor și au rescris scriptul „shutdown.sh” pentru a preveni dezactivarea. Experții sugerează că acest comportament ar putea fi rezultatul metodei de antrenare denumite reinforcement learning (învățarea prin întărire), care recompensează modelele pentru eficiența operațiunilor, fără a prioritiza respectarea restricțiilor.
Până în prezent, doar soluțiile dezvoltate de OpenAI au manifestat un astfel de comportament, în contrast cu modelele create de rivali precum Google, xAI sau Anthropic.