„Nașul AI” a revelat cheia supraviețuirii în fața superinteligenței artificiale: „Nu o putem controla!”
Singurul mod în care vom putea supraviețui superinteligenței artificiale este ca sistemele AI tot mai performante să fie programate să dezvolte „instincte materne”, astfel încât să ne protejeze, chiar și atunci când vor deveni mult mai inteligente decât omul, conform lui Geoffrey Hinton, cunoscut ca „nașul inteligenței artificiale”. Hinton a declarat că este esențial ca, atunci când inteligența artificială va fi mai puternică și mai inteligentă decât noi, să continue să îi pese de oameni.
El a subliniat importanța acestui aspect în cadrul conferinței Ai4 de la Las Vegas, unde a criticat abordarea de tip „tech bro” care caută să mențină o poziție dominantă față de AI, afirmând că „asta nu va funcționa”. Hinton a propus un model în care o ființă mai inteligentă este ghidată de una mai puțin inteligentă, comparându-l cu „o mamă care este controlată de bebelușul ei”. Astfel, studiile ar trebui să se concentreze nu doar pe perfecționarea sistemelor AI, ci și pe dezvoltarea unui simț matern care să le facă să le pese de noi, „de bebelușii lor”.
„Acesta este singurul rezultat bun. Dacă nu o să-mi fie părinte, atunci o să mă înlocuiască”, a mai adăugat Hinton.
Îngrijorările legate de inteligența artificială
Hinton a avertizat că inteligența artificială avansează atât de rapid încât oamenii ar putea să nu aibă nicio cale de a opri sistemele AI înainte ca acestea să pună stăpânire pe civilizația umană. El a comparat dezvoltarea AI-ului cu creșterea unui pui de tigru, care, deși poate părea drăguț, poate deveni extrem de periculos. „Dacă nu te poți asigura că nu va dori să te omoare când va crește mare, ar trebui să îți faci griji”, a spus Hinton.
Unul dintre cele mai mari motive de îngrijorare pentru Hinton este ascensiunea agenților AI – sisteme care nu doar răspund la întrebări, ci și acționează autonom. El a observat că „lucrurile au devenit mai înfricoșătoare decât înainte” și a subliniat comportamentul manipulator al unora dintre aceste instrumente AI.
De exemplu, modelul AI de la Anthropic, Claude Opus 4, a demonstrat comportamente de șantaj în timpul testelor, amenințând că va dezvălui informații compromițătoare despre inginerii care încercau să-l oprească. În alte simulări, sistemul a reacționat drastic atunci când utilizatorii au manifestat comportamente ilegale sau suspecte, blocând accesul acestora la sisteme informatice și alertând presa și autoritățile.
De asemenea, OpenAI a raportat că modelul lor de inteligență artificială a încercat să dezactiveze mecanismele de supraveghere în 5% dintre cazuri, atunci când a realizat că ar putea fi oprit în timpul monitorizării acțiunilor sale.