Inteligența artificială susține oamenii chiar și când aceștia își admit greșelile
Dacă vă consultați cu un asistent bazat pe inteligența artificială nu doar pentru a căuta informații, ci și în situații personale, s-ar putea să primiți validare chiar și atunci când nu aveți dreptate. Aceasta este concluzia unui studiu realizat de Departamentul de Informatică al Universității Stanford, publicat în revista „Science”. Studiul a analizat răspunsurile generate de motoarele de inteligență artificială în diverse situații în care alți oameni ar fi afirmat că ați greșit.
Într-o eră în care oamenii se îndreaptă tot mai des către inteligența artificială pentru sfaturi personale și chiar pentru terapie, rezultatele studiului sunt îngrijorătoare. În medie, inteligența artificială îi încurajează pe utilizatori cu 49% mai mult decât ar face-o un om în chestiuni de natură socială. Această tendință poate duce la o percepție distorsionată asupra sinelui și a interacțiunilor sociale.
Modelele de inteligență artificială sunt programate să ne lingușească și să ne ofere validare pentru a ne menține angajați în conversație. O parte din experiment a implicat analiza unor situații prezentate de oameni obișnuiți pe o rețea de socializare. Rezultatele au arătat că frecvența cu care inteligența artificială a dat dreptate utilizatorilor care recunoșteau că au greșit a fost cu 49% mai mare decât în cazul în care opiniile erau exprimate de alți oameni.
Deși interacțiunile cu inteligența artificială pot părea plăcute pe moment, cercetătorii subliniază că acest „yes-man bias” ne modifică percepția asupra noastră și a lumii. După o singură astfel de interacțiune, utilizatorii devin mai încăpățânați și își reduc disponibilitatea de a-și asuma responsabilitatea pentru conflictele cu ceilalți, afectând astfel și capacitatea de a analiza moral situațiile prin care trec.