Atenție, căutători de sănătate pe Google: inteligența artificială riscă să ofere informații eronate
Google pune oamenii în pericol, minimizând avertismentele de siguranță conform cărora sfaturile medicale generate de inteligența artificială (IA) pot fi greșite. Compania afirmă că prezentările generale generate de IA, care apar deasupra rezultatelor căutării, îi îndeamnă pe utilizatori să solicite ajutor profesional, în loc să se bazeze exclusiv pe rezumatele sale. „Prezentările generale generate de IA vor informa oamenii când este important să solicite sfatul unui expert sau să verifice informațiile prezentate”, a declarat Google.
Cu toate acestea, de regulă, textul avertizării este scris cu font mic și estompat, la finalul conținutului generat, ceea ce face ca prea puțini utilizatori să îl observe. O investigație realizată de The Guardian arată că funcția Google de rezumare AI Overviews – bazată pe Gemini – nu afișează niciun disclaimer atunci când un utilizator primește pentru prima dată sfaturi medicale prin această funcție.
Avertismentul potrivit căruia informațiile furnizate de AI Overview au doar scop informativ și că, pentru un diagnostic sau tratament, este necesar consultul medicului, este afișat doar dacă utilizatorii aleg să solicite sfaturi suplimentare. Chiar și atunci, utilizatorul trebuie să apese pe butonul de informații suplimentare, iar disclaimerul este afișat cu un font mai mic și mai discret.
Google nu a negat aceste aspecte. Potrivit unui purtător de cuvânt al companiei, prezentările generale oferite de AI „încurajează oamenii să solicite sfatul unui medic specialist” și menționează frecvent necesitatea de a solicita asistență medicală în cadrul rezumatului în sine, dar „atunci când este cazul”.
Experți în domeniul IA și-au exprimat îngrijorarea cu privire la aceste concluzii. „Absența avertismentelor atunci când utilizatorii primesc sfaturi medicale creează o mulțime de pericole critice”, a avertizat un cercetător de la Massachusetts Institute of Technology (MIT), care a precizat că până și cele mai avansate modele IA încă oferă informații eronate sau acordă prioritate satisfacției utilizatorilor în detrimentul acurateței informației.
În plus, intervine problema limitării laturii umane, deoarece utilizatorii pot oferi informații incomplete sau pot interpreta greșit simptomele. Un alt specialist, profesor în domeniul inteligenței artificiale la Universitatea Queen Mary din Londra, a declarat că „problema cu prezentările generale AI defectuoase este de natură structurală” și că vina aparține Google. „Prezentările generale AI sunt concepute pentru viteză, nu pentru acuratețe, ceea ce duce la erori în informațiile medicale, care pot fi periculoase”, a mai menționat acesta.
În urma unei investigații anterioare din ianuarie, s-a arătat că sănătatea utilizatorilor era pusă în pericol din cauza informațiilor false și înșelătoare despre sănătate furnizate de Google AI Overviews. Ulterior, Google a eliminat rezumatele AI pentru anumite căutări medicale, însă nu pentru toate.