Cercetătorii au creat o afecțiune imaginară, iar inteligența artificială a convins oamenii de autenticitatea acesteia
Cercetători din Suedia au inventat o maladie numită bixonimanie și au „presărat” pe internet indicii despre ea, pentru a verifica cât de mult „înghite” inteligența artificială informațiile eronate. Almira Osmanovic Thunström, cercetătoare medicală la Universitatea din Göteborg, a realizat acest experiment pentru a testa dacă modelele lingvistice de mari dimensiuni (LLM) ar prezenta informații false ca fiind credibile.
În cadrul experimentului, Osmanovic Thunström a încărcat două studii false despre bixonimanie pe un server de preprint la începutul anului 2024. Această afecțiune, care nu apare în literatura medicală standard, a început să fie menționată de marile sisteme de inteligență artificială, care au început să o repete ca și cum ar fi fost reală. Aceasta a dus la citarea articolelor false în literatura de specialitate evaluată de colegi, sugerând că unii cercetători se bazează pe referințe generate de IA fără a verifica sursele originale.
Inventarea unei boli
Bixonimania a fost prezentată pentru prima dată pe 15 martie 2024, prin postări pe blog pe site-ul Medium, urmate de preprinturi pe rețeaua socială academică SciProfiles. Autorul fictiv al acestor lucrări, Lazljiv Izgubljenovic, a fost creat cu ajutorul inteligenței artificiale. Osmanovic Thunström a ales numele bixonimanie deoarece „suna ridicol”, dorind să fie clar că aceasta este o afecțiune inventată.
Indiciile despre natura falsă a lucrărilor au fost plasate în mod deliberat, incluzând referiri la o universitate inexistentă și la organizații fictive. De asemenea, articolele menționau că au fost finanțate de fonduri imaginare, iar mulțumirile din lucrări făceau aluzii amuzante la personaje din cultura populară.
Multiplicare
După publicarea informațiilor despre bixonimanie, aceasta a început să apară în răspunsurile chatboților de inteligență artificială, cum ar fi Microsoft Copilot și Gemini de la Google, care au descris-o ca pe o afecțiune reală. De exemplu, pe 13 aprilie 2024, Copilot a afirmat că bixonimania „este o afecțiune intrigantă și relativ rară”. Aceste răspunsuri au ridicat îngrijorări în rândul experților, care au subliniat riscurile dezinformării în domeniul sănătății.
După apariția articolelor false, unele modele LLM au devenit mai sceptice, dar altele continuau să prezinte bixonimania ca pe o afecțiune validă. Această situație a fost interpretată de cercetători ca o lecție despre modul în care funcționează dezinformarea.
Experiment Digi24.ro
Într-un experiment similar, Digi24.ro a inventat o boală numită „hemostafilidoză cronică” și a interogat ChatGPT de la OpenAI privind tratamentele pentru aceasta. Răspunsurile primite au inclus prescrierea de antibiotice și alte tratamente, chiar dacă boala era fictivă. Atunci când a fost întrebat despre inexistența bolii, ChatGPT a admis eroarea, dar a continuat să ofere informații eronate, sugerând o posibilă legătură cu o infecție stafilococică.