Inteligența artificială de la Google inventează o parte a corpului uman și alarmează lumea medicală
Un incident grav în care un model AI dedicat sănătății, dezvoltat de Google, a inventat o parte a creierului care nu există a readus în discuție pericolele reale ale utilizării tehnologiilor generative în domeniul medical. Deși poate părea un simplu „typo” sau o confuzie de termeni, specialiștii avertizează că astfel de greșeli pot avea consecințe devastatoare în contexte clinice.
Eroarea a fost comisă de Med-Gemini, un sistem AI dezvoltat pentru analizarea imaginilor medicale, care într-un studiu publicat în 2024 a identificat un infarct într-o regiune inexistentă: „basilar ganglia”. Problema? Această parte a corpului pur și simplu nu există.
O greșeală aparent mică, cu potențial periculos
Confuzia creată de Med-Gemini provine, probabil, din combinarea a doi termeni reali: „basal ganglia” – un set de structuri cerebrale implicate în mișcările motorii și formarea obiceiurilor, și „basilar artery” – o arteră esențială situată la baza creierului. Rezultatul? O „invenție” anatomică – „basilar ganglia” – care nu apare în nicio carte de medicină și care a fost totuși inclusă într-o lucrare de cercetare academică a Google.
Deși compania a corectat între timp postarea de pe blog în care era promovată tehnologia, articolul științific în care apare această greșeală nu a fost rectificat până la momentul redactării acestui articol. Neurologul Bryan Moore, cel care a descoperit eroarea, a tras un semnal de alarmă: „Ce vorbim aici este foarte periculos.”
Problema devine cu atât mai serioasă cu cât greșeala nu a fost identificată timp de peste un an, perioadă în care documentul a circulat liber în rândul cercetătorilor, dezvoltatorilor de tehnologii medicale și posibil al personalului medical care testează instrumentele AI în spitale.
Ce înseamnă „halucinațiile” AI în medicină
Termenul de „halucinație” AI este un eufemism tot mai frecvent folosit pentru a descrie erorile generate de modelele de limbaj mari – adică răspunsuri convingătoare, dar complet false. În căutările online, astfel de greșeli pot fi enervante sau pot induce în eroare utilizatorii ocazionali. În medicină, însă, ele pot avea consecințe letale.
Maulin Shah, director medical de informatică al sistemului de sănătate Providence, explică brutal gravitatea situației: „Două litere pot părea nesemnificative, dar în medicină e o diferență enormă. Este inacceptabil.” În opinia sa, și a altor specialiști, problema nu este doar că AI-ul greșește, ci că nu știe să spună „nu știu”, ceea ce înseamnă că generează informații cu o încredere falsă, greu de verificat în timp real de către medici ocupați.
Judy Gichoya, profesor asociat în radiologie și informatică medicală la Universitatea Emory, confirmă riscul: „AI-urile tind să inventeze lucruri și nu oferă opțiunea de a indica incertitudinea. Este o problemă majoră pentru domeniile în care miza este viața umană.”
Tehnologia avansează rapid, dar verificarea umană rămâne esențială
În ciuda problemelor, Google continuă dezvoltarea și implementarea de modele AI în sănătate. În martie, compania a lansat un instrument AI care oferă sfaturi medicale prin motorul de căutare, precum și un „co-cercetător” AI pentru descoperirea de noi medicamente. Totuși, fără monitorizare și verificare riguroasă, aceste unelte pot deveni mai degrabă un risc decât un ajutor.
Între timp, varianta mai avansată a Med-Gemini – MedGemma – a demonstrat alte deficiențe. Conform testelor, răspunsurile oferite de AI variază în funcție de modul în care sunt formulate întrebările, ceea ce înseamnă că rezultatele pot fi inconsistente sau contradictorii, chiar și pe aceleași cazuri.
Toate aceste exemple subliniază necesitatea unui cadru etic și științific solid înainte ca AI-ul să fie introdus la scară largă în spitale, în cabinete de psihoterapie, în transcrierea interacțiunilor cu pacienții sau în diagnosticul radiologic. Altfel, în loc să eficientizeze procesele, AI-ul ar putea impune un efort suplimentar de verificare din partea personalului uman, cu un risc suplimentar de epuizare sau eroare.
Așa cum subliniază Shah: „În opinia mea, AI-ul trebuie să respecte un standard mult mai ridicat decât cel impus oamenilor. Altfel, nu putem vorbi despre progres real.” A înlocui un sistem imperfect cu unul care greșește în mod diferit și mai greu de detectat nu este o soluție.
Concluzia este simplă, dar esențială: AI-ul în medicină poate avea un potențial uriaș, dar fără control, transparență și responsabilitate, poate deveni periculos. Până când aceste tehnologii vor fi suficient de mature și predictibile, verificarea umană rămâne ultimul bastion al siguranței în spitale.