17 dec. 2025 | 20:32

Un pacient din Galați, scandal cu chirurgul după ce ChatGPT i-a „calculat” operația. Problema a fost timpul intervenției

TEHNOLOGIE, ȘTIINȚĂ & DIGITAL
Share
Un pacient din Galați, scandal cu chirurgul după ce ChatGPT i-a „calculat” operația. Problema a fost timpul intervenției

Un caz din Galați arată cât de repede pot deveni tensionate discuțiile dintre pacienți și medici atunci când inteligența artificială ajunge „arbitrul” din cabinet. Un bărbat operat pentru o complicație legată de un abces i-a cerut explicații chirurgului, convins că intervenția ar fi trebuit să dureze o oră, nu aproximativ 20 de minute, pentru că așa i-ar fi „spus” ChatGPT. Dincolo de episodul în sine, specialiștii avertizează că sfaturile medicale luate de pe internet, mai ales fără context, pot ajunge să pună pacienții în pericol.

Fenomenul e alimentat de obișnuința tot mai răspândită de a căuta online răspunsuri pentru orice simptom. Pentru mulți, e mai comod decât o vizită la medic, iar „diagnosticele” apar instant, în zeci de variante, fără investigații, fără examen clinic și fără istoricul complet al pacientului, scriu cei de la cotidianul Adevarul.

Când AI-ul contrazice medicul, iar pacientul nu mai știe pe cine să creadă

În povestea relatată, conflictul a pornit de la o comparație simplistă: durata intervenției. Pacientul a interpretat răspunsul generat de ChatGPT ca pe o regulă medicală și a tras concluzia că o operație mai scurtă ar fi „suspectă” sau făcută greșit. În realitate, durata unei intervenții poate varia enorm în funcție de gravitatea cazului, tehnica aleasă, particularitățile anatomice, complicații, experiența echipei și multe alte detalii care nu pot fi comprimate într-o întrebare de câteva rânduri.

Mai mult, același „consult online” l-ar fi convins anterior să rămână acasă, până când situația s-a agravat și a ajuns să aibă nevoie de operație. Asta e marea problemă a sfaturilor generate automat: pot suna coerent, dar pot fi greșite sau nepotrivite pentru cazul concret, iar utilizatorul nu are întotdeauna instrumentele să își dea seama.

De ce „diagnosticele” de pe internet pot deveni periculoase

Medicii atrag atenția că un algoritm nu are „simț clinic”. Nu vede pacientul, nu îl consultă, nu poate evalua durerea, aspectul unei plăgi, febra, semnele de sepsis sau progresia simptomelor. Într-un consult real, medicul pune întrebări țintite, corelează istoricul cu examinarea și decide ce investigații sunt necesare. AI-ul lucrează, în schimb, cu informația pe care i-o dai și cu tipare din date, fără responsabilitate medicală și fără posibilitatea de a verifica realitatea din fața lui.

Cazul din Galați se înscrie într-un trend mai larg: tot mai mulți pacienți vin la medic cu „concluzii” din ChatGPT sau Google și pornesc de acolo o negociere a diagnosticului. Unii specialiști spun că instrumentele pot fi utile dacă sunt folosite ca suport, filtrate de cineva cu pregătire medicală. Altfel, devin o sursă de confuzie și de presiune inutilă, inclusiv asupra actului medical.

Datele citate în material indică și limitele tehnologiei: există cercetări care sugerează că IA poate greși frecvent în zona diagnosticelor, chiar și când este „ghidată” corect. Într-un studiu menționat, precizia medicilor ajunge la aproximativ 75%, în timp ce inteligența artificială ar nimeri diagnosticul corect în jur de unul din două cazuri. Într-un alt exemplu, axat pe pediatrie, proporția răspunsurilor corecte atribuite ChatGPT ar fi fost mult mai mică, ceea ce întărește ideea că un răspuns „frumos formulat” nu înseamnă neapărat un răspuns sigur.