11 iun. 2025 | 08:45

Adoptarea rapidă a inteligenței artificiale în medicină ridică semne de întrebare privind reglementarea, dar și etica

ȘTIINȚĂ
Share
Adoptarea rapidă a inteligenței artificiale în medicină ridică semne de întrebare privind reglementarea, dar și etica
Inteligența artificială în medicină, un subiect controversat / Foto: Imaging Tehcnology News

Inteligența artificială este deja folosită pe scară largă în spitalele din Statele Unite pentru a ajuta medicii în diagnostic, prioritizarea cazurilor critice și transcrierea notelor clinice.

Însă ritmul accelerat al adoptării acestor tehnologii a depășit capacitatea actuală de reglementare, avertizează experții într-un raport publicat pe 5 iunie în PLOS Digital Health.

Inteligența articială, din ce în ce mai prezentă în medicină

Food and Drug Administration (FDA), iar spitalele le integrează tot mai des în fluxul lor de lucru, scrie revista Nature.

Spre deosebire de medicamente sau alte dispozitive reglementate de FDA, aceste instrumente AI continuă să se actualizeze și să învețe din noi seturi de date după aprobarea inițială. Această caracteristică impune necesitatea unei supravegheri continue, pe care reglementările actuale o pot asigura doar parțial.

Recent, guvernul federal al SUA a semnalat intenția de a relaxa reglementările privind AI. În ianuarie, președintele Donald Trump a anulat un ordin executiv care avea ca scop siguranța inteligenței artificiale, argumentând că trebuie eliminate barierele inovației.

Ulterior, departamentul FDA responsabil cu sănătatea digitală și AI a suferit reduceri de personal.

Lipsa regulilor ar putea duce inclusiv la probleme

Lipsa unor reguli clare și riguroase poate conduce la situații în care algoritmii medicali furnizează recomandări eronate, afectând îngrijirea pacienților.

„Este nevoie de măsuri de siguranță, iar încrederea exclusivă în FDA pentru acestea nu este realistă, poate chiar imposibilă”, spune Leo Anthony Celi, cercetător la MIT și coautor al raportului.

FDA aplică criterii de aprobare mai puțin stricte pentru instrumentele AI decât pentru medicamente. Doar dispozitivele considerate cu risc ridicat pentru pacient trebuie să treacă prin studii clinice, iar multe algoritmi au performanțe slabe când sunt aplicați pe populații diferite față de cele pentru care au fost antrenați. Astfel, o aprobarea FDA nu garantează neapărat beneficiul real pentru toți pacienții.

Ideal, spitalele ar trebui să testeze algoritmii local, adaptându-i la pacienții proprii și să instruiască personalul medical pentru interpretarea rezultatelor.

„Majoritatea spitalelor nu au resursele necesare pentru a angaja echipe de AI care să facă aceste verificări”, explică Celi, subliniind un studiu recent care arată că multe spitale folosesc tehnologii AI «de pe raft», fără validare locală, ceea ce este „o rețetă pentru dezastru”.

Raportul propune ca universitățile să colaboreze cu spitalele pentru a evalua calitatea acestor tehnologii, sprijinind departamentele IT și monitorizând impactul algoritmilor asupra pacienților. Aceasta este o abordare nouă, necesară din cauza evoluției rapide a domeniului.

FDA nu are competențe legale să impună testări post-aprobare în spitale, motiv pentru care alte instituții ar putea prelua această responsabilitate.

Michelle Mello, specialist în dreptul sănătății la Stanford, indică Centers for Medicare & Medicaid Services (CMS), care gestionează asigurările de sănătate publice și ar putea condiționa plățile de adoptarea unor evaluări riguroase.

David Ouyang, cardiolog la Cedars–Sinai, accentuează și rolul companiilor de asigurări, care pot refuza acoperirea costurilor pentru tehnologii insuficient testate.

„Standardul pentru asigurări este chiar mai ridicat decât cel al FDA”, spune el, ceea ce poate constitui o „barieră suplimentară” pentru utilizarea AI în medicină.