08 ian. 2026 | 08:53

ChatGPT Health: noul pariu OpenAI pe „aliatul” tău din sănătate, cu acces la dosare medicale și aplicații de wellness

TEHNOLOGIE
ChatGPT Health: noul pariu OpenAI pe „aliatul” tău din sănătate, cu acces la dosare medicale și aplicații de wellness
Ce este ChatGPT Health și de ce îți cere acces la date

OpenAI împinge ChatGPT tot mai aproape de zona în care întrebările devin personale, sensibile și, uneori, urgente: sănătatea. Lansarea ChatGPT Health vine pe fondul unui obicei deja format — sute de milioane de oameni folosesc chatbotul pentru nelămuriri despre simptome, analize, dietă sau stil de viață, adesea în afara orelor de program ale unei clinici.

Noul spațiu promite o experiență separată în aplicație, mai „închisă” și mai personalizată, unde îți poți conecta inclusiv istoricul medical. Dar compania repetă apăsat aceeași idee: nu e un instrument pentru diagnostic sau tratament — chiar dacă tentația de a-l folosi ca atare rămâne, în practică, greu de controlat.

ChatGPT Health este un tab separat în ChatGPT, gândit ca un „sandbox” dedicat întrebărilor de sănătate. Asta înseamnă istoric de conversații separat și o memorie distinctă față de restul chaturilor, tocmai pentru a izola acest tip de informație. În plus, OpenAI încurajează conectarea datelor din dosare medicale și din aplicații de wellness, ca răspunsurile să fie mai „ancorate” în realitatea ta, nu doar generale.

Lista de integrări menționată include Apple Health, Peloton, MyFitnessPal, Weight Watchers și Function, iar pentru dosarele medicale OpenAI spune că lucrează cu b.well, care asigură integrarea din spate și are legături cu aproximativ 2,2 milioane de furnizori. Ideea este ca botul să poată analiza rezumate de consultații, rezultate de laborator și istoricul clinic, apoi să te ajute să înțelegi termeni, tendințe sau ce întrebări să pui la următoarea vizită.

OpenAI afirmă că, pe baza unei analize „de-identificate”, peste 230 de milioane de oameni din lume pun săptămânal întrebări despre sănătate și wellness. Produsul pare construit exact pentru acest comportament — să-l mute într-un spațiu mai controlat, cu reguli și protecții dedicate, în loc să rămână împrăștiat în conversațiile obișnuite.

„Nu e pentru diagnostic”, dar lumea îl folosește oricum ca pe un medic de buzunar

OpenAI subliniază că ChatGPT Health „nu este destinat diagnosticului sau tratamentului”. În realitate, chiar compania admite că utilizatorii trimit masiv mesaje legate de sănătate, inclusiv în comunități rurale insuficient deservite, iar multe conversații au loc în afara programului normal de clinică. Cu alte cuvinte, atunci când nu prinzi un medic la telefon, tentația de a întreba un AI devine reflex.

Problema este că există deja exemple în care „sfatul” primit de la un chatbot a mers rău. În 2025, a fost relatat un caz în care un bărbat a ajuns spitalizat după ce ar fi urmat o recomandare legată de înlocuirea sării cu bromură de sodiu (situație asociată cu bromism, o afecțiune rară). În paralel, au existat controverse și în jurul altor produse AI, acuzate că au oferit recomandări periculoase sau complet absurde, iar investigații jurnalistice au semnalat că astfel de derapaje nu dispar automat după un val inițial de critici.

În comunicarea oficială, OpenAI încearcă să contrabalanseze riscul prin „tuning” și feedback medical: spune că a lucrat în ultimii doi ani cu peste 260 de medici, care au oferit feedback de peste 600.000 de ori, pe mai mult de 30 de arii de interes. Mesajul implicit este că răspunsurile sunt mai atent calibrate, nu doar un text generic. Totuși, oricât de mult ar fi ajustat modelul, produsul nu devine un dispozitiv medical și nu poate garanta că utilizatorul nu va interpreta un răspuns ca pe un verdict.

Confidențialitate, criptare și limitele „spațiului separat”

Diferența majoră față de „ChatGPT normal” este stratul de protecție: OpenAI spune că ChatGPT Health funcționează ca un spațiu separat, cu confidențialitate îmbunătățită și mai multe niveluri de criptare dedicate (dar nu criptare end-to-end). În plus, conversațiile din Health nu sunt folosite implicit pentru antrenarea modelelor fundamentale, iar dacă începi o discuție medicală în chatul obișnuit, sistemul îți poate sugera să o muți în Health pentru protecții suplimentare.

Aici apare inevitabil discuția despre încredere. OpenAI a mai avut incidente de securitate în trecut, iar compania recunoaște că, în cazul unui ordin judecătoresc sau al unei situații de urgență, poate fi obligată să furnizeze acces la date prin procese legale valide. Și mai e un detaliu important: OpenAI afirmă că HIPAA (legea americană asociată cu protecția datelor medicale) nu se aplică în acest context, pentru că produsul este unul de consum, nu un instrument folosit direct într-un cadru clinic sau profesional.

În același timp, lansarea pornește printr-un sistem de așteptare și acces gradual, cu un grup beta inițial, urmând extinderea către toți utilizatorii, indiferent de abonament. Asta indică o implementare controlată, probabil pentru a testa atât integrarea cu date sensibile, cât și modul în care oamenii folosesc efectiv produsul.

Sănătate mintală și anxietate: partea pe care OpenAI o tratează cu mănuși

Un aspect sensibil este sănătatea mintală. În materialele de lansare, OpenAI nu insistă pe această zonă, dar, în discuțiile cu presa, reprezentanți ai companiei au sugerat că produsul poate acoperi orice parte a sănătății, inclusiv sănătatea mintală, cu accent pe direcționarea către profesioniști în situații de distres. Totuși, tocmai aici riscurile sunt greu de „împachetat” într-un set de reguli: conversațiile pot deveni intense, iar utilizatorii pot ajunge să proiecteze în chatbot o autoritate sau o empatie pe care tehnologia nu le are în sens uman.

Mai există și riscul ca un astfel de produs să amplifice anxietatea legată de sănătate. Cauți un simptom banal, primești o listă de posibilități, apoi începi să cobori în scenarii grave, mai ales dacă ai tendința să cauți confirmări repetitive. OpenAI spune că a ajustat modelul ca să fie informativ fără a fi alarmist și că, atunci când e nevoie de acțiune, te direcționează către sistemul medical. În practică, însă, diferența dintre „informativ” și „alarmist” depinde și de starea ta din acel moment, nu doar de cuvintele afișate pe ecran.

Cum să folosești util ChatGPT Health, fără să te păcălești singur

Dacă alegi să-l folosești, tratează ChatGPT Health ca pe un instrument de organizare și clarificare, nu ca pe o instanță care „îți spune ce ai”. Conectează doar datele care chiar îți sunt necesare pentru scopul tău: dacă vrei să înțelegi analize, folosește rezultatele relevante; dacă vrei să-ți ordonezi rutina, folosește datele de activitate și somn, nu tot istoricul medical din reflex. Cu cât dai mai mult, cu atât crește miza dacă apare o interpretare greșită sau o scăpare de securitate.

Când primești un răspuns, folosește-l ca să-ți pregătești întrebările pentru medic: ce indicatori sunt ieșiți din interval, ce semnificație are o valoare „la limită”, ce ar trebui urmărit în timp și ce simptome ar schimba interpretarea. Și, la fel de important, dacă simți că începi să cauți compulsiv scenarii sau confirmări, oprește-te și revino la o sursă umană: un medic, un specialist sau cineva apropiat care te poate ajuta să rămâi ancorat.

În final, ChatGPT Health e un pas logic într-o direcție inevitabilă: AI-ul intră în zona sănătății pentru că oamenii îl folosesc deja acolo. Noutatea nu este că pui întrebări despre tine, ci că platforma încearcă să pună garduri, reguli și integrare de date în jurul acestui obicei. Rămâne de văzut cât de bine vor ține aceste garduri atunci când miza devine personală, iar răspunsul primit sună suficient de convingător încât să pară un diagnostic.