13 nov. 2025 | 11:15

Google lansează „Private AI Compute”: noul standard de confidențialitate pentru procesarea AI în cloud

TEHNOLOGIE
Google lansează „Private AI Compute”: noul standard de confidențialitate pentru procesarea AI în cloud
O infrastructură creată pentru AI avansată, dar cu confidențialitate totală

Google a anunțat oficial „Private AI Compute”, o tehnologie concepută să ofere puterea modelelor Gemini din cloud cu aceeași confidențialitate pe care utilizatorii o asociem, de obicei, cu procesarea direct pe dispozitiv. Noua infrastructură reprezintă cel mai ambițios pas al companiei în direcția construirii unui ecosistem AI sigur, izolat și imposibil de accesat – nici măcar de către Google.

Potrivit Google, „Private AI Compute” funcționează ca un „spațiu fortificat” în care datele sensibile sunt prelucrate exclusiv într-un mediu securizat, fără a fi expuse altor sisteme sau personalului intern. Conceptul permite accesarea capabilităților AI din cloud – mult mai puternice decât cele disponibile pe dispozitive mobile – fără a sacrifica intimitatea utilizatorului.

Tehnologia se bazează pe Trillium TPUs (cele mai noi procesoare AI ale Google) și pe Titanium Intelligence Enclaves (TIE), un sistem de enclave criptate care izolează sarcinile de lucru. În esență, serverele rulează într-un mediu protejat de un Trusted Execution Environment (TEE) bazat pe hardware AMD, care criptează memoria și blochează orice acces administrativ sau fizic.

Mai mult, doar sarcinile „atestabile” – validate criptografic – pot rula în acest spațiu securizat. Comunicarea între nodurile „de încredere” este criptată și se bazează pe un mecanism de verificare mutuală: fiecare componentă verifică identitatea celeilalte înainte de a procesa date.

Google subliniază și structura efemeră a sistemului: toate datele, inferențele și calculele sunt șterse imediat după sesiune, eliminând riscul compromiterii istoricului de utilizare.

Cum funcționează noul sistem și de ce este atât de sigur

Fluxul tehnic al unei cereri AI este gândit pentru a elimina complet riscul ca un actor extern sau chiar intern să acceseze datele utilizatorului.

Procesul include:

  • Conexiune criptată cu protocol Noise între utilizator și serverul frontend;
  • Verificare prin sesiuni Oak, pentru a confirma că serverul este autentic și nemodificat;
  • Canale ALTS criptate între serviciile interne, până la serverele de modele AI;
  • Procesare exclusiv în enclavele securizate, fără acces administrativ;
  • Ștergere completă a datelor la închiderea sesiunii, eliminând urmele procesării.

Printre măsurile suplimentare se numără:

  • izolare în mașini virtuale dedicate,
  • autorizare binară pentru rularea doar a codului semnat,
  • protecții împotriva extragerii fizice de date,
  • IP-blinding prin servere operate de terți,
  • autentificare separată prin Anonymous Tokens.

Practic, sistemul este construit astfel încât nicio parte a infrastructurii largi Google să nu poată intercepta sau accesa conținutul procesat, cu excepția cazului în care întreaga companie ar decide deliberat acest lucru – o situație de altfel imposibil de justificat juridic și tehnic.

Rezultatele auditurilor independente și comparația cu Apple și Meta

NCC Group, compania independentă care a auditat infrastructura în perioada aprilie–septembrie 2025, a descoperit câteva vulnerabilități minore, precum un canal lateral în sistemul de IP-blinding și posibile scenarii de blocare a serviciului (DoS). Google a considerat riscurile scăzute, deoarece mediul multiclient generează suficient „zgomot” pentru a masca activitatea utilizatorilor.

Cu toate acestea, Google lucrează la soluții, iar raportul final al NCC Group a confirmat că Private AI Compute oferă o protecție ridicată împotriva accesului intern malițios și riscurilor structurale – o concluzie importantă într-o industrie în care încrederea în furnizorul de tehnologie contează enorm.

În același timp, lansarea acestui sistem aliniază Google la strategiile Apple (Private Cloud Compute) și Meta (Private Processing), ambele introducând recent soluții care mută prelucrarea AI în cloud, dar într-un mod care reproduce siguranța procesării pe dispozitiv.

De ce contează „Private AI Compute” pentru viitorul confidențialității în AI

Într-o perioadă în care modelele AI devin tot mai puternice, dar și tot mai „flămânde” de date, utilizatorii cer garanții solide că informațiile personale nu devin vulnerabile. Private AI Compute oferă exact acest echilibru:

  • Puterea AI din cloud, fără riscul expunerii datelor;
  • Flexibilitate pentru dezvoltatori, care pot construi experiențe AI complexe fără să gestioneze ei înșiși infrastructuri securizate;
  • Transparență și auditabilitate, prin atestări criptografice;
  • Protecție împotriva atacurilor fizice și software, prin izolare strictă.

Jay Yagnik, vicepreședinte Google pentru inovație în AI, rezumă simplu promisiunea platformei:

„Datele sensibile procesate în Private AI Compute rămân accesibile doar ție și nimănui altcuiva — nici măcar Google.”

Într-o epocă în care încrederea în ecosistemele digitale este crucială, Private AI Compute nu este doar o inovație tehnică, ci și o declarație de intenție: AI poate evolua rapid, dar nu în detrimentul confidențialității utilizatorilor.