Gemini Live, noul ochi inteligent din telefonul tău: Google îți dă acces gratuit la conversații vizuale cu AI
:format(webp)/https://playtech.ro/wp-content/uploads/2025/04/gemini.jpg)
Google face o mutare importantă în cursa inteligenței artificiale, oferind tuturor utilizatorilor de Android acces gratuit la Gemini Live, modul conversațional vizual al chatbot-ului său AI. După ce funcționalitatea a fost disponibilă în exclusivitate pe dispozitivele Samsung pentru o scurtă perioadă, acum vine rândul tuturor utilizatorilor Android să se bucure de această experiență interactivă, fără a mai fi necesar un abonament premium.
Cu noua funcție Gemini Live, poți literalmente „arăta” problemele tale AI-ului, care le analizează în timp real folosind camera foto a telefonului tău. Fie că e vorba de un ecran cu o eroare, o rețetă complicată, un obiect misterios sau o ținută vestimentară pentru care ai nevoie de un sfat, acum nu mai trebuie să tastezi explicații lungi sau să formulezi întrebări complicate. Ții apăsat butonul lateral, îndrepți camera spre ceea ce vrei să discuți și pornești conversația.
Această abordare vizuală aduce un plus major de accesibilitate și rapiditate în utilizarea AI-ului. Poți să ai o conversație fluidă, naturală, cu întreruperi, corecturi și chiar schimbări bruște de subiect – exact cum ai vorbi cu un prieten care te însoțește în oraș sau te ajută să rezolvi o problemă.
În plus, Gemini Live adaptează constant răspunsurile sale pe măsură ce muți camera sau schimbi perspectiva. Practic, folosești AI-ul ca pe un consultant vizual în timp real, capabil să „vadă” ce se întâmplă și să reacționeze corespunzător.
De la suport tehnic la fashion stylist: AI-ul devine tot mai personal
Unul dintre cele mai interesante scenarii de utilizare pentru Gemini Live este cel din zona de lifestyle. Google sugerează, de exemplu, că poți cere părerea AI-ului despre ținuta pe care o porți, întrebând „Ce geantă s-ar potrivi cu acești pantofi?”. Folosindu-se de cunoștințele acumulate din milioane de imagini de pe internet, AI-ul poate oferi sugestii vestimentare personalizate și chiar să te îndrume către magazine unde poți găsi produsele recomandate.
La fel de ușor, poți apela la Gemini Live pentru a compara două produse într-un magazin, pentru a citi etichete, pentru a identifica alimente sau obiecte de uz casnic, sau chiar pentru a obține un diagnostic vizual preliminar atunci când observi ceva neobișnuit în jurul tău – deși, evident, Google nu promovează această funcție ca instrument medical oficial.
Totul devine posibil datorită integrării AI-ului în camera telefonului, care, combinată cu procesarea în cloud, permite interpretări rapide și inteligente ale conținutului vizual. Nu mai e nevoie să știi cum să pui întrebarea perfectă – ajunge să arăți și să rostești ceva simplu. Gemini înțelege contextul și se adaptează.
Acces global, dar cu activare treptată
Google promite disponibilitate globală pentru Gemini Live, dar activarea funcției nu va fi instantanee pentru toți utilizatorii. Aceasta se face la nivel de server și poate varia în funcție de regiune, versiunea aplicației și limba utilizată în conversație. Asta înseamnă că unii utilizatori vor putea accesa Gemini Live mai repede decât alții, în funcție de infrastructura locală și de ritmul de implementare al update-urilor.
Pentru a beneficia de noua funcție, va trebui să ai aplicația Gemini instalată și actualizată la zi. După ce update-ul e activ pe serverele Google pentru regiunea ta, vei putea accesa modul vizual apăsând lung pe butonul lateral al telefonului tău Android compatibil.
Această mișcare vine într-un moment în care competiția cu OpenAI devine tot mai intensă. Google răspunde astfel presiunii de a democratiza accesul la AI avansat, oferind o funcționalitate care până nu demult părea rezervată doar utilizatorilor plătitori sau ecosistemelor premium.
Într-o lume tot mai vizuală și interactivă, Gemini Live pare să deschidă un nou capitol în relația dintre om și inteligența artificială. Iar faptul că poți arăta, întreba și primi un răspuns în timp real transformă interacțiunea cu AI-ul într-o experiență aproape umană. Dacă nu ai încercat încă, pregătește-te: următorul tău partener de conversație s-ar putea să aibă și „ochi”.