Noua tehnologie de la Google îți poate citi limbajul corpului: cum funcționează

Noua tehnologie de la Google îți poate citi limbajul corpului: cum funcționează

Google lucrează la un „nou limbaj de interacțiune” de ani de zile, iar acum oferă o privire asupra a ceea ce a dezvoltat până acum. Compania prezintă un set de mișcări pe care le-a definit în noul său limbaj de interacțiune, în primul episod al unei noi serii numită “În laborator cu Google ATAP”. Acest acronim înseamnă Advanced Technology and Projects și este divizia experimentală a Google, pe care compania o numește „studioul său de invenții hardware”.

Ideea din spatele acestui „limbaj de interacțiune” este că mașinile din jurul nostru ar putea fi mai intuitive și mai perceptive cu privire la dorința noastră de a interacționa cu ele prin înțelegerea mai bună a indiciilor noastre nonverbale.

„Dispozitivele care ne înconjoară ar trebui să se simtă ca cele mai bune prietene”, a spus designerul senior de interacțiuni de la ATAP, Lauren Bedal, pentru Engadget. „Ar trebui să aibă har social”.

Mai exact, ATAP ne analizează mișcările (spre deosebire de tonurile vocale sau expresiile faciale), astfel încât dispozitivele să știe când să rămână în fundal, în loc să ne bombardeze cu informații. Echipa a folosit senzorul radar Soli al companiei pentru a detecta proximitatea, direcția și căile oamenilor din jurul său. Apoi, a analizat acele date pentru a determina dacă cineva se uită la senzor, trece, se apropie sau se întoarce spre senzor.

Google ATAP, o tehnologie a viitorului

Google a oficializat acest set de patru mișcări, numindu-le Apropiere, Privire, Viraj și Treci. Aceste acțiuni pot fi folosite ca declanșatori pentru comenzi sau reacții pe lucruri precum display-uri inteligente sau alte tipuri de computere. Dacă acest lucru sună familiar, este pentru că unele dintre aceste gesturi funcționează deja pe dispozitivele existente compatibile cu Soli. Pixel 4, de exemplu, are o funcție numită Motion Sense, care va amâna alarmele dacă a detectat că mâna ta vine spre el. Nest Hub Max de la Google și-a folosit camera pentru a vedea când ai ridicat palma și va întrerupe redarea media ca răspuns.

Abordarea este similară cu implementările existente. Permite dispozitivelor să spună când tu (sau o parte a corpului) te apropii, astfel încât să poată aduce informații pe care ai putea fi să le vezi. La fel ca și Pixel 4, Nest Hub folosește o abordare similară atunci când știe că ești aproape, preluând întâlnirile sau mementourile viitoare. De asemenea, va afișa comenzile tactile pe un ecran, dacă ești aproape, și va comuta la font mai mare, ușor de citit când ești mai departe.

Este clar că Approach, Pass, Turn și Glance se bazează pe ceea ce Google a implementat fragmentar în produsele sale de-a lungul anilor. Însă echipa ATAP s-a jucat și cu combinarea unora dintre aceste acțiuni, cum ar fi trecerea și privirea sau apropierea și aruncarea cu privirea, ceea ce este ceva despre care încă nu am văzut prea mult în lumea reală.

Pentru ca toate acestea să funcționeze bine, senzorii și algoritmii Google trebuie să fie incredibil de eficace nu numai în a recunoaște când faci o anumită acțiune, ci și când nu o faci. Recunoașterea incorectă a gesturilor poate transforma o experiență care este menită să fie utilă într-una incredibil de frustrantă.

Mai jos, poți să vezi exact cum funcționează dispozitivul.

Citește și: