Salvarea pentru orbi: ochelarii care transformă imaginea în sunet

Salvarea pentru orbi: ochelarii care transformă imaginea în sunet
Andrada Bonea
Andrada Bonea
15:59 04.11.2015

Cercetătorii de la Institutul Californian de Tehnologie din Pasadena, SUA, au creat ochelarii inteligenți care transformă imaginile în sunet şi care pot fi folosiți intuitiv, fără o pregătire specială. 

Nevăzătorii s-au bazat dintotdeauna pe sunet pentru a substitui vederea, iar unii au utilizat ecolocaţia pentru a ocoli obiectele. Acum, însă, sunetul poate fi proiectat într-un mod specific pentru a transmite informaţia vizuală. Acest fenomen este folosit în construcţia mijloacelor de navigaţie mai bune pentru nevăzători.

Dispozitivul, denumit “vOICe” (OIC  de la  “Oh! I See”), reprezintă o pereche de ochelari fumurii cu o cameră ataşată, conectată la un computer. Ea funcţionază în baza algoritmului dezvoltat în 1992 de inginerul olandez Peter Meijer. Acest sistem converteşte pixelii din camera video în sunet, înregistrând luminozitatea şi localizarea verticală într-o distanţă asociată cu volum.

Un grup de pixeli întunecaţi din partea de jos a ramei ochelarilor emit sunete liniştite şi joase, pe când grupul de pixeli luminoşi din partea superioară a ramei vor răsuna tare şi strident. Modul în care sunetul se schimbă depinde de cum arată imaginile atunci când sunt scanate cadrele de la stânga la dreapta. Sunetul este transmis de căştile care se află în urechea purtătorului, potrivit celor de la New Scientist.

ochelari

“Se ia ceva din vizual şi se introduce în auditiv. Creierul, însă, va face exact invers, el va prelua sunetul şi îl ca transforma în mod firesc în imagini”, afirmă cercetătoarea Noelle Stiles, care lucrează asupra proiectului vOICe.

Noelle Stiles şi colegul său  Shinsuke Shimojo explică că procesul de transformare a imaginilor în sunet, în acest fel, reflectă modul în care noi asimilăm informaţii din diferite surse. Spre exemplu, perceperea unui trandafir, înseamnă mai mult decât confruntarea cu nuanţa cromatică, trebuie luate în considerare aroma, textura petalelor sale, foşnetul frunzelor sale, întregul ansamblu.

Savanţii Shimojo şi Stiles au vrut să înţeleagă cum persoanele pot localiza obiectele prin sunet. Ei au cerut voluntarilor cu deficienţe vizuale să identifice imaginile (dungi, pete şi texturi naturale) cu un sunet, în timp ce nevăzătorii au pipăit aceleaşi texturi şi au selectat sunete care, după părerea lor, le corespund. Modelele de alegere, care au servit drept algoritmi pentru dispozitivul vOICe, păreau că generează un rezultat mai mult intuitiv, scriu cei de la Descoperă.

Aceste experimente, testate deja pe dispozitiv, au avut rezultate uimitoare. Voluntarii nevăzători, care nu l-au mai încercat, au fost capabili să lege imaginile de un sunet mai des ca voluntarii antrenaţi. Ambele grupuri le-au asociat cu un procent de 33% mai bine decât cei antrenaţi cu vOICe.

Însă, în timp ce codificarea dispozitivului a fost inversată, astfel încât partea de sus a imaginii să preia sunetul puternic, iar cea de jos să preia sunetul încet, voluntarii au spus că le vine mai greu să lege imaginile cu sunetul. “Această cercetare demonstrează că nu contează numai câtă informaţie furnizezi, dar şi modul în care persoana o percepe intuitiv”, afirmă profesorul Ione Fine de la Universitatea Washington din Seatle.

Fine subliniază că există o prăpastie între aceste modele distinctive din laborator şi utilizarea vOICe în a observa şi a înţelege lumea reală. Potrivit acesteia, munca ar putea ajuta, în cele din urmă, la proiectarea unor ajutoare vizuale mai bune. Stiles şi Shimojo folosesc acum datele  funcţionale ale RMN în analiza activităţii creierului pentru  acest sistem de cartografiere intuitiv.

DĂ PLAY ȘI FII MAI INFORMAT DECÂT PRIETENII TĂI