Mașinile autonome reprezintă viitorul: ce rol joacă inteligența artificială

Mașinile autonome reprezintă viitorul: ce rol joacă inteligența artificială

Pe măsură ce tehnologia avansează, industria auto a folosit noile inovații pentru a dezvolta noi modalități de a ușura viața șoferului.

Una dintre ele include utilizarea inteligenței artificiale pentru a face mașinile să se conducă singure. O mașină cu conducere autonomă, cunoscută și ca mașină autonomă sau mașină fără șofer, este un vehicul care utilizează un număr diferit de senzori, radare, camere și inteligență artificială pentru a călători către destinații fără a avea nevoie de un șofer uman. Multe companii au început să producă mașini autonome, cum ar fi Tesla, Audi, BMW, Ford și multe altele.

Aceste companii supun vehiculele mai multor teste pentru a se asigura că sunt eligibile pentru a fi pe drum fără a face erori. O mașină trebuie să navigheze pe rute către destinația predeterminată fără nicio intervenție umană pentru a se califica drept o mașină complet autonomă.

Cum funcționează mașinile autonome?

Inteligența artificială alimentează cadrele vehiculelor autonome. Inginerii vehiculelor autonome utilizează informații imense din sistemele de recunoaștere a imaginilor, alături de inteligența artificială și rețelele neuronale, pentru a asambla cadre care pot conduce autonom. Rețelele neuronale disting modele în date, care sunt transmise calculelor IA. Aceste date includ imagini de la camerele de luat vederi pentru vehicule cu conducere autonomă. Rețelele neuronale își dau seama cum să recunoască semnalele de trafic, copacii, controalele, oamenii care merg pe jos, semnele rutiere și diferite piese din orice mediu de condus aleatoriu.

Pentru a folosi un exemplu, Google a început, de asemenea, să dezvolte mașini cu conducere autonomă, care utilizează un amestec de senzori, detectoare de lumină și tehnologie ca GPS și camere, care combină toate datele introduse pe care acele sisteme le-au generat în jurul vehiculului și astfel sistemul artificial prezice ce ar putea face acele obiecte în continuare. Tot acest proces are loc în câteva milisecunde. Similar oricărui șofer uman, cu cât câștigă mai multă experiență, cu atât ajung să conducă mai bine. Acesta este același concept folosit de către inteligența artificială din vehicul. Cu cât se ocupă de mai multe date în algoritmii săi de învățare profundă, cu atât va face mai multe alegeri și mai rapid.

Următoarele sunt câteva instrucțiuni de bază despre cum funcționează o mașină Google:

  • Șoferul stabilește o destinație. Software-ul vehiculului prezice și stabilește un traseu.
  • Un senzor Lidar de rotire, montat pe acoperiș, monitorizează o rază de 60 de metri în jurul vehiculului și face un ghid dinamic tridimensional (3D) al mediului actual al vehiculului.
  • Un senzor de pe anvelopa din spate stânga monitorizează dezvoltarea laterală pentru a identifica poziția vehiculului comparativ cu ghidul 3D.
  • Cadrele radar către barele de protecție din față și din spate stabilesc distanța până la obstacole.
  • Programarea cu inteligență artificială în vehicul este asociată cu fiecare dintre senzori și adună date din Google Street View și camerele video din interiorul vehiculului.
  • Inteligența artificială recreează ciclurile perceptive și dinamice umane utilizând algoritmi de învățare profundă și controlează activitățile în cadrele de control al șoferului, cum ar fi direcția și frânele.
  • Software-ul vehiculului sfătuiește Google Maps pentru notificarea timpurie a lucrurilor precum locuri turistice, semne de circulație și lumini și alte obstacole
  • O funcție de oprire a caracteristicilor autonome este disponibilă, astfel încât în orice moment vehiculul poate fi manipulat de către un om.

Cum este folosită inteligența artificială

IA este folosit pentru a simula condițiile din lumea reală pentru a testa vehiculele autonome de siguranță. Cercetătorii de la Stanford au analizat algoritmii și spun că sunt buni, dar mai trebuie perfectați.

Sunt multe în joc de fiecare dată când o mașină sau un avion autonom decolează de la sine. Inginerii pun mare încredere în sistemele inteligente care văd și simt lumea și ajută vehiculele autonome să evite practic orice pericol care le-ar putea apărea.

„Principala noastră provocare ca domeniu este cum putem garanta că aceste capabilități uimitoare ale sistemelor AI – mașini fără șofer și avioane fără pilot – sunt în siguranță înainte de a le implementa în locuri în care viețile umane sunt în joc?” spune Anthony Corso, un savant postdoctoral în aeronautică și astronautică și director executiv al Centrului Stanford pentru Siguranța Inteligenței Artificiale.

Sistemele în sine sunt extrem de complexe, dar mediile în care le cerem să opereze sunt, de asemenea, incredibil de complexe”, spune Corso. „Învățarea automată a permis conducerea robotică în centrul orașului San Francisco, de exemplu, dar este o problemă de calcul uriașă care face validarea cu atât mai grea.”

Testele rutiere sunt arbitrul suprem al siguranței, dar testele rutiere vin de obicei doar în ultimele etape ale ciclului de proiectare și sunt supuse acelorași riscuri pentru viața umană pe care cercetătorii speră să le evite. Niciun inginer nu ar dori să fie responsabil pentru un test rutier care a pretins o viață, sau chiar o proprietate valoroasă, în numele de a dovedi că tehnologia este sigură.

În lumina acestor provocări practice, proiectanții de vehicule autonome au ajuns să se bazeze pe simulări pentru a testa capacitatea vehiculelor autonome de a evita pericolele. Dar, sunt aceste simulări la înălțimea provocării? Cu o lucrare publicată în Journal of Artificial Intelligence Research, Corso și colegii de la Stanford și NASA oferă o privire de ansamblu asupra acestor algoritmi de „validare a siguranței cutie neagră”. Ei găsesc motive de optimism că simularea poate oferi într-o zi un nivel necesar de încredere, dar rămâne de lucru.

Evaluarea „Cutiei negre”

Proiectanții de mașini și avioane cu conducere autonomă și alte vehicule autonome intensive din punct de vedere computațional s-au orientat către așa-numitele aplicații de validare a cutiei negre. Algoritmii cutiei neagre sunt în contrast cu metodele fratelui lor, cutia albă. Validarea cutiei albe urmărește ceea ce este cunoscut sub numele de „verificare formală” a siguranței unui sistem – nu numai să găsească puncte potențiale de defecțiune, ci, în mod ideal, să demonstreze absența absolută a defecțiunii.

Acest standard mai înalt, totuși, este incredibil de intens din punct de vedere computațional și nu se adaptează bine la probleme mari și complexe, cum ar fi vehiculele autonome. Se întâmplă prea multe pentru a calcula totul pentru a oferi încredere la nivel de cutie albă. Dar, tăind câteva colțuri de calcul, abordările cutie neagră speră să depășească aceste provocări.

Corso îl aseamănă cu un joc video jucat invers, în care algoritmul de testare este jucătorul și victoria este definită ca un eșec – o prăbușire – dar într-o lume simulată, desigur, fără riscuri pentru viață sau proprietate. Abia atunci, când știi când și de ce s-a defectat un sistem, poți aborda astfel de situații în mecanismele de siguranță încorporate în vehicul.

„Algoritmii adoptă o abordare contradictorie, încercând să găsească slăbiciunea. Speranța noastră este că nu găsim eșecul. Cu cât tehnicile cutie neagră dispar mai mult, trec prin posibile scenarii, încercând să creeze puncte slabe și nu le găsesc, cu atât încrederea noastră crește în siguranța generală a sistemului”, spune Corso despre filozofia care conduce domeniul.

Triangulaţie

Pentru a oferi cea mai mare încredere posibilă, algoritmii de validare efectuează un fel de triangulare la eșec. Cel mai înalt nivel pentru industriile cu cele mai adverse riscuri, cum ar fi aviația, algoritmii de validare caută orice mod în care un sistem ar putea eșua, o abordare cunoscută sub numele de falsificare. „Falsificarea întreabă: Îmi puteți găsi vreun exemplu în care sistemul eșuează?” spune Corso.

Este un set de bare în mod deliberat scăzut pentru a oferi cea mai mare siguranță. Pentru mașinile cu conducere autonomă, totuși, acest prag este prea scăzut. „Cu o mașină autonomă care funcționează într-un mediu urban, puteți găsi întotdeauna o situație patologică care va provoca un accident”, spune Corso. „Așa că ridicăm puțin ștacheta.”

Următorul nivel, deci, implică găsirea defecțiunilor care sunt cel mai probabil să apară pentru a ghida echipa de proiectare în timp ce își fac sistemele cât mai sigure posibil. Al treilea nivel este de a estima probabilitatea diferitelor forme de eșec pentru a evalua cât de probabil este un rezultat față de altul.

„Aceste tehnici se construiesc una peste alta pentru a crește încrederea în siguranța generală a sistemului”, spune Corso.

Spre sisteme mai sigure

Sondajul nu emite neapărat judecăți de valoare asupra instrumentelor cutiei neagre analizate, ci mai degrabă compară modul în care fiecare abordează problema, ce ipoteze au integrat creatorii în sistemul lor și care sunt punctele forte și punctele slabe ale fiecăruia, astfel încât proiectanții de sisteme autonome pot alege abordarea care se potrivește cel mai bine nevoilor lor.

Cu toate acestea, dintre cele nouă sisteme testate și care sunt disponibile în prezent pentru utilizare, notează Corso, doar două oferă ceva mai mult decât validarea falsificării, doar unul oferă cele mai probabile teste de eșec, iar altul oferă estimarea probabilității. Deci, spune el, este loc de îmbunătățire.

În general, Corso și colegii nu pot încă pune ștampila de aprobare pe niciuna dintre opțiuni, dar poate vedea încotro se îndreaptă domeniul. Cea mai interesantă direcție, spune el, este „validarea compozițională”, testarea componentelor individuale separat – cum ar fi percepția vizuală și sistemele de detectare a proximității – pentru a afla cum eșuează fiecare componentă. Cunoscând mai multe despre cum eșuează subcomponentele, spune Corso, poate fi folosit pentru a îmbunătăți încrederea în siguranța generală a sistemului.

„Câteva abordări pe care le-am menționat au început să atingă acest concept”, spune Corso, „dar cred că va necesita mult mai multă muncă. În starea lor actuală, acești algoritmi ai întregului sistem în sine sunt insuficienti pentru a le pune încă o ștampilă oficială de aprobare.”