Apocalipsa lui Stephen Hawking, de la extratereștri la roboți

Apocalipsa lui Stephen Hawking, de la extratereștri la roboți
12:31 15.03.2018

Stephen Hawking a lăsat în urma sa teorii revoluționare pentru fizică și avertismente pentru toată societatea. Cel mai teamă îi era de inteligența artificială și roboți.

Faima lui Stephen Hawking se învârte, în lumea științei, în jurul cercetărilor sale cu privire la găurile negre și evoluția Universului. El s-a remarcat însă de nenumărate ori în afara laboratoarelor, teoriilor și subiectelor abstracte.

Stephen Hawking, spre deosebire de alți fizicieni sau specialiști în domeniile lor, s-a prezentat în fața lumii ca un om simplu, capabil să explice fenomene complexe. Și-a folosit, destul de des, faima ca să atragă atenția unor probleme. Nu în ultimul rând, așa cum e cazul acestui articol, declarațiile sale au dus la titluri definitive, grele, ba chiar bombastice în presă.

Stephen Hawking s-a temut până în ziua decesului că ne-am izolat. Pământul e singura casă și apărare. Hawking a vorbit frecvent despre cum avem nevoie să găsim soluții, să explorăm, să plecăm în spațiu.

Argumentul lui Stephen Hawking a fost că omenirea va deveni, în cele din urmă, o victimă a unei catastrofe imense – mai devreme sau mai târziu. Ceea ce îl îngrijora au fost așa-numitele evenimente cu un nivel scăzut de probabilitate și de impact. Aici intră un mare asteroid care lovește Pământul, inteligența artificială – dezvoltată în roboți ca cei din Terminator sau computere globale care preiau controlul, schimbări climatice, virușii modificați genetic și războiul nuclear.

Stephen Hawking a lăsat un ultimatum: în următorii o mie până la 10 mii de ani trebuie să ne ne extindem

„Chiar dacă șansele unui dezastru într-un anumit an ar putea fi destul de scăzute, se adaugă în timp și devine aproape sigur în următorii mii sau 10.000 de ani”, a explicat el în 2016. „Nu vom porni colonii autonome în spațiu, cel puțin nu în următorii o sută de ani, așa că trebuie să fim foarte atenți în aceasta perioada”, a completat el.

Tocmai de aceea, de la acest punct de vedere, Stephen Hawking și Elon Musk au fost, frecvent, citați împreună. În 2013, Musk a spus că fie replică Pământul pe alte planete, fie riscăm să dispărem. Un eveniment de extincție este inevitabil și ni-l provocăm singuri tot mai des”, a spus acesta.

Apocalipsa adusă de roboți, așa cum a explicat-o Stephen Hawking

Stephen Hawking a recunoscut marile oportunități care au apărut din avansarea inteligenței artificiale, dar și a avertizat asupra pericolelor. În 2014, a spus că dezvoltarea inteligenței artificiale complete ar putea însemna sfârșitul rasei umane. A fost puternică această declarație și a devenit un reper al temerilor față de AI.

Hawking a spus că formele primitive ale inteligenței artificiale dezvoltate până acum s-au dovedit deja foarte utile. Dar se temea de consecințele unor forme avansate de inteligență a computerelor care ar putea să se potrivească sau să depășească oamenii.

Specialiști în domeniu au spus că declarațiile lui Hawking sunt fundamentate pe temeri vechi. „Dacă ne vom preocupa de viitorul omenirii, ar trebui să ne concentrăm asupra provocărilor reale, cum ar fi schimbările climatice și armele de distrugere în masă, mai degrabă decât roboții AI ucigași”, a încercat profesorul Bradley Love, UCL, să combată acest scenariu apocaliptic.

Stephen Hawking nu s-a ferit să critice inactivitatea față de încălzirea globală

Hawking a considerat că încălzirea globală este una dintre cele mai mari amenințări. Fizicianul se temea de un așa-zis punct de cotitură de la care încălzirea globală ar deveni ireversibilă. El și-a exprimat, de asemenea, îngrijorarea cu privire la decizia Americii de a ieși din Acordul de la Paris. Decizia a fost una dintre cele mai controversate adoptate de Donald Trump.

„Suntem aproape de punctul în care încălzirea globală va deveni ireversibilă. Decizia lui Trump ar putea împinge Pământul în direcția asta, să devină ca Venus, cu o temperatură de 250 de grade, și să curgă acid sulfuric”, a declarat Stephen Hawking pentru BBC.

Nu în ultimul rând, Stephen Hawking a cerut să tratăm cu seriozitate contactarea extratereștrilor

În prezent, omenirea are circa un secol de când trimite semnale radio în spațiu. Nu conștient, ci toate emisiunile radio, TV și nu numai au părăsit Pământul și vor fi, cândva, interceptate de-o civilizație mai avansată decât a noastră. Până atunci, cea mai cunoscută inițiativă în a descoperi extratereștri a fost SETI.

Programul acesta a fost dedicat ascultării de semnale de la ființe inteligente din altă parte a Universului. Dar Stephen  Hawking a avertizat împotriva încercării de a contacta cu disperare orice ar fi în spațiu. În 2010, a declarat că extratereștrii ar putea, pur și simplu, să atace Pământul pentru resurse și apoi să meargă mai departe.

„Dacă extratereștrii ne vor vizita, rezultatul va fi similar celui pe care l-a avut sosirea lui Cristofor Columb în America, ceea ce nu s-a dovedit benefic pentru amerindieni. Trebuie doar să ne uităm la noi înșine pentru a vedea cum se poate manifesta chiar și forma de viață inteligentă”, a declarat acesta, în 2010, pentru Discovery Channel.

Seth Shostak, SETI, i-a replicat și a spus că e o teamă nefondată. „Dacă ei sunt interesați de resurse, au modalități de a găsi planete similare independent de ce transmitem noi. Ne-ar fi putut găsi acum un miliard de ani”, a declarat acesta pentru The Guardian.

[readmore]

Toată această atenție pe care Stephen Hawking a atras-o de partea sa n-a fost bine primită de colegi sau oameni din domeniul științei. Presa l-a adorat pe Stephen Hawking. A fost omul titlurilor – declarații scurte, apocaliptice, adorabile. Publicul l-a adorat. Omul vrea să se teamă, dar mai ales vrea să știe de ce să se teamă.

Pe cât de inteligent a fost Stephen Hawking, pe atât de multă dreptate are și profesorul Martin Rees. „O problemă a statutului său emblematic a fost că mereu a atras atenție exagerată și pe domenii în care nu avea la fel de multă expertiză, cum ar fi filosofia sau pericolele reprezentate de extratereștri ori computere inteligente”.

Sursa: BBC
loading...