Stephen Hawking utolsó üzenete az emberiség számára:
Hawking, aki 76 éves korában, idén év elején halt meg degeneratív neurológiai betegségben, búcsúzó gondolatait a kedden megjelenő, posztumusz kiadott, Rövid válaszok a nagy kérdésekre című könyvében fogalmazza meg. Ezt az üzenetet érdemes meghallgatni egy olyan embertől, aki Einstein óta valószínűleg a leghíresebb tudós, aki leginkább a fekete lyukak működésének felfedezéséről ismert. Hawking Az idő rövid története című könyve több mint 10 millió példányban kelt el, és olyan nagy kérdésekkel foglalkozott, mint “Hogyan kezdődött a világegyetem?” és “Mi lesz, ha vége lesz?”, az átlagolvasó számára is elég egyszerű nyelven.
A Times of Londonban a hétvégén megjelent részletben vicces és optimista, még akkor is, amikor arra figyelmeztet, hogy a mesterséges intelligencia valószínűleg túl fog járni az eszünkön, hogy a gazdagok emberfeletti fajjá fognak fejlődni, és hogy a bolygó a teljes lakhatatlanság felé rohan.
Hawking könyve végső soron ítéletet mond az emberiség jövőjéről. Első pillantásra az ítélet az, hogy halálra vagyunk ítélve. De ha mélyebbre ásunk, valami mást is felfedezhetünk: a hitet abban, hogy az emberi bölcsesség és innováció meghiúsítja a saját pusztulásunkat, még akkor is, ha úgy tűnik, mi magunk akarjuk azt előidézni.
A robotok talán eljönnek értünk
Hawking legnagyobb figyelmeztetése a mesterséges intelligencia felemelkedésére vonatkozik: Vagy a legjobb dolog lesz, ami valaha történt velünk, vagy a legrosszabb. Ha nem vigyázunk, könnyen lehet, hogy ez lesz az utolsó dolog.
A mesterséges intelligencia nagy lehetőségeket tartogat az emberiség számára, a Google algoritmusaitól kezdve az önvezető autókon át az arcfelismerő szoftverekig mindent magába foglal. A mai mesterséges intelligencia azonban még kezdetleges stádiumban van. A szakértők aggódnak amiatt, hogy mi lesz, ha ez az intelligencia túlszárnyal minket. Vagy ahogy Hawking fogalmaz: “Míg a mesterséges intelligencia rövid távú hatása attól függ, hogy ki irányítja, a hosszú távú hatása attól függ, hogy egyáltalán irányítható-e.”
Ez úgy hangozhat, mintha csak a sci-fi lenne, de Hawking szerint “hiba lenne, és talán a valaha volt legnagyobb hibánk.”
A robotokhoz képest mi, emberek elég nehézkesek vagyunk. Az evolúció lassú tempója miatt nemzedékekbe telik, mire iterálódunk. A robotok viszont sokkal gyorsabban tudnak javítani a saját tervezésükön, és hamarosan valószínűleg a segítségünk nélkül is képesek lesznek rá. Hawking szerint ez egy “intelligencia-robbanást” fog előidézni, amelyben a gépek meghaladhatják intelligenciánkat, “jobban, mint a miénk a csigákét.”
Sokan úgy gondolják, hogy a mesterséges intelligencia veszélye abban rejlik, hogy inkább rosszindulatúvá válik, mint jóindulatúvá. Hawking eloszlatja ezt az aggodalmat, mondván, hogy “az AI-val kapcsolatos valódi kockázatot nem a rosszindulat, hanem a hozzáértés jelenti”. Alapvetően az AI nagyon jó lesz a céljai elérésében; ha az emberek az útjába állnak, bajban lehetünk.”
“Ön valószínűleg nem egy gonosz hangyagyűlölő, aki rosszindulatból lép a hangyákra, de ha ön egy vízerőműves zöldenergia-projekt vezetője, és a térségben van egy elárasztandó hangyaboly, akkor kár a hangyákért. Ne hozzuk az emberiséget azoknak a hangyáknak a helyzetébe” – írja Hawking.
Aki még mindig nem győzött meg, annak egy másik metaforát javasol. “Miért aggódunk annyira a mesterséges intelligencia miatt? Biztos, hogy az emberek mindig képesek lehúzni a rolót?” – kérdezi tőle egy hipotetikus személy.”
Hawking válaszol: “Az emberek megkérdezték egy számítógéptől: ‘Van Isten? És a számítógép azt mondta: ‘Most már van’, és kiolvasztotta a dugót.”
A földi élet vége?
Ha nem a robotok, akkor “szinte elkerülhetetlen, hogy vagy egy nukleáris összecsapás vagy egy környezeti katasztrófa megnyomorítja a Földet valamikor a következő 1000 évben” – írja Hawking.
Figyelmeztetése a múlt héten megjelent riasztó Kormányközi Éghajlatváltozási Testület (IPCC) jelentésének nyomán érkezett, amely arra figyelmeztet, hogy mindössze 12 évünk van arra, hogy elég nagyszabású változtatásokat hajtsunk végre ahhoz, hogy a globális felmelegedést mérsékelt szinten tartsuk. Ilyen változtatások nélkül a kiterjedt aszályok, gyakoribb trópusi viharok és a tengerszint emelkedése csak a kezdet lesz.
Az elszabadult éghajlatváltozás a legnagyobb fenyegetés bolygónkra nézve, mondja, és “vakmerő közömbösséggel cselekszünk a Föld bolygónk jövőjével szemben.”
Sőt, lehet, hogy egyáltalán nem is lesz jövőnk, mondja, és figyelmeztet minket, hogy ne tegyünk mindent “egy lapra”. És igen, ez a kosár a Föld bolygó. Még ha az emberek ki is találják a menekülés módját, “a Földet benépesítő fajok milliói” végzetessé válnak, mondja. “És ez egy fajként a lelkiismeretünkön fog száradni.”
Egy másik figyelmeztetés sem kevésbé fenyegető. A “saját tervezésű evolúció” új szakaszába lépünk. Ez a szakasz azt jelenti, hogy hamarosan képesek leszünk levetni a hagyományos evolúció láncait, és már most – és nem több százezer év múlva – elkezdhetjük módosítani és javítani saját DNS-ünket.
A mesterséges intelligenciához hasonlóan a saját DNS-ünk szerkesztésének képessége magában hordozza a lehetőséget, hogy megoldjuk az emberiség legnagyobb problémáit. Először is, és valószínűleg nem a távoli jövőben, képesek leszünk a genetikai hibák javítására, olyan dolgok génjeinek szerkesztésével, mint az izomdisztrófia és az amyotrófiás laterálszklerózis, vagy ALS, a betegség, amellyel 1963-ban diagnosztizálták. Hawking szerint még ebben az évszázadban képesek leszünk szerkeszteni az intelligenciát, a memóriát és az élet hosszát. És akkor a dolgok igazán bonyolulttá válhatnak.
Hawking “szuperembereknek” nevezi azokat az embereket, akik ezt meg fogják tenni, és valószínűleg ők lesznek a világ gazdag elitje. A rendes öreg emberek nem lesznek képesek versenyezni, és valószínűleg “kihalnak, vagy jelentéktelenné válnak”. Ugyanakkor a szuperemberek valószínűleg “más bolygókat és csillagokat fognak gyarmatosítani.”
Ha mindez elég lehangolóan hangzik, az is. De még ha Hawking apokaliptikus előrejelzést is ad a bolygóra és a rajta élőkre, az ő optimizmusa mégis átjön. Hisz abban, hogy “leleményes fajunk megtalálja a módját annak, hogy kicsússzon a Föld mogorva kötelékei közül, és ezért túléli a katasztrófát.”
Sőt, úgy véli, hogy ezek a lehetőségek ahelyett, hogy ijesztőek lennének, inkább izgalmasak, és hogy ez “nagyban növeli az új Einstein inspirálásának esélyét”. Bárhol is legyen az.”
A Föld bolygóról, sőt talán még a Naprendszerből is kiutat találni egy lehetőség arra, amit a holdraszállás tett: “felemeli az emberiséget, összehozza az embereket és a nemzeteket, új felfedezéseket és új technológiákat vezet be.”
Iratkozzon fel a Future Perfect hírlevélre. Hetente kétszer kap egy összefoglalót a legnagyobb kihívásaink megoldására vonatkozó ötletekről és megoldásokról: a közegészségügy javítása, az emberi és állati szenvedés csökkentése, a katasztrofális kockázatok enyhítése, és – egyszerűen fogalmazva – a jótett jobbá tétele.
Támogassa a Vox magyarázó újságírását
A Voxnál minden nap arra törekszünk, hogy válaszoljunk a legfontosabb kérdéseire, és olyan információkat nyújtsunk Önnek és közönségünknek világszerte, amelyek a megértés révén képessé teszik Önt. A Vox munkája minden eddiginél több emberhez jut el, de a magyarázó újságírás jellegzetes márkája erőforrásokat igényel. Az Ön pénzügyi hozzájárulása nem minősül adománynak, de lehetővé teszi munkatársaink számára, hogy továbbra is ingyenes cikkeket, videókat és podcastokat kínáljanak mindazoknak, akiknek szükségük van rájuk. Kérjük, fontolja meg, hogy már ma hozzájárul a Voxhoz, akár már 3 dollártól.