Stephen Hawking ma ostateczne przesłanie dla ludzkości: Jeśli roboty nas nie dopadną, zrobi to zmiana klimatu
Hawking, który zmarł w wieku 76 lat na zwyrodnieniową chorobę neurologiczną na początku tego roku, oferuje swoje pożegnalne myśli w pośmiertnie wydanej książce zatytułowanej Brief Answers To The Big Questions, która ukazuje się we wtorek. Jest to przesłanie warte wysłuchania od człowieka, który jest prawdopodobnie najbardziej znanym naukowcem od czasów Einsteina, najbardziej znanym ze swojego odkrycia funkcjonowania czarnych dziur. Książka Hawkinga „Krótka historia czasu” sprzedała się w ponad 10 milionach egzemplarzy i stawiała pytania tak wielkie jak „Jak zaczął się wszechświat?” i „Co się stanie, gdy się skończy?” w języku wystarczająco prostym dla przeciętnego czytelnika.
W fragmencie opublikowanym w londyńskim Timesie w weekend, jest on zabawny i optymistyczny, nawet gdy ostrzega nas, że sztuczna inteligencja prawdopodobnie nas przechytrzy, że bogaci będą musieli rozwinąć się w gatunek nadludzi, a planeta zmierza w kierunku całkowitego braku możliwości zamieszkania.
Książka Hawkinga jest ostatecznie werdyktem dotyczącym przyszłości ludzkości. Na pierwszy rzut oka, werdykt jest taki, że jesteśmy skazani na zagładę. Ale sięgnij głębiej, a znajdziesz tu coś jeszcze – wiarę, że ludzka mądrość i innowacyjność udaremnią naszą zagładę, nawet jeśli wydaje nam się, że sami do niej doprowadzimy.
Roboty mogą przyjść po nas
Największe ostrzeżenie Hawkinga dotyczy powstania sztucznej inteligencji: Będzie to albo najlepsza rzecz, jaka kiedykolwiek nam się przytrafiła, albo najgorsza. Jeśli nie będziemy ostrożni, bardzo możliwe, że będzie to ostatnia rzecz.
Sztuczna inteligencja kryje w sobie wielkie możliwości dla ludzkości, obejmując wszystko, od algorytmów Google’a, przez samojeżdżące samochody, po oprogramowanie do rozpoznawania twarzy. Jednak sztuczna inteligencja, którą dysponujemy dzisiaj, jest wciąż w fazie prymitywnej. Eksperci martwią się o to, co się stanie, gdy ta inteligencja nas wyprzedzi. Albo, jak to ujął Hawking, „Podczas gdy krótkoterminowy wpływ AI zależy od tego, kto ją kontroluje, długoterminowy wpływ zależy od tego, czy w ogóle można ją kontrolować.”
Może to brzmieć jak fantastyka naukowa, ale Hawking mówi, że odrzucenie tego jako takiego „byłoby błędem, i to potencjalnie naszym najgorszym błędem w historii.”
W porównaniu z robotami, my, ludzie, jesteśmy dość nieporadni. Ograniczeni powolnym tempem ewolucji, iteracja zajmuje nam całe pokolenia. Roboty, z drugiej strony, mogą ulepszać swoje własne projekty o wiele szybciej, a wkrótce prawdopodobnie będą w stanie robić to bez naszej pomocy. Hawking twierdzi, że spowoduje to „eksplozję inteligencji”, w której maszyny mogą przewyższyć naszą inteligencję „o więcej niż nasza przewyższa inteligencję ślimaków.”
Wielu ludzi uważa, że zagrożenie ze strony AI skupia się na tym, że stanie się ona złośliwa, a nie dobroczynna. Hawking pozbawia nas tej obawy, mówiąc, że „prawdziwym ryzykiem związanym z AI nie jest złośliwość, lecz kompetencja”. Zasadniczo AI będzie bardzo dobra w osiąganiu swoich celów; jeśli ludzie wejdą jej w drogę, możemy mieć kłopoty.
„Prawdopodobnie nie jesteś złym mrówkożercą, który nadepnął na mrówki ze złośliwości, ale jeśli jesteś odpowiedzialny za projekt hydroelektryczny zielonej energii i w regionie, który ma być zalany, znajduje się mrowisko, to szkoda mrówek. Nie stawiajmy ludzkości w sytuacji tych mrówek,” pisze Hawking.
Dla tych, którzy nadal nie są przekonani, proponuje inną metaforę. „Dlaczego tak bardzo martwimy się o AI? Z pewnością ludzie zawsze są w stanie wyciągnąć wtyczkę?” pyta go hipotetyczna osoba.
Hawking odpowiada: „Ludzie zapytali komputer: 'Czy istnieje Bóg?’ A komputer odpowiedział: 'Teraz istnieje’ i połączył wtyczkę.”
Koniec życia na Ziemi?
Jeśli to nie roboty, to jest „prawie nieuniknione, że albo nuklearna konfrontacja, albo katastrofa środowiskowa sparaliżuje Ziemię w pewnym momencie w ciągu następnych 1000 lat” – pisze Hawking.
Gwałtowne zmiany klimatyczne są największym zagrożeniem dla naszej planety, mówi, a my działamy z „lekkomyślną obojętnością wobec naszej przyszłości na planecie Ziemia.”
W rzeczywistości, możemy nie mieć przyszłości w ogóle, mówi, ostrzegając nas, aby nie wkładać wszystkich naszych jaj „do jednego koszyka”. I tak, tym koszykiem jest planeta Ziemia. Nawet jeśli ludzie wymyślą sposób ucieczki, „miliony gatunków, które zamieszkują Ziemię” będą skazane na zagładę, mówi. „I to będzie na naszym sumieniu jako rasy.”
Kolejne ostrzeżenie nie jest wcale mniej groźne. Wkraczamy w nową fazę „samozaprojektowanej ewolucji”. Ten etap oznacza, że wkrótce będziemy w stanie zrzucić łańcuchy tradycyjnej ewolucji i zacząć zmieniać i ulepszać nasze własne DNA już teraz – nie za setki tysięcy lat.
Tak jak w przypadku AI, zdolność do edycji naszego własnego DNA posiada potencjał do rozwiązania największych problemów ludzkości. Po pierwsze, i prawdopodobnie nie w odległej przyszłości, będziemy w stanie naprawiać wady genetyczne, edytując geny dla takich rzeczy jak dystrofia mięśniowa i stwardnienie zanikowe boczne, lub ALS, choroba, którą zdiagnozowano u Hawkinga w 1963 roku. Hawking twierdzi, „e w ciągu tego stulecia będziemy w stanie edytować inteligencję, pamięć i długość „ycia. I właśnie wtedy sprawy mogą się naprawdę skomplikować.
Hawking nazywa ludzi, którzy to zrobią „nadludźmi”, i prawdopodobnie będą to bogate elity świata. Zwykli, starzy ludzie nie będą w stanie konkurować i prawdopodobnie „wymrą lub staną się nieistotni”. W tym samym czasie nadludzie będą prawdopodobnie „kolonizować inne planety i gwiazdy.”
Jeśli to wszystko brzmi dość przygnębiająco, to tak właśnie jest. Ale nawet gdy Hawking serwuje apokaliptyczne prognozy dla planety i wszystkich na niej żyjących, jego optymizm jest widoczny. Wierzy, że „nasza genialna rasa znajdzie sposób na wyswobodzenie się z surowych więzów Ziemi i dzięki temu przetrwa katastrofę.”
Wierzy nawet, że możliwości te nie są przerażające, lecz ekscytujące i że „znacznie zwiększają szanse zainspirowania nowego Einsteina. Gdziekolwiek by ona nie była.”
Wynalezienie drogi poza planetę Ziemia, a może nawet Układ Słoneczny, jest okazją do zrobienia tego, co zrobiły lądowania na Księżycu: „podnieść ludzkość, zbliżyć ludzi i narody, wprowadzić nowe odkrycia i nowe technologie.”
Zapisz się do newslettera Future Perfect. Dwa razy w tygodniu otrzymasz zestawienie pomysłów i rozwiązań dotyczących naszych największych wyzwań: poprawy zdrowia publicznego, zmniejszenia cierpienia ludzi i zwierząt, złagodzenia katastrofalnych zagrożeń i – mówiąc wprost – coraz lepszego czynienia dobra.
Wspieraj dziennikarstwo objaśniające Vox
Każdego dnia w Vox staramy się odpowiadać na najważniejsze pytania i dostarczać Tobie i naszym odbiorcom na całym świecie informacje, które umożliwiają zrozumienie. Praca Vox dociera do większej liczby ludzi niż kiedykolwiek, ale nasza charakterystyczna marka dziennikarstwa wyjaśniającego wymaga zasobów. Twój wkład finansowy nie będzie stanowił darowizny, ale umożliwi naszym pracownikom dalsze oferowanie darmowych artykułów, filmów i podcastów wszystkim, którzy ich potrzebują. Proszę rozważyć wpłatę na rzecz Vox już dziś, nawet od 3 dolarów.