Stephen Hawkings letzte Warnung an die Menschheit: KI wird uns holen

Stephen Hawking hat eine letzte Botschaft für die Menschheit: Wenn die Roboter uns nicht kriegen, wird es der Klimawandel tun.

Hawking, der Anfang des Jahres im Alter von 76 Jahren an einer degenerativen neurologischen Krankheit starb, gibt seine Abschiedsgedanken in einem posthum veröffentlichten Buch mit dem Titel Kurze Antworten auf die großen Fragen wieder, das am Dienstag erscheint. Es ist eine Botschaft, die es wert ist, von einem Mann beherzigt zu werden, der wahrscheinlich der berühmteste Wissenschaftler seit Einstein ist und am besten für seine Entdeckung der Funktionsweise schwarzer Löcher bekannt ist. Hawkings Buch Eine kurze Geschichte der Zeit verkaufte sich mehr als 10 Millionen Mal und behandelte so große Fragen wie „Wie begann das Universum?“ und „Was wird geschehen, wenn es endet?“ in einer Sprache, die für den Durchschnittsleser einfach genug ist.

In einem Auszug, der am Wochenende in der Londoner Times veröffentlicht wurde, ist er witzig und optimistisch, auch wenn er uns warnt, dass künstliche Intelligenz uns wahrscheinlich überlisten wird, dass die Reichen sich zu einer übermenschlichen Spezies entwickeln werden und dass der Planet auf die totale Bewohnbarkeit zusteuert.

Hawkings Buch ist letztlich ein Urteil über die Zukunft der Menschheit. Auf den ersten Blick lautet das Urteil, dass wir dem Untergang geweiht sind. Aber wenn man tiefer gräbt, ist da noch etwas anderes, nämlich der Glaube, dass menschliche Weisheit und Innovation unsere eigene Zerstörung vereiteln werden, selbst wenn wir scheinbar wild entschlossen sind, sie herbeizuführen.

Die Roboter könnten uns holen

Hawkings größte Warnung betrifft den Aufstieg der künstlichen Intelligenz: Sie wird entweder das Beste sein, was uns je passiert ist, oder das Schlimmste. Wenn wir nicht aufpassen, könnte es sehr wohl das Letzte sein.

Künstliche Intelligenz birgt große Chancen für die Menschheit und umfasst alles von Googles Algorithmen über selbstfahrende Autos bis hin zu Gesichtserkennungssoftware. Die heutige künstliche Intelligenz befindet sich jedoch noch in einem primitiven Stadium. Experten machen sich Sorgen darüber, was passieren wird, wenn diese Intelligenz uns überholt. Oder, wie Hawking es ausdrückt: „Während die kurzfristigen Auswirkungen der KI davon abhängen, wer sie kontrolliert, hängen die langfristigen Auswirkungen davon ab, ob sie überhaupt kontrolliert werden kann.“

Das mag wie Science-Fiction klingen, aber Hawking sagt, es als solchen abzutun, „wäre ein Fehler, und möglicherweise unser schlimmster Fehler überhaupt.“

Im Vergleich zu Robotern sind wir Menschen ziemlich unbeholfen. Begrenzt durch das langsame Tempo der Evolution, brauchen wir Generationen, um uns weiterzuentwickeln. Roboter hingegen können ihr eigenes Design viel schneller verbessern, und bald werden sie wahrscheinlich auch ohne unsere Hilfe dazu in der Lage sein. Hawking sagt, dass dies zu einer „Intelligenzexplosion“ führen wird, bei der Maschinen unsere Intelligenz „um mehr übertreffen könnten als unsere die von Schnecken“

Viele Menschen denken, dass die Bedrohung durch die künstliche Intelligenz darin besteht, dass sie eher böswillig als wohlwollend wird. Hawking zerstreut diese Befürchtung, indem er sagt, dass „das wirkliche Risiko bei der KI nicht die Böswilligkeit, sondern die Kompetenz ist.“ Im Grunde genommen wird die KI sehr gut darin sein, ihre Ziele zu erreichen; wenn der Mensch ihr in die Quere kommt, könnten wir in Schwierigkeiten geraten.

„Sie sind wahrscheinlich kein böser Ameisenhasser, der aus Bosheit auf Ameisen tritt, aber wenn Sie für ein Wasserkraftwerksprojekt für grüne Energie zuständig sind und es in der Region einen Ameisenhaufen gibt, der geflutet werden soll, dann ist das schade für die Ameisen. Wir sollten die Menschheit nicht in die Lage dieser Ameisen versetzen“, schreibt Hawking.

Wer immer noch nicht überzeugt ist, dem schlägt er eine andere Metapher vor. „Warum sind wir so besorgt über KI? Ist der Mensch nicht immer in der Lage, den Stecker zu ziehen?“, fragt ihn eine hypothetische Person.

Hawking antwortet: „Die Menschen fragten einen Computer: ‚Gibt es einen Gott?‘

Das Ende des Lebens auf der Erde?

Wenn es nicht die Roboter sind, ist es „fast unvermeidlich, dass entweder eine nukleare Konfrontation oder eine Umweltkatastrophe die Erde irgendwann in den nächsten 1.000 Jahren lahmlegt“, schreibt Hawking.

Seine Warnung folgt auf den alarmierenden Bericht des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC) von letzter Woche, der besagt, dass wir nur noch 12 Jahre Zeit haben, um massive Veränderungen vorzunehmen, um die globale Erwärmung auf ein moderates Niveau zu begrenzen. Ohne solche Veränderungen werden ausgedehnte Dürren, häufigere tropische Stürme und steigende Meeresspiegel nur der Anfang sein.

Der unaufhaltsame Klimawandel sei die größte Bedrohung für unseren Planeten, sagt er, und wir handeln mit „rücksichtsloser Gleichgültigkeit gegenüber unserer Zukunft auf dem Planeten Erde“

In der Tat haben wir vielleicht gar keine Zukunft, sagt er und warnt uns, nicht alles „auf eine Karte zu setzen“. Und ja, dieser Korb ist der Planet Erde. Selbst wenn die Menschen einen Ausweg finden, werden „die Millionen von Arten, die die Erde bewohnen“, dem Untergang geweiht sein, sagt er. „Und das werden wir als Rasse auf dem Gewissen haben.“

Eine andere Warnung ist nicht weniger bedrohlich. Wir treten in eine neue Phase der „selbstgestalteten Evolution“ ein. Diese Phase bedeutet, dass wir bald in der Lage sein werden, die Ketten der traditionellen Evolution abzuwerfen und unsere eigene DNA jetzt zu verändern und zu verbessern – nicht erst in Hunderttausenden von Jahren.

Wie bei der KI birgt die Fähigkeit, unsere eigene DNA zu verändern, das Potenzial, die größten Probleme der Menschheit zu lösen. Zunächst, und wahrscheinlich nicht in ferner Zukunft, werden wir in der Lage sein, genetische Defekte zu reparieren, indem wir die Gene für Dinge wie Muskeldystrophie und amyotrophe Lateralsklerose (ALS), die Krankheit, an der er 1963 erkrankte, herausschneiden. Hawking sagt, dass wir noch in diesem Jahrhundert in der Lage sein werden, Intelligenz, Gedächtnis und Lebenslänge zu verändern. Und dann könnten die Dinge wirklich kompliziert werden.

Hawking nennt die Menschen, die dies tun werden, „Übermenschen“, und sie werden wahrscheinlich die wohlhabenden Eliten der Welt sein. Normale alte Menschen werden nicht konkurrieren können und wahrscheinlich „aussterben oder unbedeutend werden“. Gleichzeitig werden die Übermenschen wahrscheinlich „andere Planeten und Sterne kolonisieren“

Wenn sich das alles ziemlich deprimierend anhört, dann ist es das auch. Aber selbst wenn Hawking eine apokalyptische Prognose für den Planeten und alle Menschen auf ihm abgibt, ist sein Optimismus nicht zu übersehen. Er glaubt daran, dass „unsere geniale Rasse einen Weg gefunden haben wird, sich von den widerspenstigen Fesseln der Erde zu befreien, und deshalb die Katastrophe überleben wird“

Er glaubt sogar, dass diese Möglichkeiten nicht erschreckend, sondern aufregend sind und dass sie „die Chancen, den neuen Einstein zu inspirieren, erheblich erhöhen. Wo auch immer sie sein mag.“

Die Suche nach einem Weg weg von der Erde und vielleicht sogar vom Sonnensystem ist eine Gelegenheit, das zu tun, was die Mondlandungen getan haben: „Die Menschheit zu erheben, Menschen und Nationen zusammenzubringen, neue Entdeckungen und neue Technologien einzuführen.“

Melde dich für den Future Perfect Newsletter an. Zweimal wöchentlich erhalten Sie einen Überblick über Ideen und Lösungen zur Bewältigung unserer größten Herausforderungen: Verbesserung der öffentlichen Gesundheit, Verringerung des Leidens von Mensch und Tier, Verringerung katastrophaler Risiken und – um es einfach auszudrücken – besser darin werden, Gutes zu tun.

Unterstützen Sie den Erklärungsjournalismus von Vox

Jeden Tag versuchen wir bei Vox, Ihre wichtigsten Fragen zu beantworten und Sie und unser Publikum auf der ganzen Welt mit Informationen zu versorgen, die Sie durch Verständnis befähigen. Die Arbeit von Vox erreicht mehr Menschen als je zuvor, aber unser unverwechselbarer Erklärungsjournalismus erfordert Ressourcen. Ihr finanzieller Beitrag stellt keine Spende dar, aber er ermöglicht es unseren Mitarbeitern, weiterhin kostenlose Artikel, Videos und Podcasts für alle, die sie benötigen, anzubieten. Bitte denken Sie darüber nach, noch heute einen Beitrag zu Vox zu leisten, und sei es nur ein Betrag von 3 $.