Stephen Hawking hat eine letzte Botschaft für die Menschheit: Wenn uns die Roboter nicht kriegen, wird es der Klimawandel tun.
Hawking, der Anfang des Jahres im Alter von 76 Jahren an einer degenerativen neurologischen Krankheit starb, gibt seine Abschiedsgedanken in einem posthum veröffentlichten Buch mit dem Titel Kurze Antworten auf die großen Fragen wieder, das am Dienstag erscheint. Es ist eine Botschaft, die es wert ist, von einem Mann beherzigt zu werden, der wahrscheinlich der berühmteste Wissenschaftler seit Einstein ist und am besten für seine Entdeckung der Funktionsweise schwarzer Löcher bekannt ist. Hawkings Buch Eine kurze Geschichte der Zeit verkaufte sich mehr als 10 Millionen Mal und behandelte so große Fragen wie „Wie hat das Universum begonnen?“ und „Was wird geschehen, wenn es endet?“ in einer Sprache, die für den Durchschnittsleser einfach genug ist.
In einem Auszug, der am Wochenende in der Londoner Times veröffentlicht wurde, ist er witzig und optimistisch, auch wenn er uns warnt, dass künstliche Intelligenz uns wahrscheinlich überlisten wird, dass die Reichen sich zu einer übermenschlichen Spezies entwickeln werden und dass der Planet auf die totale Bewohnbarkeit zusteuert.
Hawkings Buch ist letztlich ein Urteil über die Zukunft der Menschheit. Auf den ersten Blick lautet das Urteil, dass wir dem Untergang geweiht sind. Aber wenn man tiefer gräbt, ist da noch etwas anderes, nämlich der Glaube daran, dass menschliche Weisheit und Innovation unsere eigene Zerstörung vereiteln werden, selbst wenn wir scheinbar wild entschlossen sind, sie herbeizuführen.
Die Roboter könnten uns holen
Hawkings größte Warnung betrifft den Aufstieg der künstlichen Intelligenz: Sie wird entweder das Beste sein, was uns je passiert ist, oder das Schlimmste. Wenn wir nicht aufpassen, könnte es das Letzte sein.
Künstliche Intelligenz birgt große Chancen für die Menschheit und umfasst alles von Googles Algorithmen über selbstfahrende Autos bis hin zu Gesichtserkennungssoftware. Die KI, die wir heute haben, befindet sich jedoch noch in einem primitiven Stadium. Experten machen sich Sorgen darüber, was passieren wird, wenn diese Intelligenz uns überholt. Oder, wie Hawking es ausdrückt: „Während die kurzfristigen Auswirkungen der KI davon abhängen, wer sie kontrolliert, hängen die langfristigen Auswirkungen davon ab, ob sie überhaupt kontrolliert werden kann.“
Das mag wie Science-Fiction klingen, aber Hawking sagt, es als solchen abzutun, „wäre ein Fehler, und möglicherweise unser schlimmster Fehler überhaupt.“
Im Vergleich zu Robotern sind wir Menschen ziemlich unbeholfen. Begrenzt durch das langsame Tempo der Evolution, brauchen wir Generationen, um uns weiterzuentwickeln. Roboter hingegen können ihr eigenes Design viel schneller verbessern, und bald werden sie dazu wahrscheinlich auch ohne unsere Hilfe in der Lage sein. Hawking sagt, dass dies zu einer „Intelligenzexplosion“ führen wird, bei der Maschinen unsere Intelligenz „um mehr übertreffen könnten als unsere die von Schnecken.“
Viele Menschen denken, dass die Bedrohung durch die KI darin besteht, dass sie eher böswillig als wohlwollend ist. Hawking zerstreut diese Befürchtung, indem er sagt, dass „das wirkliche Risiko bei der KI nicht Böswilligkeit ist, sondern Kompetenz.“ Im Grunde genommen wird die KI sehr gut darin sein, ihre Ziele zu erreichen; wenn der Mensch ihr in die Quere kommt, könnten wir in Schwierigkeiten geraten.
„Sie sind wahrscheinlich kein böser Ameisenhasser, der aus Bosheit auf Ameisen tritt, aber wenn Sie für ein Wasserkraftwerksprojekt für grüne Energie zuständig sind und in der Region ein Ameisenhaufen geflutet werden soll, dann haben Sie Pech für die Ameisen. Wir sollten die Menschheit nicht in die Lage dieser Ameisen versetzen“, schreibt Hawking.
Für diejenigen, die immer noch nicht überzeugt sind, schlägt er eine andere Metapher vor. „Warum sind wir so besorgt über KI? Ist der Mensch nicht immer in der Lage, den Stecker zu ziehen?“, fragt ihn eine hypothetische Person.
Hawking antwortet: „Die Menschen haben einen Computer gefragt: ‚Gibt es einen Gott?‘ Und der Computer sagte: ‚Es gibt ihn jetzt‘, und zog den Stecker.“
Das Ende des Lebens auf der Erde?
Wenn es nicht die Roboter sind, ist es „fast unvermeidlich, dass entweder eine nukleare Konfrontation oder eine Umweltkatastrophe die Erde irgendwann in den nächsten 1.000 Jahren lahmlegt“, schreibt Hawking.
Seine Warnung folgt auf den alarmierenden Bericht des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC) von letzter Woche, der besagt, dass wir nur 12 Jahre Zeit haben, um massive Veränderungen vorzunehmen, die ausreichen, um die globale Erwärmung in Grenzen zu halten. Ohne solche Veränderungen werden ausgedehnte Dürren, häufigere tropische Stürme und steigende Meeresspiegel erst der Anfang sein.
Der unaufhaltsame Klimawandel sei die größte Bedrohung für unseren Planeten, sagt er, und wir handelten mit „rücksichtsloser Gleichgültigkeit gegenüber unserer Zukunft auf dem Planeten Erde“
In der Tat haben wir vielleicht gar keine Zukunft, sagt er und warnt uns davor, alles „auf eine Karte zu setzen“. Und ja, dieser Korb ist der Planet Erde. Selbst wenn die Menschen einen Ausweg finden, werden „die Millionen von Arten, die die Erde bewohnen“, dem Untergang geweiht sein, sagt er. „Und das werden wir als Rasse auf dem Gewissen haben.“
Eine andere Warnung ist nicht weniger bedrohlich. Wir treten in eine neue Phase der „selbstgestalteten Evolution“ ein. Diese Phase bedeutet, dass wir bald in der Lage sein werden, die Ketten der traditionellen Evolution abzuwerfen und unsere eigene DNA jetzt zu verändern und zu verbessern – und nicht erst in Hunderttausenden von Jahren.
Wie bei der KI birgt die Fähigkeit, unsere eigene DNA zu verändern, das Potenzial, die größten Probleme der Menschheit zu lösen. Zunächst, und wahrscheinlich nicht in ferner Zukunft, werden wir in der Lage sein, genetische Defekte zu reparieren, indem wir die Gene für Krankheiten wie Muskeldystrophie und amyotrophe Lateralsklerose (ALS), die Krankheit, an der Hawking 1963 erkrankt war, herausschneiden. Hawking sagt, dass wir noch in diesem Jahrhundert in der Lage sein werden, Intelligenz, Gedächtnis und Lebenslänge zu verändern. Und dann könnten die Dinge wirklich kompliziert werden.
Hawking nennt die Menschen, die dies tun werden, „Übermenschen“, und sie werden wahrscheinlich die wohlhabenden Eliten der Welt sein. Normale alte Menschen können da nicht mithalten und werden wahrscheinlich „aussterben oder unwichtig werden“. Gleichzeitig werden Übermenschen wahrscheinlich „andere Planeten und Sterne kolonisieren“
Wenn sich das alles ziemlich deprimierend anhört, ist es das auch. Aber selbst wenn Hawking eine apokalyptische Prognose für den Planeten und alle Menschen auf ihm abgibt, kommt sein Optimismus durch. Er glaubt daran, dass „unsere geniale Rasse einen Weg gefunden haben wird, sich von den mürrischen Fesseln der Erde zu befreien, und deshalb die Katastrophe überleben wird“
Er glaubt sogar, dass diese Möglichkeiten nicht erschreckend, sondern aufregend sind und dass sie „die Chancen, den neuen Einstein zu inspirieren, erheblich erhöhen. Wo auch immer sie sein mag.“
Die Suche nach einem Weg weg von der Erde und vielleicht sogar vom Sonnensystem ist eine Gelegenheit, das zu tun, was die Mondlandungen getan haben: „Die Menschheit zu erheben, Menschen und Nationen zusammenzubringen, neue Entdeckungen und neue Technologien einzuführen.“
Melden Sie sich für den Future Perfect Newsletter an. Zweimal wöchentlich erhalten Sie einen Überblick über Ideen und Lösungen zur Bewältigung unserer größten Herausforderungen: die Verbesserung der öffentlichen Gesundheit, die Verringerung des Leidens von Mensch und Tier, die Verringerung katastrophaler Risiken und – um es einfach auszudrücken – besser darin zu werden, Gutes zu tun.
Unterstützen Sie den Aufklärungsjournalismus von Vox
Jeden Tag versuchen wir bei Vox, Ihre wichtigsten Fragen zu beantworten und Sie und unser Publikum auf der ganzen Welt mit Informationen zu versorgen, die Sie durch Verständnis befähigen. Die Arbeit von Vox erreicht mehr Menschen als je zuvor, aber unser unverwechselbarer Erklärungsjournalismus braucht Ressourcen. Ihr finanzieller Beitrag stellt keine Spende dar, aber er ermöglicht es unseren Mitarbeitern, weiterhin kostenlose Artikel, Videos und Podcasts für alle, die sie benötigen, anzubieten. Bitte denken Sie darüber nach, noch heute einen Beitrag zu Vox zu leisten, schon ab 3 Dollar.