Kann die KI unserer Kontrolle entgehen und uns zerstören?

AI face illustration

“Die Vorbereitung auf das Ereignis der allgemeinen KI, das die menschliche Intelligenz übertrifft, ist eine der wichtigsten Aufgaben der Menschheit.” -Jaan Tallinn

“Es begann vor dreieinhalb Milliarden Jahren in einem Schlammpool, als ein Molekül eine Kopie von sich selbst machte und so zum ultimativen Vorfahren allen irdischen Lebens wurde. Es begann vor vier Millionen Jahren, als das Gehirnvolumen in der Hominidenlinie rapide zu steigen begann. Vor fünfzigtausend Jahren mit dem Aufstieg des Homo sapiens. Vor zehntausend Jahren mit der Erfindung der Zivilisation. Vor fünfhundert Jahren mit der Erfindung der Druckmaschine. Vor fünfzig Jahren mit der Erfindung des Computers. In weniger als dreißig Jahren wird es enden.”

Jaan Tallinn stolperte 2007 in einem Online-Aufsatz namens “Staring into the Singularity” über diese Worte. Das “es” ist die menschliche Zivilisation. Die Menschheit würde aufhören zu existieren, prophezeite der Autor des Aufsatzes, mit dem Aufkommen von Superintelligenz oder KI, die den menschlichen Intellekt in einer Vielzahl von Bereichen übertrifft.

Tallinn, ein in Estland geborener Computerprogrammierer, hat einen Hintergrund in Physik und eine Neigung, sich dem Leben wie ein großes Programmierproblem zu nähern. Im Jahr 2003 hatte er Skype mitbegründet und das Backend für die App entwickelt. Er kassierte seine Aktien, nachdem eBay sie zwei Jahre später gekauft hatte, und jetzt warf er sie für etwas, was er tun konnte. “In die Singularität starren” zerquetschte Computercode, Quantenphysik und Calvin und Hobbes Zitate. Er war süchtig nach etwas.

Tallinn entdeckte bald, dass der Autor des Aufsatzes, der autodidaktische Theoretiker Eliezer Yudkowsky, mehr als 1.000 Artikel und Blogbeiträge geschrieben hatte, von denen viele der Superintelligenz gewidmet waren. Tallinn schrieb ein Programm, um Yudkowskys Schriften aus dem Internet zu kratzen, sie chronologisch zu ordnen und für sein iPhone zu formatieren. Dann verbrachte er den größten Teil eines Jahres damit, sie zu lesen.

Der Begriff “Künstliche Intelligenz” oder die Simulation von Intelligenz in Computern oder Maschinen wurde bereits 1956 geprägt, nur ein Jahrzehnt nach der Entwicklung der ersten elektronischen Digitalcomputer. Die Hoffnung auf das Feld war zunächst hoch, aber in den 1970er Jahren, als die ersten Vorhersagen nicht getroffen wurden, setzte ein “KI-Winter” ein. Als Tallinn die Essays von Yudkowsky fand, erlebte die KI eine Renaissance. Wissenschaftler entwickelten KI’s, die sich in bestimmten Bereichen auszeichneten, wie z.B. Schachgewinne, Reinigung des Küchenbodens und Erkennung menschlicher Sprache. (2007 war der überwältigende Sieg in Jeopardy! von IBMs Watson noch vier Jahre entfernt, während der Triumph in Go von DeepMind’s AlphaGo acht Jahre entfernt war.) Solche “schmalen” KIs, wie sie genannt werden, haben übermenschliche Fähigkeiten, aber nur in ihren spezifischen Dominanzgebieten. Eine schachspielende KI kann den Boden nicht reinigen oder Sie von Punkt A nach Punkt B bringen. Aber die superintelligente KI, so Tallinn, wird eine Vielzahl von Fähigkeiten in einer Einheit vereinen. Noch dunkler ist, dass es auch Daten nutzen könnte, die von Smartphone-Toting-Menschen erzeugt werden, um sich durch soziale Manipulationen hervorzuheben.

Beim Lesen von Yudkowskys Artikeln war Tallinn davon überzeugt, dass Superintelligenz zu einer Explosion oder einem “Ausbruch” von KI führen könnte, die die menschliche Existenz bedrohen könnte – dass ultrasmarte KIs unseren Platz auf der evolutionären Leiter einnehmen und uns dominieren werden, wie wir jetzt die Affen dominieren. Oder, noch schlimmer, vernichte uns.

Nachdem er den letzten der Essays beendet hatte, schoss Tallinn eine E-Mail an Yudkowsky ab – alles in Kleinbuchstaben, wie es sein Stil ist. “Ich bin Jaan, einer der Gründungsingenieure von Skype”, schrieb er. Schließlich kam er auf den Punkt: “Ich stimme zu, dass….die Vorbereitung auf das Ereignis der allgemeinen KI, die die menschliche Intelligenz übersteigt, eine der wichtigsten Aufgaben für die Menschheit ist.” Er wollte helfen. Als er bald darauf zu anderen Treffen in die Bay Area flog, traf er Yudkowsky bei einem Panera Brot in Millbrae, Kalifornien, in der Nähe seines Wohnortes. Ihr Treffen dauerte bis zu vier Stunden. “Er hat die zugrunde liegenden Konzepte und Details tatsächlich wirklich verstanden”, erinnert sich Yudkowsky. “Das ist sehr selten.” Danach schrieb Tallinn einen Scheck über 5.000 Dollar an das Singularity Institute for Artificial Intelligence, die gemeinnützige Organisation, in der Yudkowsky wissenschaftlicher Mitarbeiter war. (Das Unternehmen änderte seinen Namen 2013 in Machine Intelligence Research Institute oder MIRI.) Tallinn hat ihm seitdem mehr als 600.000 Dollar gegeben.

Die Begegnung mit Yudkowsky brachte Tallinn zum Ziel und schickte ihn auf eine Mission, um uns vor unseren eigenen Kreationen zu retten. Als er sich mit anderen Theoretikern und Informatikern zu diesem Thema verband, begann er ein Leben voller Reisen und hielt Vorträge auf der ganzen Welt über die Bedrohung durch Superintelligenz. Meistens begann er jedoch die Erforschung von Methoden, die der Menschheit einen Ausweg ermöglichen könnten: die so genannte freundliche KI. Das bedeutet nicht, dass eine Maschine oder ein Agent besonders gut darin ist, über das Wetter zu plaudern, oder dass sie sich an die Namen Ihrer Kinder erinnert – obwohl eine superintelligente KI in der Lage sein könnte, beides zu tun. Es bedeutet nicht, dass es durch Altruismus oder Liebe motiviert ist. Ein häufiger Irrtum ist die Annahme, dass die KI menschliche Triebe und Werte hat. “Freundlich” bedeutet etwas viel Wesentlicheres: dass die Maschinen von morgen uns nicht auslöschen werden, wenn es darum geht, ihre Ziele zu erreichen.