Daniel Kokotajlo: “Mir scheint, dass wir auf eine Katastrophe zusteuern”

8

Es sind sich offenbar ja alle einig: Die Fortschritte in der künstlichen Intelligenz werden die Welt massiv verändern. Aber wie genau? Der kalifornische Think Tank AI Futures Project mit Sitz in Berkeley hat sich zur Aufgabe gemacht, möglichst präzise Vorhersagen zu treffen. Im April erschien mit “AI 2027” dessen bislang ausführlichster Bericht aus der nahenden Zukunft. Die Lektüre kann sehr trübe stimmen. Ein Gespräch mit Daniel Kokotajlo, dem Direktor des Think Tanks, und mit Jonas Vollmer, dessen Sprecher, über Wettrüsten, Superprogrammierer und die Frage, ob die KI uns Menschlein gnädig gesinnt sein wird.

ZEITmagazin: Herr Kokotajlo, gleich auf den ersten Absätzen Ihres Papers AI 2027 steht, dass die KI die Welt stärker verändern wird als einst die industrielle Revolution.

Daniel Kokotajlo: Richtig.

ZEITmagazin: Wenn man das Paper weiterliest, wirkt das ein bisschen milde ausgedrückt, oder? Denn das pessimistische der beiden Szenarien, die sie aufmachen, schildert die Ausrottung der Menschheit durch KI-gebastelte Roboter und Biowaffen in etwa zehn Jahren. Bevor wir darüber diskutieren, wieso Sie das für möglich halten, wollte ich Sie fragen, wie Sie mit so einem grässlichen Damoklesschwert über dem Kopf eigentlich Ihren Alltag bestreiten.

Kokotajlo: Es ist hart. Seit mehreren Jahren gehe ich davon aus, dass sich die Dinge in etwa so entwickeln werden, wie in AI 2027 dargestellt. Wir werden diese Maschinen bauen und sie schlauer machen als uns, wahrscheinlich bis zum Ende dieses Jahrzehnts. Mir scheint, dass wir auf eine Katastrophe zusteuern. Aber ich muss ja trotzdem mein Leben weiterleben. Man gewöhnt sich offenbar wirklich an alles.

ZEITmagazin: Ich dachte beim Lesen, dass Sie vielleicht bewusst ein besonders schwarzes Bild zeichnen, um zu warnen und damit das Schlimmste zu verhindern.

Kokotajlo: Das stimmt nicht. Es könnte noch schlimmer werden.

ZEITmagazin: Es geht schlimmer als die Auslöschung der Menschheit?

Kokotajlo: Wir wollen nur vorhersagen, was wir tatsächlich denken, und nicht eine Gruselgeschichte um des Gruselns willen schreiben. Aber ich halte das Szenario der Verlangsamung …

ZEITmagazin: … das optimistische Szenario in AI 2027, das nicht im Verlöschen der Menschheit endet …

Kokotajlo: … für weniger wahrscheinlich als das pessimistische Ende. Aber wir wollten der Welt auch eine optimistischere Variante bieten.

ZEITmagazin: Die endet damit, dass die Menschen eine interplanetare Spezies werden, während die KI über den Sinn und Ursprung des Universums philosophiert. Wir wollen uns hier auf das pessimistische Szenario konzentrieren, schon allein, weil Sie es für wahrscheinlicher halten. Um Ihre Vorhersagen besser zu verstehen, würde ich vorschlagen, dass wir gemeinsam durch Ihre Timeline gehen. Unterwegs werde ich versuchen, Ihre Vorhersagen zu hinterfragen, schon allein um meines Schlafes willen.

Kokotajlo: Okay.

ZEITmagazin: Für 2026 sagen Sie voraus, dass KI-Agenten immer häufiger wie Arbeitnehmer eingesetzt werden. Ich wollte Ihnen dazu ein kurzes Twitter-Zitat vorlesen, von einem Informatiker aus Berkeley, der kürzlich gepostet hat: “Claude 4 (eine KI) hat soeben meine gesamte Codebasis mit einem einzigen Aufruf umgestaltet. 25 Tool-Aufrufe, über 3.000 neue Zeilen, 12 brandneue Dateien. Er hat alles modularisiert, Spaghetti aufgeräumt. Es hat zwar nichts davon funktioniert. Aber Junge, war das schön.” Ich finde interessant, dass die KI so selbstgewiss handelt. Sie braucht einen Menschen, der sie darauf hinweist, dass sie Quatsch produziert.

Kokotajlo: Das ist definitiv ein Problem. Und es ist nicht das einzige Problem, das die KI hat. Manchmal können KIs sogar erkennen, dass das, was sie produzieren, nicht richtig ist. Sie produzieren es aber trotzdem und kommen damit durch, weil der Fehler von den Menschen nicht erkannt wird.

ZEITmagazin: Aber es braucht offensichtlich einen menschlichen Beobachter, der das Ganze in eine produktive Richtung lenkt, oder?

Kokotajlo: Ja. Im Moment sind die KIs eindeutig noch zu dumm, um ein effektiver, autonomer Mitarbeiter zu sein. Unser Paper sagt voraus, dass sie bis Anfang 2027 auch noch so sein werden. Wir werden sie nur begrenzt und mit einigem Misstrauen einsetzen. Und ich sollte an dieser Stelle erwähnen, dass ich meine eigene Einschätzung zu den Entwicklungen gerade erst ein bisschen zurückgesetzt habe und mittlerweile eher von 2028 ausgehe als dem Zeitpunkt, an dem die KI fehlerfrei und sehr menschenähnlich arbeiten kann. Zu der Timeline gehen die Meinungen in unserem Team auseinander. Wir sind uns allerdings einig, dass es nicht mehr lange dauern wird.

ZEITmagazin: Das Problem der Selbstüberschätzung der KI kann gelöst werden?

Kokotajlo: Ja, das ist ein sehr lösbares Problem. Die KI-Unternehmen investieren Milliarden von Dollar, um es zu lösen, und es gibt rasche Fortschritte. Denken Sie nur an das Zitat, das Sie gerade vorgelesen haben. Im Moment machen wir uns darüber lustig, weil die gesamte Codebasis neu strukturiert wurde und nichts funktioniert. Aber noch vor zwei Jahren war es unvorstellbar, dass eine KI überhaupt eine ganze Codebasis durchbürsten könnte. Es geht darum, das Tempo des Fortschritts zu erkennen.