Karen Haos Einblick in die KI-Blase

12

Die Journalistin Karen Hao beschreibt die Chat-GPT-Firma Open AI in ihrem neuen Buch als Imperium. Und deren CEO Sam Altman als jemanden, dem man nicht vertrauen sollte.

Karen Hao kennt das Silicon Valley so gut wie wenige andere Journalisten.

Karen Hao kennt das Silicon Valley so gut wie wenige andere Journalisten.

Tony Luong

Am 17. November 2023 stand die Tech-Welt still. Alle Aufmerksamkeit war auf Open AI gerichtet, das Unternehmen, das ein Jahr zuvor durch die künstliche Intelligenz (KI) Chat-GPT weltbekannt geworden war. Der Verwaltungsrat hatte den CEO Sam Altman entlassen, man vertraue ihm nicht mehr.

Optimieren Sie Ihre Browsereinstellungen

NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.

Bitte passen Sie die Einstellungen an.

Investoren und Angestellte reagierten entsetzt und wehrten sich. Nach fünf Tagen lenkte der Verwaltungsrat ein. Altman kam zurück, mächtiger als zuvor.

Viele begrüssten den Schritt. Aus ihrer Sicht hatte eine Gruppe Mitarbeiter und Verwaltungsratsmitglieder aus übertriebenen Sorgen wegen einer übermächtigen KI gegen einen kompetenten CEO intrigiert. Die Tech-Journalistin Karen Hao erzählt in ihrem neuen Buch eine andere Geschichte. Sie recherchiert seit Jahren hartnäckig zu Open AI und hat einen tieferen Einblick in das Unternehmen erhalten als die meisten Journalisten.

Frau Hao, Sie beginnen Ihr Buch mit den Tagen, in denen Sam Altman als CEO von Open AI entlassen und dann wieder eingestellt wurde. Warum?

Der Moment ist doppelt symbolisch. Erstens ist es der Höhepunkt eines Konflikts der Ideologien bei Open AI: zwischen jenen, die wie Altman in KI ein Allheilmittel für Probleme sehen, und jenen, die sich wegen der möglicherweise katastrophalen Konsequenzen mächtiger KI Sorgen machen. Zweitens zeigt der Moment eine Konzentration von Macht. Ein paar wenige Menschen bestimmten die Zukunft einer folgenschweren Technologie, chaotisch und intransparent. Nicht einmal die Angestellten von Open AI wussten, was vor sich ging.

Ihr Buch betont aber auch einen dritten Aspekt: Sam Altman selbst.

Sam Altman ist ein Mensch, der Leuten das sagt, was sie hören wollen. So entstehen Konflikte, und jeder wähnt ihn auf seiner Seite. Bis einige merken, dass er anderen gegenüber das Gegenteil sagt. Sie fühlen sich manipuliert und angelogen. Im Silicon Valley ist dieser Charakterzug gar nicht so selten. Der Verwaltungsrat hat vor seiner Entlassung diskutiert, ob er Grund genug für eine Entlassung wäre, wenn Altman CEO einer Liefer-App für Lebensmittel ginge. Vielleicht nicht. Aber man sagte sich, bei KI geht es um viel mehr.

Wäre die KI-Welt ohne Sam Altman heute eine andere?

Altman ist einzigartig gut darin, Geld einzusammeln, obwohl es keine konkrete Geschäftsidee gibt. Er verspricht Investoren nicht einfach Rendite, sondern eine grossartige Zukunft, von der sie Teil sein können. Unsummen von Investorengeld waren eine Voraussetzung, damit Open AI seinen KI-Ansatz durchziehen konnte: massiv viel Rechenleistung aufwenden, um KI zu entwickeln. Man nennt das auch Skalieren. Open AI war damit sehr erfolgreich. Deshalb setzen jetzt alle KI-Firmen darauf.

Die Grundtechnologie der Sprachmodelle war ja bekannt. Hätte nicht eine andere Firma früher oder später etwas wie Chat-GPT entwickelt?

Der grosse Sprung in der Branche war GPT-3. Open AI hat 10 000 Computerprozessoren für dessen Training eingesetzt. Damals eine total verrückte Idee. Viele Mitarbeiter von Open AI waren dagegen. Bei anderen Tech-Firmen hätte die Idee keine Chance gehabt, vor allem, weil nicht klar war, wie man damit Geld verdienen würde. Nach Chat-GPT zogen aber alle Firmen mit, um nicht überholt zu werden.

Da war doch dieser Google-Mitarbeiter, der glaubte, ein Chatbot der Firma namens Lambda habe ein Bewusstsein entwickelt, noch vor der Veröffentlichung von Chat-GPT!

Chatbots gibt es ja auch schon länger. Aber Lambda hat viel weniger Rechenpower genutzt als GPT-3. Und Google wollte den Bot auch nicht veröffentlichen. Er genügte den internen Ansprüchen an ein sicheres, verantwortungsvolles Produkt nicht. Erst nach Chat-GPT senkte Google die Messlatte und veröffentlichte Lambda.

Karen Hao

Karen Hao ist freie Journalistin, zuvor war sie Hongkong-Korrespondentin des «Wall Street Journal» und KI-Reporterin beim «MIT Technology Review». Die gelernte Maschinenbauingenieurin war vor ihrer journalistischen Karriere selbst in der Tech-Branche tätig, als Anwendungsingenieurin bei einem Startup, das aus Googles Forschungsabteilung X hervorging.

Ihr Buch «Empire of AI: Dreams and Nightmares in Sam Altman’s Open AI» wurde im Mai auf Englisch veröffentlicht.

Ihr Buch verrät viel über die Mächtigen bei Open AI, aber es erzählt auch von jenen, die unter den Konsequenzen von KI leiden. Hatten Sie das Gefühl, beides mischen zu müssen, damit man Ihnen zuhört?

Als Journalistin versuche ich immer, die sozialen Auswirkungen von Technologie mit den Entscheidungen in den Firmen zu verknüpfen. Als ich früher selbst Angestellte einer Tech-Firma war, hat mich interessiert, was man besser machen könnte. Im Fall von KI ist klar: Die Entscheidung zu skalieren löst eine Reihe von Problemen aus.

Welches Problem sorgt Sie am meisten?

Die unglaubliche Zahl von Rechenzentren und Supercomputern, die Open AI und der Rest der Branche bauen. Kürzlich zeigte ein McKinsey-Report, dass diese Datenzentren gegen Ende des Jahrhunderts zwei bis sechs Mal so viel Energie wie Kalifornien verbrauchen könnten, die fünftgrösste Volkswirtschaft der Welt. Diese Energie muss konstant geliefert werden, daher kommt sie oft aus Gas- und Kohlekraftwerken, die die Luft vergiften. Dazu kommt, dass zwei Drittel der neuen Datenzentren in Gegenden mit zu wenig Wasser gebaut werden. Das heisst, dass Datenzentren Menschen lebenswichtige Ressourcen streitig machen. Dabei ist das alles total unnötig.

Wie meinen Sie das?

Anfang des Jahres hat die chinesische KI Deepseek die Branche schockiert, indem sie mit einem Bruchteil der Rechenpower die gleichen Fähigkeiten wie amerikanische Modelle erreicht hat. Bei der Bildgenerierung hat Stable Diffusion das Modell von Open AI geschlagen, obwohl es statt Tausende nur ein paar hundert Computerchips nutzte. Das zeigt: Wie Open AI Dinge angeht, ist ziemlich ineffizient. Leider interessieren sich die Firmen nicht für diese Verschwendung. Sie wollen einfach die Schnellsten im Rennen sein.

Sie denken, der Trend zu immer mehr Rechenaufwand für KI wird anhalten? Es sollten doch jene einen Marktvorteil haben, die dasselbe günstiger bieten.

Ich fürchte, der Trend zu mehr Rechenzentren wird weitergehen. In diese Systeme fliesst leider viel Geld von Menschen, denen die langfristige Entwicklung und Wirtschaftlichkeit egal ist. Sie wollen einfach, dass die Bewertungen der Firmen steigen. Dann können sie die Anteile, die sie ganz früh gekauft haben, mit hohem Gewinn loswerden, bevor die Blase platzt.

Sie glauben, dass wir uns in einer Blase befinden?

Ja. Diese Blase wird platzen. Und Investoren haben mich davor gewarnt, dass es schlimmer kommen könnte als bei der Finanzkrise 2008. Goldman Sachs versucht bereits, seine Risiken aus Investitionen in Rechenzentren loszuwerden. Sie versuchen, sie an Altersvorsorge-Fonds weiterzugeben. Es ist ein grosses Risiko für die Weltwirtschaft, dass so viel Kapital in einer Sache steckt, die eigentlich unnötig ist.

Unnötig, weil man dasselbe mit weniger Rechenleistung schaffen könnte?

Genau. Viele meinen, Open AI hätte den einzigen Weg gefunden, KI zu bauen. Aber das stimmt nicht. Es gibt viel effizientere Methoden. Spezialisierte KI-Systeme sind viel geeigneter, um Krebs zu erkennen, Medikamente zu entwickeln, Energiespeicher zu erfinden. Für all das braucht man keine massiven Modelle und Unmengen an Rechenleistung, sondern Spezialisierung und fachspezifische Daten mit hoher Qualität.

Sehen Sie generative KI an sich auch als Blase an?

Es kursieren zumindest falsche Vorstellungen davon, was generative KI kann. Die Leute nutzen sie als Suchwerkzeug, dabei beruht sie auf Wahrscheinlichkeiten. Dadurch passieren Fehler. Ich habe kürzlich auf LinkedIn von jemandem gelesen, der mehrmals in offiziellen Berichten der Regierung zitiert wurde – mit Dingen, die er nie gesagt hat. Offenbar hat jemand auf die Informationen eines Chatbots vertraut. Doch die sind nicht dazu gemacht, hundert Prozent akkurat zu sein. Generative KI ist nützlich, zum Beispiel zum Brainstormen oder um die eigene Argumentation zu verbessern. Aber wer sagt, wegen KI werde die Wirtschaft in jedem Land um zehn Prozent wachsen, überschätzt gewiss ihre Fähigkeiten.

Open AI und andere Firmen sagen, sie wollten diese Probleme lösen, indem sie AGI bauten, also eine KI, die so flexibel denken kann wie der Mensch – nur viel schneller. Werden sie Erfolg haben?

In einer Umfrage haben kürzlich drei Viertel der befragten Wissenschafter angegeben, dass sie die heutigen Methoden nicht für ausreichend hielten, um AGI zu erreichen. Falls AGI überhaupt möglich ist. Ganz grundsätzlich gibt es ja keinen wissenschaftlichen Konsens dazu, was Intelligenz überhaupt ist. Deshalb ist auch das Konzept von allgemeiner KI schwammig. Jeder kann AGI nach seinem Belieben definieren und behaupten, wir hätten sie erreicht oder eben nicht.

AGI war einst das erklärte Ziel von Open AI. Ist es das immer noch?

Ich beginne mein Buch mit einem Spruch, den Altman 2013 zitierte: «Erfolgreiche Menschen gründen Firmen. Erfolgreichere Menschen gründen Länder. Die erfolgreichsten Menschen gründen Religionen.» Altman weiss, dass Menschen eine Mission brauchen. Deshalb hält er rhetorisch an dem Ziel AGI fest. Viele Angestellte von Open AI glauben daran. Aber ich denke, Open AI ist eine normale Firma rund um seine Produkte geworden.

Ist Open AI vergleichbar mit Google vor zwanzig Jahren?

Open AI versucht auf jeden Fall, das zu sein. Man setzt auf immer mehr Produkte. Auch, weil die KI-Modelle im Hintergrund immer austauschbarer werden. Deshalb will Open AI Nutzer durch andere Dinge an sich binden: ein soziales Netzwerk, eine Plattform zur Zusammenarbeit ähnlich wie Google Docs. Aber es geht nicht besonders strategisch vor. Google hatte immer eine Strategie, um Geld zu verdienen. Nebenbei baute man andere Geschäftsbereiche aus. Open AI mischt gerade überall ein bisschen mit, weil Sam Altman das will. Es ist aber unklar, wie es all diese Dinge erfolgreich am Laufen halten und Geld verdienen will. Deshalb bezweifle ich, dass Open AI so erfolgreich wachsen kann wie Google.

Tech-Firmen argumentieren oft mit der Mission, schnell sein zu müssen, um China voraus zu sein. Was halten Sie davon?

Open AI hat immer das Narrativ einer bösen Macht verbreitet, um sich selbst als gute Macht darzustellen. Bei der Gründung von Open AI war Google mit seiner Gewinnorientierung der böse Gegner, der besiegt werden musste. Jetzt ist es China. Seit Jahren vermeidet das Silicon Valley jede Regulierung mit dem Argument, man dürfe nicht von China überholt werden. Das Versprechen war: Ohne Regulierung und mit Exportkontrollen gegenüber China werden die USA ihren technologischen Vorsprung behalten und eine befreiende Wirkung in der Welt entfalten.

Hat das funktioniert?

Nein. China holt auf, trotz Regulierung im eigenen Land und amerikanischen Exportkontrollen. Zugleich hat die amerikanische Technologie die Welt unfreier gemacht. Das ist nicht verwunderlich. Wenn man mit dem Wettlauf gegen das Böse argumentiert und so alle Regeln abschafft, bleiben den Menschen immer weniger Rechte. In dieser Art Abwärtsspirale befinden wir uns.

Was hätten Sie für dieses Buch gerne herausgefunden, sind aber gescheitert?

Im Moment will Sam Altman Open AI aus der Non-Profit-Struktur lösen, mit der es gegründet wurde, um ungehindert Investorengeld einsammeln zu können. Ich wüsste gern, ob er je an Open AI als Non-Profit-Forschungseinrichtung geglaubt hat oder das Argument nur genutzt hat, um Elon Musks Unterstützung und Talente für sich zu gewinnen. Leider sagen auch Leute, die jahrelang eng mit Altman zusammengearbeitet haben, dass sie nicht wüssten, was er wirklich glaube und denke. Das finde ich ziemlich verrückt.

Ein Artikel aus der «»