Wie geht es weiter bei Meta, OpenAI und Google?

9

Die Klimaanlagen in Metas Serverräumen laufen auf Hochtouren. Sie kühlen Tausende H100-Chips von Nvidia – für 40.000 Dollar das Stück. Diese Prozessoren sollten Metas neues KI-Modell Behemoth antreiben. Doch die Maschinen stehen still – die Einführung ist verschoben. Die Entwicklung von Metas bislang ambitioniertestem KI-Modell stockt. Ein Teil der Entwickler zweifelt: Der erwartete Leistungssprung rechtfertige die Kosten nicht. Andere im Team warnen, das Modell zeige zu viele Fehler. Meta hat die für Frühjahr geplante Einführung von Behemoth vor wenigen Tagen verschoben – ohne einen neuen Termin zu nennen.

Was in Menlo Park am Firmensitz von Meta südlich von San Francisco geschieht, spiegelt den Zustand der KI-Industrie wider: Der beispiellose Fortschritt der vergangenen Jahre verlangsamt sich. Selbst Open AIs Vorzeige-Modell GPT-4 bleibt nach zwei Jahren ungeschlagen. Weder Google noch Microsoft oder Anthropic konnten es übertreffen. Dabei investieren die Unternehmen Milliarden in neue Systeme.

Die alte Formel funktioniert nicht mehr

„Wir sehen klare Anzeichen, dass sich die Entwicklung verlangsamt“, sagt Robert Nishihara, Mitgründer der KI-Firma Anyscale. „Die Zeit, in der mehr Rechenleistung automatisch zu besseren Modellen führte, ist vorbei.“

Die Grenzen des Wachstums zeigen sich in einer simplen Formel: mehr Daten plus mehr Rechenleistung gleich bessere KI. Diese Regel galt jahrelang als unumstößlich. Ein größeres Modell war automatisch ein besseres Modell.

Doch die Formel funktioniert nicht mehr. „Jeder zusätzliche Rechenschritt bringt weniger Fortschritt“, sagt Marc Andreessen, einer der bekanntesten Techinvestoren im Silicon Valley. Er sieht die KI-Branche an einer Schwelle: Die bisherigen Methoden stoßen an ihre Grenzen.

Technische Hürden bremsen den Fortschritt

Die technischen Grenzen zeigen sich im Detail. Aktuelle KI-Modelle können nur begrenzte Textmengen auf einmal verarbeiten – bei GPT-4 sind es etwa 50 Buchseiten. Mehr Text bedeutet exponentiell steigende Rechenkosten. „Wie ein Gedächtnis, das nach wenigen Minuten aussetzt“, erklärt ein Entwickler die Beschränkung. Die Architektur der Modelle stößt an ihre Grenzen. Macht man sie breiter, explodiert der Speicherbedarf. Macht man sie tiefer, wird das Training instabil. Meta versucht einen Ausweg: Beim Behemoth-Modell sollen nur Teile des Systems aktiv sein – wie ein Gehirn, das nicht alle Regionen gleichzeitig nutzt. Doch auch dieser Ansatz bringt neue Probleme. Das Training wird komplexer, die Fehlersuche schwieriger.

Das zeigt sich am Beispiel von GPT-4. Das Sprachmodell beherrscht komplexe Aufgaben deutlich besser als sein Vorgänger GPT-3. Doch der Sprung war kleiner als erwartet. Vor allem: Seit zwei Jahren schafft es kein Konkurrent, GPT-4 zu übertreffen. Nicht einmal Open AI selbst, die Firma hinter dem Modell.

Die Entwickler suchen nun nach neuen Wegen. Eine vielversprechende Idee: den Modellen mehr Zeit zum Nachdenken geben. Microsoft-Chef Satya Nadella nennt diesen Ansatz „besonders hoffnungsvoll“. Ein Beispiel aus der Praxis: Ein KI-Pokerspieler verbesserte seine Leistung drastisch – nicht durch mehr Daten, sondern weil er pro Zug 20 Sekunden länger nachdachte.

Ein weiteres Problem bremst die KI-Entwicklung: Die Datenmenge ist begrenzt. Die großen Modelle haben bereits einen Großteil der frei verfügbaren Texte aus dem Internet verarbeitet. Neue, hochwertige Trainingsdaten sind schwer zu finden. „Die leicht zugänglichen Quellen sind ausgeschöpft“, berichtet Bloomberg über die Schwierigkeiten der KI-Labore.

Hinzu kommen die enormen Kosten. Open AI gibt täglich 700.000 Dollar allein für den Betrieb von ChatGPT aus. Eine einzelne Anfrage kostet das Unternehmen 0,36 Cent – zehnmal mehr als eine Google-Suche. Die Entwicklung neuer Modelle verschlingt noch größere Summen. Ein Versuch kann Monate dauern und Millionen kosten. Ohne Garantie auf Erfolg.

Der Kostendruck verändert die Branche

„Selbst kleine Verbesserungen rechtfertigen kaum noch die immensen Kosten für neue Modelle“, sagt Noah Giansiracusa, Mathematikprofessor und KI-Experte. Die Unternehmen stehen vor einer schwierigen Entscheidung: Sollen sie bestehende Systeme verfeinern oder riskante Neuentwicklungen wagen?

Die Zahlen zwingen die Unternehmen zum Umdenken. Open AI hat zwischen Anfang 2023 und Mitte 2024 die Kosten pro Antwort um das 150-fache gesenkt. Firmenchef Sam Altman rechnet damit, dass die Kosten für KI-Leistungen jedes Jahr um 90 Prozent fallen. Doch selbst diese drastische Verbesserung reicht nicht, um die Entwicklung neuer Modelle wirtschaftlich zu rechtfertigen.

Der Kostendruck verändert die Machtverhältnisse in der Branche. Nur wenige Unternehmen können sich die Entwicklung großer Sprachmodelle leisten. Microsoft sichert sich durch Milliardeninvestitionen bei Open AI Zugang zur Technologie. Google kann dank seiner Rechenzentren und Werbeeinnahmen mithalten. Meta verfolgt einen anderen Weg: Das Unternehmen veröffentlicht seine Modelle als Open Source und lässt andere Firmen die Kosten für den Betrieb tragen.

Kleine Unternehmen konzentrieren sich auf Nischen. Sie entwickeln spezialisierte KI-Systeme für bestimmte Branchen oder Aufgaben. „Die Zeit der Generalisten geht zu Ende“, sagt ein leitender Entwickler bei Anthropic. „Wir sehen eine Bewegung hin zu fokussierten Modellen, die eine Sache besonders gut können.“

Die Börse reagiert auf die veränderte Lage. Die Aktienkurse von KI-Unternehmen sind seit Anfang 2025 um durchschnittlich 30 Prozent gefallen. Nvidia bildet eine Ausnahme: Der Chipentwickler profitiert von der hohen Nachfrage nach seinen Prozessoren. Die H100-Chips sind so begehrt, dass Unternehmen Monate auf Lieferungen warten müssen.

Die Suche nach Alternativen

Welchen Weg nehmen künftige KI-Modelle? Ein vielversprechender Ansatz: Die KI-Systeme sollen mehr können, als nur Text verarbeiten. Googles neues Modell Gemini versteht Bilder, Töne und Videos. Open AI erweitert GPT-4 um Bildanalyse. Eine KI, die Tabellen, Präsentationen und Spracheingaben verarbeitet, bietet einen echten Mehrwert – auch wenn sie Texte nicht besser versteht als ihr Vorgänger.

Noch einen Schritt weiter gehen KI-Agenten. Diese Systeme führen selbstständig Aufgaben aus: Sie buchen Flüge, füllen Formulare aus oder bestellen Lebensmittel. Open AI hat Anfang 2025 seinen „Operator“ vorgestellt – einen digitalen Assistenten, der auf Sprachbefehl im Internet navigiert. Kostenpunkt: 200 Dollar pro Monat.

Der globale Wettlauf

Die Verlangsamung verändert das globale Kräfteverhältnis. China nutzt die Situation und investiert bis 2026 50 Milliarden Dollar in eigene KI-Modelle. Peking sieht in der Verlangsamung des Westens eine Chance aufzuholen.

Europa geht einen anderen Weg. Die EU setzt auf strenge Regeln für KI-Systeme. Neue Modelle müssen sich Tests unterziehen, bevor sie auf den Markt kommen. Das könnte europäische Firmen weiter zurückwerfen. Doch die Kommission beharrt: Sicherheit geht vor Geschwindigkeit.

Die Machtverhältnisse verschieben sich auch bei den Chips. Nvidia dominiert den Markt für KI-Prozessoren. Intel und AMD hinken Jahre hinterher. Das macht die Entwicklung neuer Modelle noch teurer: Ein einzelnes Training kann Tausende Nvidia-Chips benötigen. Die Nachfrage übersteigt das Angebot bei Weitem.

Gleichzeitig entstehen neue Geschäftsmodelle. Start-ups entwickeln effizientere Trainingsmethoden. Sie versprechen gleiche Leistung mit weniger Rechenaufwand. Andere Firmen spezialisieren sich darauf, bestehende Modelle an spezielle Aufgaben anzupassen. „Das ist wie ein Umbau statt einem Neubau“, erklärt ein Entwickler von Anthropic.

Die Universitäten passen sich ebenfalls an. Neue Forschungszweige entstehen: Wie lässt sich KI sparsamer trainieren? Wie macht man Modelle zuverlässiger? Stanford und das MIT haben eigene Institute für diese Fragen gegründet. Die Grundlagenforschung gewinnt wieder an Bedeutung.

Das Problem mit den Fakten

Die Verlangsamung führt zu neuen Schwerpunkten in der Praxis. Statt universeller Modelle setzen Unternehmen zunehmend auf spezialisierte Systeme. Diese konzentrieren sich auf einzelne Aufgaben – mit höherer Genauigkeit als Alleskönner.

Open AI zeigt mit seinem „Operator“ die neue Richtung. Das System führt konkrete Aufgaben aus: Es bucht Flüge, füllt Formulare aus, bestellt Waren. Statt nach allgemeiner Intelligenz strebt die Firma nach praktischem Nutzen.

Auch die Entwicklung von GPT-4 folgt diesem Trend. Open AI hat die Betriebskosten des Systems seit 2023 drastisch gesenkt. Ein Durchbruch für den Alltag: Die Technologie wird erschwinglich für mehr Anwendungen.

„Die Industrie entdeckt, dass fokussierte Modelle oft besser funktionieren“, sagt ein leitender Entwickler bei Anthropic. Entscheidend sei nicht die reine Rechenleistung, sondern wie gut sich die KI in bestehende Prozesse einfügt.

Die Suche nach neuen Wegen birgt Risiken. Open AI entdeckte ein überraschendes Problem: Je leistungsfähiger die neuen Modelle werden, desto häufiger erfinden sie Fakten. Open AI hat dieses Problem in einem technischen Bericht offengelegt. Das Unternehmen testete zwei neue, experimentelle Modelle – mit ernüchternden Ergebnissen.

Das Modell „o3“ erfand in 33 Prozent der Fälle Informationen über reale Personen. Sein Nachfolger „o4-mini“ lag sogar in 48 Prozent der Fälle daneben. Ein Rückschritt: Die älteren Systeme waren zuverlässiger.

Warum macht ein vermeintlich klügeres Modell mehr Fehler? Die Forscher rätseln noch. Eine Theorie: Je ausführlicher die KI ihre Antworten begründet, desto mehr Gelegenheiten hat sie, Fehler einzubauen. „Die Art des Lernverfahrens bei den o-Modellen verstärkt möglicherweise Probleme, die normalerweise abgemildert werden“, sagt Neil Chowdhury, Forscher bei Transluce. In Tests erfand das System sogar Handlungen – etwa einen Computercode, den es angeblich ausgeführt hatte.

Die Halluzinationen treffen die Branche an einem empfindlichen Punkt. Banken testen KI-Systeme für Finanzanalysen, Anwaltskanzleien für Vertragsprüfungen, Pharmafirmen für Medikamentenforschung. Doch was, wenn die KI Bilanzzahlen erfindet? Wenn sie Gesetzestexte falsch zitiert? Wenn sie nicht existierende Studien anführt oder reihenweise Zitate Personen in den Mund legt, die gar nicht existieren?

Ein Beispiel aus der Praxis: Ein Krankenhaus testete ein KI-System für Patientenakten. Das Modell erfand in seinen Zusammenfassungen Symptome und Behandlungen. „Solche Fehler können Leben gefährden“, warnt Open AI in seinem Bericht. Die Entwickler stehen vor einem Rätsel: Mehr Sicherheitskontrollen machen die Systeme langsamer. Zu viele Einschränkungen machen sie nutzlos.

Nutzer können sich gegen solche Fehler schützen. Präzise, eng gefasste Fragen reduzieren das Risiko falscher Antworten. Hilfreich ist auch, komplexe Themen in kleinere Fragen aufzuteilen. Wer zweifelt, sollte die KI nach Quellen fragen und diese prüfen. Eine klare Anweisung hilft ebenfalls: Die KI soll zugeben, wenn sie etwas nicht weiß.

Für Unternehmen bleibt das Problem ernst. Besonders in Bereichen wie Gesundheit oder Finanzen, wo Fehler fatale Folgen haben können. Die Erkenntnis ist ernüchternd: Ein größeres, neueres Modell ist nicht automatisch ein ehrlicheres Modell.

Die Revolution ändert ihre Form

Langsamer bedeutet nicht stillstehend. Die KI-Entwicklung nimmt eine neue Richtung. Statt an immer größeren Modelle arbeiten die Unternehmen an konkreten Verbesserungen: Die Systeme sollen zuverlässiger werden, weniger Energie verbrauchen und sich besser in bestehende Arbeitsabläufe einfügen.

„Die KI-Entwicklung der nächsten fünf Jahre wird anders aussehen als die der letzten fünf“, schreibt die Tech-News-Website Techcrunch. Die Branche nutzt die Atempause. In den vergangenen zwei Jahren entwickelte sich die Technologie so schnell, dass weder Entwickler noch Gesellschaft mit der Nutzung Schritt halten konnten.

Die Verlangsamung könnte sich als Gewinn erweisen. Open AI, Google und Meta konzentrieren sich darauf, ihre Systeme sicherer und effizienter zu machen. Die KI-Revolution stockt nicht. Sie ändert ihre Form. Statt Größe zählen jetzt Effizienz und Zuverlässigkeit.


Marcus Schuler

Marcus Schuler berichtet seit acht Jahren aus dem Silicon Valley. Dort war er die vergangenen Jahre Korrespondent für die ARD und später den BR. Jetzt arbeitet er als freier Korrespondent. Thematisch hat er sich auf die Digitalbranche und Technologieunternehmen spezialisiert. Er gibt den täglichen Newsletter implicator.ai heraus. Mehr über seine Arbeit erfahren Sie auf LinkedIn.

Quelle: FAZ.NETArtikelrechte erwerben

Kurse und Finanzdaten zum Artikel: