Sie lesen den KI-Newsletter “Natürlich intelligent” vom 06. März 2024. Um den Newsletter jeden zweiten Donnerstag per Mail zu erhalten, melden Sie sich hier an.
Wenn es um künstliche Intelligenz geht, werden dermaßen erschütternde Ungeheuerlichkeiten so routiniert ausgesprochen, dass sie schon wieder langweilig klingen. Zum Beispiel: Maschinen werden bald so gut denken können wie Menschen.
Wer sich über KI informiert und mit Menschen aus dem Bereich spricht, liest und hört das ständig. Oft in der abgekürzten Form: AGI is coming, allgemeine künstliche Intelligenz ist nicht mehr weit weg. Kaum jemand in der Branche scheint daran zu zweifeln, es geht höchstens noch um die Frage, wie lange es dauert.
Außerhalb der Techblase sieht es anders aus. Ja, manche Menschen haben diffuse Ängste. Aber mein Eindruck ist, dass sich viele Menschen, gerade in Deutschland, nicht besonders dafür interessieren, ob AGI tatsächlich bevorsteht, und wenn sie doch darüber nachdenken, dass sie dann davon ausgehen, dass die Ankündigungen übertrieben sind.
Das ist einerseits verständlich, es ist schließlich genug los in der Welt. Und die Behauptungen kommen oft von Menschen, die zu Recht im Verdacht stehen, zu übertreiben. Unternehmer wie Open-AI-Chef Sam Altman, die einen direkten Vorteil – sprich: Geld – davon haben, wenn die Welt – sprich: Investoren – glaubt, dass KI die größte Technologie aller Zeiten wird. Oder Wichtigtuer mit beeindruckenden Unehrlichkeitsbilanzen wie, sagen wir, Elon Musk.
Interessant wird es, wenn seriöse Menschen über AGI reden, die kein Geld damit verdienen. Der Physik-Nobelpreisträger Geoffrey Hinton gehört dazu, der bei seinem Arbeitgeber Google sogar kündigte, um freier über das Thema sprechen zu können. Oder Ben Buchanan, als Berater des ehemaligen US-Präsidenten Joe Biden ebenfalls der Hypebeasterei unverdächtig, der kürzlich in einem Podcast sagte, dass es in den kommenden drei bis vier Jahren Systeme geben könne, die “fast jede kognitive Aufgabe erledigen, die ein Mensch erledigen kann”.
Niemand hat Beweise, dass es so kommt. Anders als zum Beispiel in der Klimaforschung lässt die Empirie, wie sich KI in der Vergangenheit entwickelt hat, kaum Schlüsse darüber zu, wie sie sich in Zukunft entwickeln wird. Nur, weil es in den vergangenen Jahren und Monaten erstaunliche Fortschritte in der Leistungsfähigkeit gab, muss es nicht so weitergehen.
Ein weiteres Gegenargument, das oft übersehen wird: Die Welt, mit der AGI interagieren muss, um nützlich zu sein, ist groß, kompliziert und unordentlich. Dass heutige KI-Assistenten (die definitiv keine AGI sind) immer noch nicht wirklich nützlich sind, liegt weniger daran, dass die KI nicht schlau genug wäre, mehrere Arbeitsschritte am Stück zu planen, sondern daran, dass die Informationen, die sie braucht, um das Abendessen mit Freunden zu organisieren, verstreut in verschiedenen Chats liegt oder das Buchungssystem des Restaurants kompliziert ist. Was für Menschen nervig ist, ist es für die KI eben auch. Solche Probleme könnte KI noch lange davon abhalten, mit Menschen vergleichbare Alltags- (und Arbeits-)Leistungen zu vollbringen.
Mit anderen Worten: Es ist durchaus denkbar, dass es noch sehr lange dauert, bis AGI da ist, wenn überhaupt. Und doch wirkt es zunehmend, als würde man aktiv die Augen verschließen, wenn man nicht zumindest die – ja, erschütternde – Möglichkeit in Betracht zieht, dass sie bald kommt. Wegen der Experten, die sich sicher sind. Und wegen der Fortschritte, die KI weiterhin unbestreitbar macht.
Die Recherche-Modi, die von ChatGPT über Grok bis You in den vergangenen Wochen viele KI-Firmen vorgestellt haben, erstellen auf Basis von Websuchen ausführliche Berichte, die es mitunter tatsächlich mit denen von Profis aufnehmen können. Das ist beeindruckend weit entfernt von dem, was erste KI-Suchmaschinen konnten.
Das Modell Claude Sonnet 3.7 von Anthropic – schon im Namen steckt die Kleinschrittigkeit der aktuellen KI-Entwicklung – ist das erste, das ein klassisches Sprachmodell mit dem neueren reasoning-Ansatz zusammenführt, der auch hinter Modellen wie OpenAIs o3 steckt. Durch diese Kombination verschiedener Methoden könnte man in den kommenden Jahren den Effekt ausgleichen, dass das reine scaling, der Ansatz, immer größere Modelle zu bauen, indem man immer mehr Daten von immer größeren Rechenzentren verdauen lässt, an seine Grenzen gerät.
Noch einmal: Es ist nicht gesagt, dass das der Weg zu allgemeiner künstlicher Intelligenz ist. Ich persönlich bin mir bei Weitem nicht so sicher wie viele in der Branche. Aber die Sicherheit, mit der andere AGI für unrealistisch halten, ist mir ebenso suspekt.
Denn klar ist: Wenn sie kommt, hätte das gravierende Folgen. Möglicherweise positive bis hin zur Lösung der Klimakrise, wie Sam Altman es sich erträumt. Möglicherweise negative bis hin dazu, dass wir die Kontrolle über die Systeme verlieren, wie Geoffrey Hinton warnt. Mit einiger Sicherheit würde es den Arbeitsmarkt umkrempeln. Denn wenn eine KI alles kann, was Menschen können, stellt sich nur noch die Frage: Wer macht es billiger?
Links zum Weiterlesen
- Der Chef von Anthropic, Dario Amodei, legt in seinem Essay “Machines of Loving Grace” dar, wie großartig die Welt aus seiner Sicht werden kann, wenn es “mächtige KI” gibt (er vermeidet den Begriff AGI).
- Wie AGI definiert ist und wann sie als erreicht gelten kann, bleiben Streitpunkte. Der Forscher François Chollet hat den ARC-Test entwickelt, der AGI messen soll (und natürlich ist auch der umstritten). Hier wird die Definition und der Test erklärt:
- Der KI-Forscher Gary Marcus gehört zu denen, die stets gute Argumente vorbringen, warum AGI noch weit entfernt ist. So auch in der aktuellen Ausgabe seines Newsletters.
Über KI nachdenken
- Dank Reinforcement Learning konnte KI im Jahr 2016 das Spiel Go meistern und auch heutige reasoning-Modelle wären ohne die Technik nicht möglich. Ihre Erfinder Andrew Barto und Richard Sutton haben dafür nun den Turing-Award verliehen bekommen, eine Auszeichnung, die manchmal als Nobelpreis der Informatik bezeichnet wird. “Pioneers of Reinforcement Learning Win the Turing Award” (Wired)
- Wer dachte, nach dem DeepSeek-Schock könnte sich der KI-Hype in den USA abkühlen, lag falsch. Weiterhin werden immense Summen in die Branche investiert. “A.I. Start-Up Anthropic Closes Deal That Values It at $61.5 Billion” (New York Times)
- Apple scheint im KI-Rennen nicht recht aufholen zu können. Der stets gut informierte Journalist Mark Gurman berichtet, dass es bis 2027 dauern könnte, bis die angekündigten Verbesserungen für Siri kommen. “Apple’s Artificial Intelligence Efforts Reach a Make-or-Break Point” (Bloomberg)
Mit KI herumspielen
- OpenAI hat GPT 4.5 vorgestellt. Es ist größer und ressourcenintensiver als vorherige Modelle, dabei nicht unbedingt leistungsfähiger, aber mit anderen Vibes. Ausprobieren können es alle mit einem Plus-Abo von ChatGPT.
- Das bereits erwähnte Claude 3.7 Sonnet, das ein reasoning-Modell und ein klassisches Sprachmodell in einem ist, kann man bei Anthropic testen: “Anthropic Launches the World’s First ‘Hybrid Reasoning’ AI Model” (Wired)
- Google erweitert seine KI-Suche. Die Zusammenfassungen in der Suche sollen dank Gemini 2.0 besser werden und für Nutzer der experimentellen Suche Search Labs gibt es einen “AI Mode”, in dem man mit seinen Suchergebnissen chatten kann.