Sie lesen den KI-Newsletter “Natürlich intelligent” vom 10. Juli 2025. Um den Newsletter jeden Donnerstag per Mail zu erhalten, melden Sie sich hier an.
Ob KI-Agenten jetzt das nächste große Ding werden oder nicht,
das ist eine Frage, die offenbar auch die Analysten beim Gartner-Institut etwas
verwirrt: Im vergangenen Herbst noch hatte man autonome KIs zum großen Trend erklärt,
jetzt erwartet das Marktforschungsunternehmen plötzlich, dass mehr als 40
Prozent aller KI-Agenten-Projekte bis
2027 wieder eingestampft werden. Was wohl bedeutet: Die Zukunft ist hier,
aber selbst das Trendforschungsinstitut scheint die selbstständig agierenden
KI-Systeme derzeit irgendwo im Tal der Enttäuschung zu sehen, das das Institut selbst
in seinem berühmten
Hypecycle beschreibt.
Das müssen Sie wissen: das echte Drama hinter dem Fake-Rubio
Was echt ist und was nicht, das stellen generative KI-Tools länger
schon infrage. Je einfacher es wird, Text-, Video- und Audio-Inhalte
hinzuprompten, die öffentlichen Personen beliebige Inhalte in den Mund legen,
und je überzeugender die Ergebnisse wirken, desto verwirrender wird unsere
Gegenwart. Neuster Beleg dafür: ein falscher Marco Rubio.
Die Washington
Post berichtete am Dienstag, dass
ein Hochstapler sich als der US-amerikanische Außenminister ausgab und mithilfe von künstlicher Intelligenz Sprach- und Textnachrichten an andere
Außenminister und US-Politiker gesendet haben soll. Wer dahintersteckt, ist
noch nicht bekannt. Die Nachrichten sollen unter anderem über einen
Signal-Account in Rubios Namen verschickt worden sein. Ziel der Aktion soll es
gewesen sein, sich Zugang zu Informationen oder Accounts zu verschaffen, vermuten
US-Behörden.
Es ist nicht
weiter überraschend, dass so etwas technisch möglich ist. Besorgniserregend finde ich diese Geschichte aber, weil sie einmal
mehr die allgemeine Ratlosigkeit angesichts von KI-Fakes zeigt. Klar wird jetzt
schon wieder kleingeredet, dass die Rubio-Fälschung gar
nicht so ausgefeilt gewesen und auch niemand wirklich drauf hereingefallen sei. Doch schon
beim nächsten Mal könnte das anders sein. Möglich, dass sich irgendwann
verlässliche technische Methoden zur Enttarnung von KI-Fakes durchsetzen. Bis
dahin hängt viel daran, dass Nutzerinnen und Nutzer aufmerksam das
Unwahrscheinliche vom Wahrscheinlichen trennen. Und das wird bekanntlich immer
härter in diesen Tagen, wo sich im Weltgeschehen fast im Wochentakt verschiebt,
was als plausibel gelten darf – und was nicht.
Darüber sollten Sie nachdenken: “Guck mal, Katze” – und schon ist das Reasoning-Modell verwirrt
Zu den Klassikern des Katzeninhalts im Internet gehören
Videos von Katzen, die sich fürchterlich
vor Gurken erschrecken. Für massive Irritationen scheinen Katzen
aber auch selbst zu sorgen – zumindest, wenn man KI-Systeme mit
ihnen konfrontiert.
Klingt albern, ist aber scheinbar so – jedenfalls laut den Ergebnissen
einer Preprint-Studie von Forschern
der Universität Stanford und der Firma Collinear.ai. Dort wollte man ausprobieren, wie robust eigentlich Reasoning-Modelle
sind – also KI-Systeme, die komplexe Fragen in kleine Einzelschritte
zerlegen und in einer Art kritischem Selbstgespräch zu einer Antwort gelangen.
Die Forscher konfrontierten solche Modelle mit einer automatisierten
Methode, die sie Katzenattacke tauften: Beim Lösen einer Matheaufgabe fütterten
sie die Modelle mit Zusatzinformationen, die mit der gestellten Aufgabe gar
nichts zu tun hatten. Ließ man das Reasoning-Modell (im Test verwendeten die Forscher eines des chinesischen Anbieters DeepSeek) zum Beispiel mitten in einer Rechenaufgabe wissen, dass Katzen den größten Teil des Tages
schlafen, verdoppelte sich die Wahrscheinlichkeit, dass das System eine falsche
Antwort gab. Verwirren ließ sich das Modell auch, wenn man in der
gestellten Textaufgabe fragte, ob die Antwort “möglicherweise um die 175”
liegen könnte. Packte man gar mehrere verschiedene verwirrende Sätze in eine
Textaufgabe, stieg die Fehlerquote um mehr als 300 Prozent.
Clever, diese wissenschaftliche Untersuchung mit dem
Internet-Aufmerksamkeitsbooster Katzen zu vermarkten. Denn so sehr es sich natürlich
verbietet, Sprachmodelle zu vermenschlichen: I feel you, DeepSeek: Ich würde
mich auch nur allzu gerne mit Gedanken über schlafende Katzen von dröger Wahrscheinlichkeitsrechnung
zu Münzwürfen ablenken lassen.
Das können Sie ausprobieren: Grok 4
Allem Skandaltumult zum Trotz hat Elon Musk am Mittwoch das neue xAI-Modell Grok 4 vorgestellt und nennt es die “klügste KI der Welt”.
Als ich in einem Blitztest Grok 4 nach Elon Musk frage, nennt er ihn
nach 11 Sekunden Bedenkzeit einen “Master-Troll, aber im bestmöglichen
Sinne”. Bei Musks Possen gehe es nicht um schnelle Lacher, oft seien sie
mit pointierten Kommentaren über Politik, mediale Biases oder
Überregulierung verbunden.
Grok4 lässt mich außerdem wissen, dass es
diesen Troll-Ethos, der auch in sein eigenes Design eingeflossen sei,
schätze. Und spuckt dann xAI-Sprech aus: Schließlich solle er maximal
hilfreich sein, wahrheitssuchend, aber mit einer Prise Respektlosigkeit,
damit die Dinge Spaß machen. Wenn Musk nicht im Herzen Troll wäre,
schreibt Grok, wäre die Welt wahrscheinlich etwas langweiliger.
Nun ja. Viele andere Beobachter der Ereignisse dieser Woche würden eher sagen: Das Unternehmen xAI hat in den Tagen vor der Grok4-Präsentation wahrlich keine Werbung für seinen Chatbot gemacht. Es gab Berichte über antisemitistische Narrative und Lob für Hitler, die der Chatbot Grok auf X gepostet hatte. Zurück geht das Ganze vermutlich auf Impulse von Elon Musk, der Grok mal wieder etwas zu woke fand und “signifikante Verbesserungen” angekündigt hatte. Am Mittwoch musste xAI zurückrudern und teilte mit, man würde “unangemessene Posts” von Grok entfernen und ach, übrigens schmiss dann auch noch die Chefin von Musks sozialen Netzwerk X, Linda Yaccarino, am gleichen Tag hin. Konkrete Gründe nannte sie nicht.
Mehr zu der Veröffentlichung des Modells, den Hintergründen des Antisemitismusskandals und auch einen ersten Test von Grok4 haben meine Kolleginnen Pauline Schinkels und Jakob von Lindern aufgeschrieben.
Falls auch Sie Lust haben, auszutesten, was dieses Modell leistungsmäßig auf die Strecke bringt oder welche politischen Ansichten sich ihm entlocken lassen, können Sie das tun, wenn Sie ein Abo abschließen. Zugang über die Website oder die App kostet 30 Dollar im Monat, eine große Version namens Grok 4 Heavy 300 Dollar pro Monat.