Wie Elon Musks Chatbot zum Antisemiten wurde

8

Mit Humor und etwas Rebellion hätte Grok auf der Plattform X die wirklich objektiven Fakten bereitstellen sollen. Dass es anders kam, zeigt auf, warum es so schwierig ist, einen rebellischen Chatbot zu bauen.

Optimieren Sie Ihre Browsereinstellungen

NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.

Bitte passen Sie die Einstellungen an.

Hören und abonnieren Sie den Podcast «NZZ Akzent» auch auf Spotify, Apple Podcasts oder Castbox.

In dieser Podcast-Episode:

Elon Musk machte sich schon lange öffentlichkeitswirksam Sorgen um «woke» Chatbots wie etwa Chat-GPT. Denn diese sagten manchmal einfach nicht die Wahrheit. Also startete er mit seiner Firma «xAI» kurzerhand seinen eigenen. Ein «Truth-GPT» sollte es werden. Mit Humor und einem Sinn für Provokationen.

«Das Witzige dabei war, dass Grok lange Zeit gar nicht so anders war als alle anderen Modelle», sagt die Technologie-Redaktorin Ruth Fulterer. Wer den Chatbot auf X nutzte, bekam politisch eher zahme Antworten. Bis zum 8. Juli 2025. Elon Musk hatte zuvor noch verlauten lassen, Grok sei deutlich verbessert worden, jetzt sollte man einen Unterschied in seinen Antworten bemerken. «Einen Unterschied haben die Nutzer tatsächlich gemerkt. Von Verbesserung kann aber keine Rede sein.»

In einem Fall behauptete Grok nun, eine Frau auf einem hochgeladenen Bild sei die linksradikale Aktivistin Cindy Steinberg. Ein solcher Account hatte sich über tote weisse Kinder gefreut. Wie sich herausstellte, gibt es weder diese Frau, noch war sie auf dem Bild. Und an ihren Nachnamen Steinberg knüpfte Grok direkt antisemitische Verschwörungserzählungen an. In dieser Episode von NZZ Akzent erklärt die Technologie-Redaktorin, warum es so schwierig ist, eine KI zu bauen, die irgendwie frech oder rebellisch sein soll.

Alle Episoden von «NZZ Akzent» finden Sie in dieser Übersicht.