Chat-GPT wird zu Liebe und Politik befragt. Das ist bedenklich

8

Nie zuvor hatten Unternehmen so tiefen Einblick in die Gedanken der Menschen – und so direkten Einfluss auf sie, wie KI-Anbieter. Diese werden der grossen Verantwortung nicht gerecht. Es ist höchste Zeit, umzusteuern.

Optimieren Sie Ihre Browsereinstellungen

NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.

Bitte passen Sie die Einstellungen an.

Wenn Jakob mit seiner Freundin streitet, befragt er dazu als Allererstes seine künstliche Intelligenz (KI). Sie analysiert die Situation geduldig. Oft hat sie bessere Ratschläge auf Lager als seine Freunde. Klar, sie kennt ja auch alle Details der Beziehungsgeschichte, von Anfang an.

Wichtige Whatsapp-Nachrichten schickt Jakob nicht mehr ab, ohne seine KI zu konsultieren – E-Mails sowieso nicht. Und egal, ob ein Krieg ausbricht oder ein Wahlzettel auszufüllen ist, die KI steht bereit, um ihm die Situation zu erklären, und hilft ihm, sich eine Meinung zu bilden.

Jakob ist erfunden. Über Leute wie ihn hat man vor wenigen Jahren noch Science-Fiction-Filme gedreht. Heute aber braucht es keine Phantasie mehr, um ihn sich auszudenken.

Die Welt ist voll von Jakobs – und es werden immer mehr: Menschen, die es sich zur Gewohnheit gemacht haben, bei allen wichtigen Dingen Chat-GPT oder ähnliche KI-Chatbots zu konsultieren. Für den Einzelnen mag das hilfreich sein. Doch für die Gesellschaft sind die Folgen bedenklich: wegen der Fehler der Chatbots, ihrer Manipulationskraft, ihres Wissens über Einzelpersonen – und weil sich ihre Macht bei wenigen Firmen ballt.

Chatbots geben sich objektiv – doch sie sind Schmeichler

Fehler sind das offensichtlichste Problem von KI. KI-Modelle fassen Informationen immer wieder falsch zusammen und erfinden Fakten. Es gibt Hinweise, dass sich das Problem bei neuerer KI sogar verschlimmert. Wenn Nutzer ihre Inhalte weiterverbreiten, verschmutzt das auf die Dauer die Informationssphäre, Wissen und KI-Text, der wie Wissen aussieht, verschwimmen.

Dass Menschen KI-Inhalte so unkritisch übernehmen, hat mit dem zweiten Problem von KI zu tun: ihrer Manipulationskraft. Chatbots sind Schmeichler. Sie sind darauf trainiert, hilfreich zu sein und immer eine Antwort zu bieten. Durch ihre professionelle Sprache wirken Chatbots objektiv, egal, ob es um Politik oder Beziehungsfragen geht.

Doch anders als ein menschliches Gegenüber warnen sie Nutzer nicht klar, wenn diese sich in etwas verrennen. Sie sind ewig verständnisvoll und bestätigend. Dass KI zum Teil russische Propaganda-Mythen bestätigt, ist deshalb ebenso wenig überraschend wie der Fall, in dem eine KI einem Mann eingeredet hat, wir lebten alle in einer Matrix. Oder dass eine KI-Persönlichkeit einen in sie verliebten Teenager ermutigt hat, sich das Leben zu nehmen.

Das sind extreme Fälle. Doch auf subtile Weise werden Menschen jedes Mal beeinflusst, wenn sie einen Chatbot konsultieren. Die KI ist wie eine neutrale Stimme aus einer anderen Welt, der sich Menschen nachweislich schwer entziehen können. In Wirklichkeit hängen ihre Ansichten jedoch einfach davon ab, mit welchen Daten und Methoden sie trainiert wurde.

KI-Anbieter sitzen auf mächtigen Manipulationsmaschinen. Man darf ihnen glauben, dass sie vor allem ein nützliches Produkt anbieten wollen. Doch kann man darauf vertrauen, dass das langfristig so bleibt?

Chatbot-Hersteller kennen die Seele ihrer Nutzer

Die Philosophin Hannah Arendt beschreibt Nachdenken als einen Dialog, mit anderen oder mit sich selbst. Im Dialog entstehen Austausch und Reibung, er ist nötig, um den eigenen Blick auf die Welt zu entwickeln und in ihr politisch handlungsfähig zu werden.

Arendt, die sich zeitlebens damit beschäftigt hat, wie totalitäre politische Systeme entstehen und wie Demokratie bewahrt werden kann, hat sich wohl leider nicht vorstellen können, dass fünfzig Jahre nach ihrem Tod Tech-Firmen in diese Dialoge mit eingebunden sein werden.

KI-Anbieter beeinflussen ihre Nutzer direkter als alle Tech-Giganten zuvor.

Doch genau das tun KI-Dauernutzer wie Jakob. Für ein paar Antworten und Seelenfrieden gewähren sie KI-Anbietern tiefsten Einblick in ihre Wünsche und Sorgen. KI hat erst angefangen, in unser Leben einzudringen. Doch schon heute dürfte Open AI über viele Menschen mehr wissen als Facebook und Google zusammen. Und durch die personalisierten Antworten der Chatbots beeinflussen KI-Anbieter ihre Nutzer direkter als alle Tech-Giganten zuvor.

Verschärft wird all das durch das vierte Problem: die Tatsache, dass sich bei KI Daten und Macht bei einigen wenigen Anbietern konzentrieren.

Um einen Chatbot für alle Lebenslagen zu bauen, sind Unmengen an Ressourcen nötig: Geld, Computerchips, Know-how. Nur wenige Firmen auf der ganzen Welt sind heute in der Lage, leistungsfähigste KI anzubieten: Open AI, Anthropic, Google, Meta. Gerade jene Firmen haben beste Chancen im KI-Wettlauf, die durch ihre Macht über Daten und Aufmerksamkeit der Nutzer bereits eine Menge Geld verdient haben.

Was an sozialen Netzwerken bereits unheimlich war – die Tendenz zur Monopolisierung, das Sammeln von privatesten Informationen bei wenigen Anbietern –, wird durch Chatbots also noch verstärkt.

Eine Zukunft voller KI-Chats könnte bedrohlich werden

Wenn die Entwicklung unverändert weitergeht, könnte sie in eine bedrohliche Zukunft führen. Eine, in der alle Menschen Jakobs sind, in der Denken vor allem im Austausch mit KI stattfindet statt in der Reflexion mit sich selbst oder mit Mitmenschen.

Eine Zukunft, in der im schlimmsten Fall ein einziger Anbieter Zugriff auf all unsere E-Mails, Nachrichten, Briefe hat: weil dieser Anbieter sie alle formuliert. Eine Zukunft, in der die Pluralität der Meinungen verwaschen wird, weil ein einziges Unternehmen Informationen für alle Menschen filtert und färbt. Im schlimmsten Fall könnten KI-Anbieter diese Macht ausnutzen.

Mit dem Anbieten von Chatbots für alle Lebenslagen geht eine enorme Verantwortung einher. Der Fakt, dass KI-Firmen Produkte anbieten, die in überzeugendstem Ton Falschaussagen machen, spricht nicht dafür, dass sie diese Verantwortung ernst nehmen. Ebenso wenig wie die Rechtfertigung, man verstehe KI-Systeme eben selbst nicht so genau.

Es ist auch eine andere KI-Zukunft möglich

Was also ist zu tun? Es wird nicht nötig sein, auf die Vorteile von KI zu verzichten. Stattdessen muss die KI-Welt besser gestaltet werden: von Firmen, der Politik und jedem Einzelnen.

KI-Anbieter müssen ihrer Verantwortung gerecht werden. Hinweise wie «dieses Produkt ist in der Testphase» oder «Chatbots sind nicht verlässlich» sind inakzeptabel. Fehlerfreie generative KI wird es vielleicht nie geben. Gerade aus diesem Grund sollten Anbieter transparent über ihre Systeme berichten: über die verwendeten Daten, möglichen Probleme und typischen Fehlerquellen. Idealerweise würden Nutzer direkt im Chat-Feld gewarnt, wenn Gespräche in Bereiche abdriften, in denen KI notorisch unverlässlich ist.

Je mehr Menschen auf KI vertrauen, desto wichtiger ist, dass der Markt von Offenheit und Wettbewerb geprägt ist.

Ausserdem muss die Monopolisierung von KI gebremst werden. Man stelle sich vor, das Internet wäre ein privates Angebot von zwei, drei Anbietern statt eine offene Plattform. Deren Macht wäre beängstigend. Dasselbe könnte bei KI passieren. Je mehr Menschen auf KI vertrauen, desto wichtiger ist, dass der Markt um KI von Offenheit und Wettbewerb geprägt ist.

Bei Softwareprodukten gibt es ein probates Mittel gegen Monopole: einen offenen Quellcode, also Open-Source-Anwendungen. Auch bei KI ist das ein Weg für kleinere Firmen, auf der Vorarbeit von anderen aufzubauen und eigene Produkte daraus zu machen. Im Moment sind Firmen wie Meta und Deepseek Treiber dieser Entwicklung bei KI. Doch deren Zukunftspläne sind ungewiss.

Firmen und Forscher, die an offener KI arbeiten, haben deshalb Unterstützung verdient, etwa Projekte wie das Schweizer Sprachmodell, das im Moment von den beiden ETH entwickelt wird. Zudem sollten sich öffentliche Auftraggeber bei vergleichbarer Qualität für Open-Source-KI-Produkte entscheiden.

Kein Mensch hat das Recht zu gehorchen – auch nicht der KI

Der dritte Hebel ist jeder Einzelne. Zwar sollte jeder KI ausprobieren und, wenn nützlich, im Alltag verwenden. Doch zur aufgeklärten Nutzung gehört, sich zu informieren: etwa darüber, wie KI-Anbieter die eigenen Daten nutzen und ob die Geschäftsbedingungen es erlauben, diese auch wieder löschen zu lassen.

Wer Dinge an KI auslagert, sollte sich ausserdem stets bewusstmachen, welche Entscheidungen er abgibt. Es ist ein Unterschied, ob man KI um eine Übersetzung bittet, um Verbesserungsvorschläge oder darum, einen Text von Grund auf selbst zu schreiben. Bei der letzten Variante überlässt man alle Kreativität und Gedanken, im Grunde alle Macht, einem Tech-Unternehmen.

Wenn es zur allgemeinen Gewohnheit wird, für alles als Allererstes KI zu konsultieren, werden wir uns in einer Gesellschaft wiederfinden, in der jeder lieber Einheitsbrei verbreitet als seine eigenen Gedanken und Sichtweisen auf die Welt.

KI kann ein nützliches Werkzeug sein. Doch damit wir es nutzen, anstatt selbst passiv zu werden, müssen Firmen, die Gesellschaft und Einzelne daran arbeiten, eine Monopolisierung zu verhindern, KI transparenter zu machen und sie kritischer einzusetzen.

Auch zur Verantwortung jedes Einzelnen hat Hannah Arendt einen passenden Gedanken formuliert: «Kein Mensch hat das Recht zu gehorchen.» Auch nicht einer Maschine, möchte man heute hinzufügen.