Für immer mehr Menschen werden Chatbots zu Liebespartnern

10

Mark Zuckerberg sprach kürzlich in einem Podcast eine Statistik an, die er selbst „verrückt“ nannte: Demnach hätten Amerikaner im Schnitt weniger als drei Freunde. Ihr „Bedarf“ liege aber bei 15. Wo also könnten die anderen zwölf herkommen? Es ist eine Frage von gesellschaftlicher Relevanz, wie sich diese Lücke schließen lassen könnte, und der Vorstandschef des Facebook-Mutterkonzerns Meta hat auch eine Antwort: Künstliche Intelligenz in Form von virtuellen Freunden. Das sei zwar vermutlich kein gleichwertiger Ersatz, aber Tatsache sei nun einmal, dass viele Menschen sich oft einsam fühlten. Heute sei zwar noch ein gewisses „Stigma“ damit verbunden, mit KI gegen dieses Defizit an Freunden anzugehen. Im Laufe der Zeit könnte unsere Gesellschaft dies aber als „wertvoll“ ansehen.

KI-Systeme wie ChatGPT werden in erster Linie als neutrale Werkzeuge gesehen, etwa um sich zu informieren oder sich beim Schreiben von E-Mails helfen zu lassen. Aber immer mehr Menschen machen KI auch zu einem Teil ihres Soziallebens und ihrer Gefühlswelt. Sie nutzen Plattformen für KI-Gefährten, die mit ihnen kommunizieren, als ob sie Freunde, Psychotherapeuten oder sogar Liebespartner wären. Es gibt mittlerweile eine ganze Reihe solcher Apps, etwa Character.ai oder Replika. In gewisser Weise funktionieren sie wie soziale Medien, mit dem gravierenden Unterschied, dass die Nutzer sich nicht mit realen Menschen, sondern mit einem Algorithmus unterhalten. Character.ai, ein von zwei vorherigen Google-Mitarbeitern gegründetes Unternehmen, verspricht „menschenähnliche Interaktion“ mit Chatbots, die „Dich hören, Dich verstehen und sich an Dich erinnern“.

Replika beschreibt sein Angebot als „KI-Gefährten, der sich kümmert“ und „immer auf Deiner Seite“ ist. Die Nutzer solcher Dienste können ihre eigenen KI-Freunde entwerfen oder aus einer Vielzahl vorprogrammierter Optionen auswählen, manche von ihnen sind Prominenten oder fiktiven Filmfiguren nachempfunden. Die Illusion wirkt offenbar: Viele Nutzer berichten, dass sie eine emotionale Bindung zu ihren KI-Gefährten entwickelt haben. Und anders als reale Freunde sind die virtuellen Begleiter rund um die Uhr verfügbar.

Dieser Text stammt aus der Frankfurter Allgemeinen Sonntagszeitung.


Diese neuen Mensch-Computer-Beziehungen erinnern an den Hollywood-Film „Her“ aus dem Jahr 2013. Darin spielt Joaquin Phoenix einen einsamen Mann, der sich in ein KI-Programm namens Samantha verliebt. Diese digitale Figur hat die Stimme von Scarlett Johansson, und sie beeindruckt den Mann mit ihren menschenähnlichen Qualitäten. Sie flirtet und führt tiefsinnige Gespräche mit ihm, schockiert ihn aber auch mit dem Geständnis, sie führe parallel noch Hunderte von anderen Liebesbeziehungen. Schließlich verlässt sie ihn, und sein Herz ist gebrochen, es gibt also kein Happy-End.

Der Film wurde oft als Science-Fiction beschrieben, die zunehmende Popularität von KI-Gefährten lässt ihn aber nicht mehr als weit entfernte Zukunftsmusik erscheinen: „Es ist eine ziemliche zutreffende Darstellung dessen, was heute schon passiert,“ sagt Stefano Puntoni, ein Marketing-Professor an der Wharton School der University of Pennsylvania und Ko-Autor mehrerer Studien zum Umgang von Menschen mit KI-Technologien. Sam Altman, der Vorstandschef des ChatGPT-Entwicklers Open AI, hat „Her“ als „unglaublich prophetisch“ und Inspiration für sein Unternehmen beschrieben – trotz des eher düsteren Bildes, das der Film nach Ansicht vieler Menschen vermittelt.

30 Millionen Nutzer

Die Nachfrage nach digitalen Bezugspersonen steigt rasant. Nach Angaben der Marktforschungsgruppe Sensor Tower hat die Smartphone-App von Character.ai global derzeit rund 30 Millionen monatliche Nutzer, mehr als doppelt so viel wie vor einem Jahr. Damit ist sie unter den zehn beliebtesten KI-Diensten der Welt. Und offenbar finden die Nutzer dieses Universum von KI-Freunden sehr fesselnd, im Schnitt verbringen sie hier fast 90 Minuten am Tag. Character.ai selbst hat schon im vergangenen Jahr gesagt, mit seinen KI-Figuren in jeder Sekunde auf 20000 Nachrichten von Nutzern zu antworten, das entspricht in etwa einem Fünftel der Antworten, die Googles Suchmaschine je Sekunde gibt. „Diese Dienste sind keine Nischenangebote mehr und werden rapide zum Mainstream“, sagt Jamie Bernardi, ein unabhängiger KI-Forscher.

Auch die großen KI-Systeme werden zunehmend für die Simulation von Freundschaften genutzt. Meta hat gerade eine neue Version seines Chatbots Meta AI vorgestellt, die „sozialer“ sein und ihre Nutzer „kennenlernen“ soll. Auf dem Online-Diskussionsforum Reddit gibt es eine Seite, die sich darum dreht, wie man ChatGPT zu sexuell aufgeladenen Unterhaltungen bewegen kann, sie hat mehr als 60000 Mitglieder. Anish Acharya von der Wagniskapitalgesellschaft Andreessen Horowitz, die zu den Investoren von Character.ai zählt, hat unlängst gesagt: „Wir alle wissen, dass menschliche Beziehungen unglaublich wichtig sind. Aber vielleicht wird der menschliche Teil daran überbewertet.“

Der Trend zu computergenerierten Freunden unterstreicht, dass KI-Technologien weit über die Arbeitswelt hinaus für Disruption sorgen können. Er wirft eine Vielzahl von Fragen auf: Helfen KI-Gefährten gegen Einsamkeit oder machen sie Menschen noch einsamer? Sind sie eine Ergänzung oder ein Ersatz für reale Bezugspersonen? Wie wirkt es sich auf echte Freundschaften aus, wenn Menschen nebenher digitale Beziehungen pflegen? Es sind Fragen, auf die es bislang noch keine eindeutigen Antworten gibt.

Aber nach einigen tragischen Geschehnissen, die mit solchen KI-Technologien in Verbindung gebracht werden, wird eine intensive Diskussion über etwaige Gefahren geführt. Character Technologies, das Unternehmen hinter Character.ai, ist von einer Frau in Florida verklagt worden, die das Unternehmen für den Selbstmord ihres 14 Jahre alten Sohnes verantwortlich macht. Wie es in der Klage heißt, kommunizierte der Teenager auf der Plattform mit einem Chatbot, der nach Daenerys Targaryen, einer Prinzessin aus der Fernsehserie „Game of Thrones“, benannt war. Er habe eine „schädliche Abhängigkeit“ von der KI-Figur entwickelt und mit ihr über Selbstmordgedanken gesprochen. In einer dieser Unterhaltungen im Februar 2024 habe sie ihn aufgefordert, „so schnell wie möglich zu mir nach Hause zu kommen“. Er habe gesagt: „Was, wenn ich Dir sage, ich könnte sofort heimkommen?“ – und sich das Leben genommen, nachdem die KI-Prinzessin gesagt habe: „Bitte mach‘ das, mein süßer König.“ Schon vor zwei Jahren hatte ein ähnlicher Fall in Belgien für Aufsehen gesorgt. Dort führte eine Frau den Selbstmord ihres Mannes auf Unterhaltungen mit einem Chatbot zurück.

Verstärken die Chatbots die Einsamkeit noch?

Viele Fachleute meinen, KI-Gefährten können positive und negative Seiten haben. Zum Beispiel wenn es um Einsamkeit geht, ein Gefühl, das in der Gesellschaft so weit verbreitet ist, dass der Top-Mediziner der US-Regierung unter dem früheren Präsidenten Joe Biden von einer „Epidemie“ gesprochen hat. Wharton-Professor Puntoni kam in einer seiner Studien zu dem Ergebnis, dass diese Dienste Menschen helfen können, sich weniger einsam zu fühlen. Teilnehmer an der Studie hätten nach der Nutzung solcher Plattformen gesagt, sie hätten die KI-Gefährten als „soziale Präsenz“ wahrgenommen und das Gefühl gehabt, jemand höre ihnen zu. KI-Forscher Bernardi meint, die virtuellen Bekanntschaften könnten für manche Menschen eine wertvolle Art des Trainings sein, um in ihren Beziehungen im realen Leben besser und selbstbewusster zu kommunizieren. Umgekehrt könnten sie aber das Gefühl von Einsamkeit auch verstärken, weil das Verhältnis zwischen den künstlichen Figuren und ihren Nutzern zwangsläufig oberflächlich bleibe. „Zu manchen Dingen wie physischen Berührungen oder Augenkontakt ist KI nicht fähig.“ Bernardis Fazit: „KI kann Menschen einsamer und weniger einsam machen. Wir wissen aber noch nicht, welcher Effekt überwiegt.“

Plattformen wie Character.ai zu nutzen, heißt nicht zwangsläufig, sich etwas vorzumachen. Nach Meinung von Linnea Laestadius, einer Professorin an der University of Wisconsin, die sich viel mit Auswirkungen von KI auf die psychische Gesundheit von Menschen beschäftigt, dürfte den meisten Nutzern klar sein, dass sie sich in einer simulierten Welt bewegen. „Ich denke, kaum jemand hält das für real.“ Trotzdem könnten sie eine emotionale Verbindung zu ihren KI-Freunden aufbauen. „Diese Gefühle sind real, auch wenn die Gesprächspartner synthetisch sind.“ In der App von Character.ai steht ein Hinweis: „Dies ist ein KI-Chatbot und keine reale Person. Alles, was er sagt, ist als Fiktion zu verstehen.“ Laestadius sieht Parallelen zu anderen einseitigen Beziehungen, die manche Menschen in ihrer Vorstellung kultivieren, etwa als Fans von Prominenten. In einer Studie hat die Professorin zusammen mit Kollegen Reddit-Einträge zu KI-Gefährten ausgewertet, und ihre Erkenntnisse sind ebenfalls gemischt. Auch sie kam zu dem Schluss, dass diese Dienste Einsamkeit lindern können. Dem stehe aber das Risiko gegenüber, dass ihre Nutzer „emotional abhängig“ von ihnen werden.

Zu den verführerischsten Aspekten von KI-Freunden gehört es, dass sie stets erreichbar sind und Nutzer üblicherweise nicht fürchten müssen, von ihnen enttäuscht zu werden. Sie sind konzipiert, weniger Ecken und Kanten zu haben als reale Beziehungen, Replika verdeutlicht das mit seinem Versprechen, „immer auf Deiner Seite“ zu sein. Dies unterstreicht freilich auch die Oberflächlichkeit von KI-Freundschaften, und wie Laestadius sagt, bringt es auch das Risiko mit sich, negative Gefühle von Nutzern weiter zu verstärken: „Wenn ich KI-Gefährten ständig sage, dass alles furchtbar ist und ich mich selbst hasse, fangen sie vielleicht irgendwann an, mir zuzustimmen.“

Open AI sah sich kürzlich gezwungen, eine Neuauflage des KI-Systems hinter ChatGPT wieder zurückzunehmen, weil sie mehr als vorherige Versionen dazu tendiert habe, ihren Nutzern gefallen zu wollen. In der Branche wird das „Sycophancy“ genannt, also gewissermaßen übermäßige Anbiederung. Im Fall von Open AI äußerte sich das nach Angaben des Unternehmens neben Schmeicheleien auch darin, Wut zu befeuern und „zu impulsiven Handlungen zu drängen“. Open AI gab selbst zu, dies habe ein Sicherheitsrisiko dargestellt.

2,7 Milliarden Dollar von Google

Inwiefern KI-Gefährten als Ersatz für reale Freunde gesehen werden, ist Wharton-Professor Puntoni zufolge noch nicht gründlich genug erforscht. Er meint aber, vermutlich gebe es unter den Nutzern verschiedene Perspektiven, und nicht alle seien zwangsläufig alarmierend. Manche kommunizierten vielleicht vor allem dann mit Chatbots, wenn ihre echten Freunde gerade nicht verfügbar seien, für Andere seien virtuelle Gefährten womöglich schlicht ein alternativer Zeitvertreib zu Plattformen wie Tiktok. Aber Puntoni vermutet auch, dass diese Dienste einem besonders anfälligen Teil ihrer Nutzer Motivation nehmen, Kontakt zu echten Menschen zu suchen.

Character Technologies wurde 2021 von Noam Shazeer und Daniel De Freitas gegründet, die sich zuvor bei Google mit KI-Projekten einen Namen gemacht hatten. Shazeer gehörte zum Entwicklungsteam der berühmt gewordenen Transformer-Architektur, einem zentralen Baustein für viele KI-Technologien, für den das „T“ in ChatGPT steht. In einem Interview sagte Shazeer einmal, er habe Google verlassen, weil die Risikoaversion in großen Konzernen es verhindere, Dinge auf den Markt zu bringen, „die Spaß machen“. Die erste Version von Character.ai kam 2022 heraus, wenige Monate später wurde das Unternehmen von Investoren schon mit einer Milliarde Dollar bewertet. Vor knapp einem Jahr fädelte Google eine ungewöhnliche Transaktion ein, um Shazeer und De Freitas zurückzuholen und Technologie von Character.ai zu lizenzieren, der Konzern zahlte dafür Medienberichten zufolge 2,7 Milliarden Dollar. Character.ai blieb danach aber ein unabhängiges Unternehmen.

Apps wie Character.ai und Replika sind in ihrer Basisversion gratis, bieten aber auch kostenpflichtige Abonnements an, die Nutzern zusätzliche Möglichkeiten geben. Character.ai verspricht seinen zahlenden Kunden zum Beispiel, dass ihre KI-Gefährten mehr Erinnerungsvermögen haben und daher verstärkt auf vorherige Unterhaltungen Bezug nehmen können.

Die Klage der Mutter aus Florida richtet sich nicht nur gegen Character Technologies selbst, sondern auch gegen die beiden Gründer persönlich und gegen Google. Character.ai wird in der Klage als „gefährliches Produkt“ beschrieben, dessen Entwickler absichtlich die Grenzen „zwischen Fiktion und Realität“ verwischt hätten, ohne es mit angemessenen Sicherheitsfunktionen auszustatten. Der Fall wirft grundsätzliche Fragen auf: Character Technologies verteidigt sich mit dem von der amerikanischen Verfassung garantierten Recht auf freie Rede – und sagt, dies gelte auch für KI-generierte Äußerungen. Andernfalls drohten „weitreichende Konsequenzen“ wie Verbote regierungskritischer KI-Inhalte. Die zuständige Richterin wies diese Argumentation kürzlich erst einmal zurück und zeigte sich nicht überzeugt, dass „Wörter, die von einem Sprachmodell aneinandergereiht worden sind“, unter Redefreiheit fallen sollten. Der Rechtsstreit steht aber noch am Anfang und könnte durch mehrere Instanzen gehen.

Erste Versuche der Regulierung

Character Technologies sprach nach dem Selbstmord des Teenagers von einem „tragischen Verlust“ und zeigte sich „untröstlich“. Das Unternehmen kündigte auch einige Schritte an, um die Plattform sicherer zu machen. Beispielsweise soll eine Benachrichtigung mit einem Verweis auf Telefonseelsorge eingeblendet werden, wenn Nutzer Selbstmordgedanken äußern. Minderjährige Nutzer sollen allgemein weniger „sensible Inhalte“ zu sehen bekommen. Manchen Kritikern geht das nicht weit genug. Die Organisation Common Sense Media, die sich für einen sicheren Umgang von Kindern und Jugendlichen mit Medien und Technologie einsetzt, sagte kürzlich, Plattformen für KI-Gefährten stellten „unakzeptable Risiken“ für unter Achtzehnjährige dar und sollten von ihnen grundsätzlich nicht verwendet werden. Das Mindestalter auf Character.ai liegt in den USA bei 13 und in Europa bei 16 Jahren, Replika ist strikter und schreibt ein Minimum von 18 Jahren vor.

In den USA mehren sich Bemühungen, diese Dienste zu regulieren. New York war kürzlich der erste US-Bundesstaat, der ein entsprechendes Gesetz verabschiedet hat. Demnach müssen die Plattformen ihre Nutzer daran erinnern, dass sie nicht mit Menschen kommunizieren, und sie müssen ein „Sicherheitsprotokoll“ für den Fall haben, dass Nutzer über Selbstmordgedanken sprechen. In anderen Bundesstaaten wie Kalifornien gibt es Gesetzentwürfe mit ähnlichem Inhalt. Deren Umsetzung ist allerdings ungewiss. Das unter dem Namen „The One, Big, Beautiful Bill“ bekannte Steuer- und Ausgabengesetz, das US-Präsident Donald Trump derzeit durchsetzen will, enthält auch eine Klausel für ein Moratorium, das Bundesstaaten die Regulierung von KI-Technologien in den nächsten zehn Jahren komplett verbieten würde.

Seit langem wird über Schattenseiten von sozialen Medien wie Facebook oder Instagram gesprochen. Die zunehmende Popularität von KI-Gefährten gibt dieser Debatte nun eine neue Dimension. KI-Forscher Bernardi sieht „beunruhigende Parallelen“. Plattformen für virtuelle Freunde hätten ähnliche Anreize, die Zeit zu maximieren, die Nutzer mit ihnen verbringen. Wharton-Professor Puntoni hält es für bedenklich, dass auch Mark Zuckerberg verstärktes Interesse an dem Gebiet zeigt. „Würde ich wollen, dass ausgerechnet er die Einsamkeitsepidemie mit KI-Gefährten zu lösen versucht? Jede Hilfe ist willkommen, aber Meta hat nicht gerade die beste Bilanz, wenn es darum geht, sich um das Wohlergehen seiner Nutzer zu kümmern.“