Wie sicher ist die chinesische KI?

10

Viel besser hätte es für Deepseek in den vergangenen Tagen nicht laufen können: Die Künstliche Intelligenz (KI) des chinesischen Start-ups ist in Windeseile zu Weltberühmtheit gelangt, weil es offenbar mit den Modellen der berühmten Wettbewerber Open AI und Google mithalten kann – und das auch noch deutlich effizienter.

Einen Haken gab es aber doch: Die App wurde am Montag in den Verei­nigten Staaten derart oft heruntergeladen, dass sich Nutzer teilweise nicht mehr anmelden konnten, weil Deepseek überlastet war. Hinzu kam nach Angaben des chinesischen Start-ups ein Cyberangriff, der Deepseek zeitweise dazu zwang, die Registrierungen einzuschränken. Das auf Cybersicherheit spe­zialisierte Unternehmen Kaspersky weist auf Betrugsvorfälle hin, bei denen Kriminelle gefälschte Deepseek-Web­sites aufgesetzt haben, um die Ausfälle dafür zu nutzen, Anmeldedaten abzugreifen. Doch nicht nur der Cyberangriff auf Deepseek weckt Sicherheits­bedenken. Mit der rasant wachsenden Beliebtheit gewinnen auch Fragen der Privatsphäre, Datensicherheit und Zensur an Bedeutung. Wie sicher ist Deepseek für Nutzer? Einige Dinge sollten Interessierte beachten.

Welche Daten will Deepseek haben?

Schon bei der Anmeldung sollen Nutzer ihre Telefonnummer hinterlegen. Doch neben den Informationen während der Anmeldung sammelt Deepseek nach eigenen Angaben auch alles, was Nutzer in die Plattform eingeben: Text oder Audioeingaben, hochgeladene Dateien, die Chathistorie oder die sämtlichen anderen Inhalte. Mit den Da­ten kann Deepseek sein Modell weitertrainieren. ChatGPT-Nutzer können dagegen selbst bestimmen, ob ihre Da­ten zu Trainingszwecken genutzt werden können. Deepseek sammelt zudem automatisch Internet- oder Netzwerkinformationen wie IP-Adressen, Cookies und erfasst darüber hinaus das Modell und das Betriebssystem des Endgeräts, auf dem die App läuft. Selbst Muster oder Rhythmen der Tastaturbedienung merkt sich das System nach eigenen Angaben.

Wo werden die Daten gespeichert?

Deepseek geht sehr offen damit um, dass es die oben genannten Daten alle in China speichert. Schon im Falle Tiktoks warnten Cybersicherheitsfach­leute, dass die chinesische Regierung im Fall der Fälle auch auf die Daten eu­ropäischer oder amerikanischer Nutzer zugreifen könne.

Wie transparent ist die KI?

Deepseek ist genau wie Llama vom Facebook-Konzern Meta ein Open-Source-Modell. Das heißt, dass die Ar­chitektur hinter der Künstlichen Intel­ligenz offen einsehbar ist. So können Forscher auf der ganzen Welt auf den chinesischen Erkenntnissen aufbauen und sie weiterentwickeln. Aber um die Wirkweise großer KI-Modelle wirklich zu verstehen, braucht es den Zugriff auf die Trainingsdaten. Den gewährt aber keiner der großen Anbieter, weder Deepseek noch Open AI, Meta oder Google.

Wie ideologisch aufgeladen ist Deepseek?

Das Deepseek-Modell unterliegt der chinesischen Zensur. Politisch sensible Fragen, etwa zum chinesischen Präsi­denten oder zu dem Massaker auf dem Platz des himmlischen Friedens, beantwortet das Modell zunächst nicht. Allerdings lassen sich diese von den Entwicklern eingebauten „Sicherheitsrichtlinien“ wie bei anderen großen Sprachmodellen auch durch geschickte Fragestellungen umgehen. Neben diesen offensichtlichen Einschränkungen gibt es durch die Auswahl der Daten aber auch subtilere Einflüsse. Werden KI-Modelle vornehmlich mit chinesischen Daten gefüttert, lernen sie tendenziell eher chinesische Perspektiven auf bestimmte Phänomene oder Konzepte.