KI-Reallabore: Die Polizei braucht KI, aber nicht Palantir

3

Im vergangene Woche ausgestrahlten Hannover-Tatort Im Wahn setzt die Polizei eine neuartige Software des fiktiven Unternehmens KROISOS ein, um eine Messerattacke am Hauptbahnhof aufzuklären. Im Präsidium taucht der Vertreter des Techkonzerns auf, lässt eine künstliche Intelligenz über die Datenbestände laufen und präsentiert in Windeseile den wahrscheinlichsten Täter: einen psychisch erkrankten Mann. Die Führungsebene ist begeistert, die Innenministerin jubelt. Doch Kommissar Falke bleibt skeptisch gegenüber der mysteriösen Firma – zu Recht, wie sich schließlich herausstellt.

KROISOS steht für zahlreiche reale Unternehmen, die ihr Arsenal an Überwachungstools derzeit deutschen Sicherheitsbehörden feilzubieten versuchen. So verspricht das US-Unternehmen Palantir, Erkenntnisse aus behördlichen Datenpools in Echtzeit zu gewinnen, zu denen menschliche Analysten nicht (so schnell) gelangen könnten – bis hin zur algorithmischen Identifizierung möglicher Täter. Die US-Firma Clearview AI wiederum lockt die Behörden damit, unbekannte Personen mithilfe einer riesigen Datenbank biometrisch identifizieren zu können.

Doch so reizvoll der Einsatz neuer digitaler Tools auch ist: Unsere Verfassung und das europäische Recht machen, gerade im Bereich der Sicherheitspolitik, verpflichtende Vorgaben – und ziehen mitunter auch rote Linien. So verstößt die Gesichtsdatenbank von Clearview AI gegen europäisches Datenschutzrecht und die Verbote der EU-KI-Verordnung (KI-VO). Der Einsatz der Datenanalysesoftware Gotham der Firma Palantir in deutschen Polizeibehörden scheiterte mehrfach vor dem Bundesverfassungsgericht. Dennoch scheint nun auch die schwarz-rote Koalition wieder damit zu liebäugeln, bei der Firma des Trump-Unterstützers und Demokratiefeinds Peter Thiel auf Einkaufstour zu gehen. In der aktuellen geopolitischen Lage erschiene das maximal fahrlässig.

Denn Softwarelösungen aus nicht europäischen Staaten unreflektiert einzukaufen, führt im schlimmsten Fall in neue Abhängigkeiten, erleichtert Spionage oder führt gar dazu, dass der Staat die Kontrolle über seine Kernaufgaben verlieren könnte. Statt Sonntagsreden, die abstrakt mehr digitale Souveränität Deutschlands und Europas fordern, braucht es konkrete Maßnahmen. Das fängt bei der Beschaffung an: Die Innenministerien sollten in erster Linie auf staatliche Eigenentwicklungen und europäische Lösungen statt auf Angebote dubioser Konzerne zurückgreifen.

Das ist keine Fundamentalkritik. Wer pauschal fordert, Behörden sollten einfach die Finger vom “modernen Teufelszeug” lassen, verkennt den sicherheitspolitischen Ernst der Lage. Angesichts der inneren und äußeren Bedrohungsszenarien muss eine moderne Polizei im 21. Jahrhundert auch digital arbeiten, um Gefahren ebenso effektiv wie verhältnismäßig zu begegnen.

Leider spielte allerdings verfassungsrechtliches Augenmaß bei der Sicherheitsgesetzgebung bislang zu oft keine Rolle. Auch und gerade angesichts eines künftigen CSU-Innenministers steht zu befürchten, dass die Bundesregierung den grundrechtlichen Spielraum erneut maximal aus- und überreizen und zu weit gehende Befugnisse gegen die Kritik von Abgeordneten, Zivilgesellschaft und Sachverständigen durchboxen wird. Ein fatales Signal in einer Zeit, in der es eigentlich angezeigt wäre, den digitalen Autokratien dieser Welt ein freiheitsachtendes Gegenmodell aufzuzeigen.

Ein pragmatischer Weg zu zeitgemäßer Polizeiarbeit

Wir schlagen einen pragmatischen, bislang wenig diskutierten Ausweg aus dem – nur scheinbaren – Dilemma zwischen moderner Ausstattung und grundrechtskonformen Maßnahmen einer zeitgemäßen Polizeiarbeit vor: KI-Reallabore.

Reallabore sind rechtlich eingehegte Experimentierfelder. Technische Lösungen, die allgemein noch nicht zugelassen sind, werden im Rahmen solcher Projekte in der Praxis erprobt. Dabei können die Beteiligten herausfinden, wie nützlich eine Technik wirklich ist und gleichzeitig Antworten auf offene regulatorische Fragen finden. Die KI-VO sieht solche Labore als Instrument der Innovationsförderung explizit vor – und jeder Mitgliedsstaat muss bis August 2026 ohnehin eines einrichten.

Reallabore können den Weg zu einer grundrechtskonformen, technologisch souveränen und nachhaltigen IT-Infrastruktur für die innere Sicherheit ebnen. Sie eröffnen einen transparenten Experimentierraum, in dem sich die zuständigen Aufsichtsbehörden gemeinsam mit der Digitalwirtschaft auf die Suche nach ebenso rechtskonformen wie effektiven KI-Systemen machen können – etwa um Zeugenaussagen zu übersetzen, Tatspuren zu analysieren oder komplexe Sachverhalte zu visualisieren. So können sie auch bei der gezielten Fahndung nach Tätern helfen.

Der EU-Gesetzgeber eröffnet gezielt Raum dafür, dass die Polizei ihre Datenbestände für derartige Analysen nutzt: Personenbezogene Daten, die in der Vergangenheit zum Zweck der “Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten” rechtmäßig verarbeitet wurden, dürfen in Reallaboren weiterverwendet werden (vgl. Art. 59 Abs. 2 KI-VO). Als Sicherung sieht die Verordnung zugleich vor, dass die sensiblen Daten “unter der Kontrolle und Verantwortung der Strafverfolgungsbehörden” bleiben müssen – einer Auslagerung an Privatfirmen ist damit ein Riegel vorgeschoben.