zum Hauptinhalt
Hessen war das erste Bundesland, das die Software der US-Firma Palantir genutzt hat – unter dem Namen Hessendata.

© picture alliance/dpa

Umstrittene Polizeisoftware: „Die Gefahr besteht, dass der Mensch komplett gläsern wird“

Segen oder Risiko? In ersten Bundesländern arbeitet die Polizei bereits mit der Software der US-Firma Palantir. Die Anwältin Sarah Lincoln erklärt, warum sie und andere dagegen klagen.

Eine Software, die für die Polizei riesige Mengen an Daten auswerten und selbst Zusammenhänge herstellen kann: aus Sicht von Sicherheitsbehörden ein Segen, Kritiker befürchten dagegen den Einstieg in eine Dystopie.

Vergangene Woche verhandelte das Bundesverfassungsgericht über Regelungen in Hessen und Hamburg, nach denen die Polizei eine solche Software einsetzen darf. In Hessen ist das Produkt der US-Firma Palantir bereits im Einsatz, auch NRW nutzt es. Andere Bundesländer könnten folgen. Doch ist das auch verfassungsgemäß?

Die Gesellschaft für Freiheitsrechte (GFF) koordiniert die Verfassungsbeschwerden. Im Interview erklärt die Verfahrensbevollmächtigte Sarah Lincoln, wo aus ihrer Sicht die Gefahren der Software liegen.

Frau Lincoln, die Polizei in Hessen verwendet eine Software namens Hessendata, um zur Verhinderung von Straftaten bei unterschiedlichen Behörden gespeicherte Daten zusammenzuführen. Sie klagen dagegen. Warum?
Weil wir ein massives Grundrechtsproblem sehen. Die Polizeibehörden haben Zugriff auf eine Unmenge an Daten: Zeugenbefragungen, Fotos, Videomaterial von Demos, Observierungen, Funkzellenabfragen, Kfz-Kennzeichen, zum Teil Social Media Profile. Sie liegen in zig verschiedenen Systemen gespeichert. Die Polizei kann diese Menge an Daten gar nicht auswerten.

Die Software der Firma Palantir soll das nun für sie tun. Die Polizei kann sich damit alle zu einer Person gespeicherten Daten anzeigen lassen. Es gibt die Gefahr, dass der Mensch komplett gläsern wird. Zudem werden auch andere Personen mit hineingezogen. Es wird geschaut: Wer wohnt im selben Haus wie die verdächtige Person? Wer spielt im selben Fußballverein? Wer ist mit ihr auf Fotos zu sehen? Wer da häufiger auftaucht, kann selbst ins Visier geraten.

Ist es nicht sinnvoll, wenn die Polizei einen besseren Überblick über ihre Daten bekommt?
Die Polizei soll natürlich ihre Daten auswerten können. Aber sie bräuchte dazu kein Produkt der US-Firma Palantir. Der Algorithmus der Software ist völlig intransparent. Es werden Daten mit einbezogen, die mit dem konkreten Anlass der Gefahrenabwehr vielleicht gar nichts zu tun haben. Man wirft die Daten von tausenden Unbescholtenen in einen Topf und guckt mal, welche Ermittlungsansätze sich daraus ergeben. Wir wollen erreichen, dass für den Einsatz einer solch komplexen Software sehr strenge Regeln gelten.

Gab es denn schon Fälle, in denen die Software Fehler produziert hat?
Aus den USA ist bekannt, dass die Software auch regelmäßig falsche Assoziationen zwischen Unbeteiligten und Verdächtigen zieht. Über die konkrete Anwendungspraxis in Deutschland und ihre Ergebnisse wissen wir leider sehr wenig. Aber auch hier sind Fehler vorprogrammiert. Viele der Daten, die bei der Polizei gespeichert sind, sind ohnehin schon veraltet oder falsch. Hinzu kommt, dass polizeiliche Ermittlungen häufig von Vorurteilen geprägt sind, etwa wenn schwarze Menschen häufiger kontrolliert werden. Diese Fehler werden durch die Softwareanalyse verstärkt. Eine Software, die mit falschen oder verzerrten Daten arbeitet, bringt auch verzerrte Empfehlungen hervor.

Gerade zur Verhinderung von Terroranschlägen kann es aber sicherlich hilfreich sein, wenn Daten aus verschiedenen Töpfen zusammengeführt werden.
Der Anwendungsbereich ist aber nicht auf die Verhinderung von schweren Straftaten beschränkt. Sie kann auch zur Verhinderung von Wohnungseinbrüchen verwendet werden, zur Verhinderung von Steuerhinterziehung, missbräuchlicher Asylantragstellung, Sportwettenbetrug, Geldwäsche und vielem mehr. Hinzu kommt, dass die Polizei nach der derzeitigen Rechtslage keine Anhaltspunkte dafür braucht, dass solche Straftaten tatsächlich bevorstehen. Sie kann die Softwareanalyse also weit im Vorfeld einer konkreten Gefahr als Standardinstrument nutzen. Hier fordern wir, dass der Anwendungsbereich viel stärker eingegrenzt wird.

Die Sicherheitsbehörden betonen, die Software sei keine Künstliche Intelligenz und werde auch nicht für „predictive policing“ genutzt – also die Vorhersage künftiger Straftaten. Befürchten Sie dennoch ein solches Szenario?
Auch Google verwendet künstliche Intelligenz, also selbstlernende Algorithmen, um die besten Suchergebnisse auszuspucken. Eine Software, die polizeiliche Datenbanken durchforstet, um der Polizei Verbindungen, Netzwerke und andere Ermittlungsansätze zu liefern, arbeitet auch mit komplexen Algorithmen. Das ist also Definitionssache.

Und ja, noch werden mit der Software keine Terroranschläge vorhergesagt. Die Betonung liegt auf noch. Aber in der Rechtsnorm selber, die in Hessen und Hamburg gilt, ist das nicht limitiert. Denkbar ist in Zukunft eine noch komplexere Software, die entsprechend Prognosen stellen kann – nach dem Motto: Diese Person wirkt verdächtig, die sollte man genauer in den Blick nehmen. Da sind die Entwicklungen rasant.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false