Pre-Crime – spannende Fiktion oder beängstigende Realität?

Die Testphase des Einsatzes von Kameras zur Personenerkennung am Berliner Südkreuz sorgt derzeit für viel Diskussionen. Wie weit darf das Sicherheitsbedürfnis zu Lasten der persönlichen Freiheit gehen? Pre-Crime heißt das Zauberwort, auf das Polizei und Sicherheitsbehörden setzen. Damit sollen Terrorattacken oder kriminelle Aktionen im Vorhinein verhindern werden. Schon länger inspirieren die Versuche von Behörden, anhand von Bewegungsmustern oder Gesichtszügen potenzielle Kriminelle im Vorhinein zu identifizieren, Filmemacher dazu, Szenarien zukünftiger Überwachungsmöglichkeiten zu entwerfen. Wo genau verläuft die Grenze zwischen den fiktionalen Fantasien und der Realität?

Fiktionale Vorbilder werden Realität

Schon der Thriller „Minority Report“ von 2002 mit Tom Cruise thematisierte Pre-Crime. Allerdings waren hier nicht Algorithmen am Werk, sondern hellseherische Fähigkeiten der sogenannten Precogs. Die im Film dargestellten technischen Überwachungsmöglichkeiten mit Iris-Scans der Bevölkerung sind heute zum Teil Realität geworden.

In Indien läuft mit „Aadhaar“ das umfassendste derartige Programm. Dabei wurden seit 2010 über eine Milliarde Personen per Iris-Scan und Fingerabdruck erfasst. Diese Daten werden zudem mit den Handynummern der erfassten Personen verbunden. Heutige Scan-Verfahren sind nicht mehr darauf angewiesen, dass die Augen der Person nah an den Scanner herankommen. Wie in dem Film funktioniert die Technik mittlerweile auf bis zu 12 m Entfernung. das klappt sogar über die Reflexion im Seitenspiegel eines Autos.

Aktuell etwa verfilmt RTL den Roman „Das Joshua-Profil“ von Sebastian Fitzek, in dem moderne Software vorhersagt, wer in Zukunft Verbrechen begehen wird. Wie problematisch und mitunter gefährlich die Einstufung von Personen und ihrem Verhalten durch moderne Sicherheitssoftware mitunter sein kann, thematisiert die Dokumentation „Pre-Crime“, die derzeit im Kino zu sehen ist. In diesem werden verschiedene Programme vorgestellt, die keine Zukunftsmusik mehr sind, sondern in den USA und anderenorts bereits zu Einsatz kommen. Programme wie „Precop“ analysieren Kriminalitätsschwerpunkte und sollen so zum Beispiel die Polizeipräsenz an bestimmten Zeiten und Orten erhöhen, um präventiv Verbrechen zu verhindern.

Datenschützer schlagen Alarm

Datenschutzrechtlich problematischer ist die Tatsache, dass Programme in den USA und Großbritannien Menschen nach bestimmten Gesichtspunkten analysieren. Diese werden sodann in Gefahrenlisten abgespeichert. Aufgrund der Computerdiagnose kann es dann passieren, dass solche Personen einer besonderen Überwachung unterzogen werden. Über diese Maßnahmen werden die Betroffenen häufig durch Besuche und Briefe informiert. Das Gefühl der fortwährenden Überwachung und der Analyse aller Aktivitäten soll kriminelles Handeln verhindern.

Datenschützer bemängeln, dass es nicht sicher sei, ob dieses bedrückende Szenario immer die richtigen Personen trifft oder eher unbescholtene Bürger erheblichem Druck aussetzt. Zudem werde die Privatsphäre verletzt, ohne dass es zu einem Verbrechen gekommen wäre. Denn zur Analyse werden auch Social-Media-Daten genutzt.

Neben der Auswertung des Lebensumfeldes und von Verhaltensmustern setzt Pre-Crime-Technologie auch auf eine noch umstrittenere Art der Datenauswertung. Software wie die der israelischen Firma Faception entscheidet anhand der Gesichtszüge von Personen, ob diese Homosexuell, Pokerspieler oder eben Terroristen sind. Ziel ist es, potenziell gefährliche Personen verstärkt zu kontrollieren.

Experten beweifeln, ob sich die Anzeichen für Homosexualität oder gewalttätiges Potenzial tatsächlich so einfach an den Gesichtern ablesen lassen. Kritiker vergleichen diese Herangehensweise mit jenem der heute als Pseudowissenschaft angesehenen Schädellehre. Diese versuchte Kriminelle, Akademiker, Hausfrauen usw. durch Vermessen der Schädelform zu bestimmen. Wenn mit der isrealischen Technik ausgestattete Überwachungskameras in Flughäfen, Bahnhöfen oder Innenstädten Alarm schlagen, sobald die Gesichtszüge einer Person laut Algorithmus verdächtig erscheinen, könnte das also durchaus „Sonderbehandlungen“ durch Polizei oder Sicherheitsdienste nach sich ziehen.

Neben den gezeigten Beispielen existieren zahlreiche ähnliche Programme. Ob sie ihren Zweck erfüllen, muss sich noch zeigen. Aber bereits die ausgewählten Beispiele machen deutlich, dass die Szenarien einer völlig neuen technologischen Überwachung keineswegs rein fiktiver Natur sind.

Autor: Florian Schimikowski

Veröffentlicht am: 16.10.2017