Pre-Crime – spannende Fiktion oder beängstigende Realität?

Die Testphase des Einsatzes von Kameras zur Personenerkennung am Berliner Südkreuz sorgt derzeit für viel Diskussionen. Wie weit darf das Sicherheitsbedürfnis zu Lasten der persönlichen Freiheit gehen? Pre-Crime heißt das Zauberwort, auf das Polizei und Sicherheitsbehörden setzen und Terrorattacken oder kriminelle Aktionen im Vorhinein verhindern wollen. Schon länger inspirieren die Versuche von Behörden, anhand von Bewegungsmustern oder Gesichtszügen potenzielle Kriminelle im Vorhinein zu identifizieren, Autoren und Filmemacher dazu, Szenarien zukünftiger Überwachungsmöglichkeiten zu entwerfen. Wo genau verläuft die Grenze zwischen den fiktionalen Fantasien und bereits Realität?

Schon der Thriller „Minority Report“ von 2002 mit Tom Cruise thematisierte Pre-Crime. Allerdings waren hier nicht Algorithmen am Werk, sondern hellseherische Fähigkeiten der sogenannten Precogs. Die im Film dargestellten technischen Überwachungsmöglichkeiten mit umfassenden Iris-Scans der Bevölkerung sind heute zum Teil Realität geworden. In Indien läuft mit „Aadhaar“ das umfassendste Programm, bei dem seit 2010 über eine Milliarde Personen per Iris-Scan und Fingerabdruck erfasst werden. Diese Daten werden zudem mit den Handynummern der erfassten Personen verbunden. Heutige Scan-Verfahren sind nicht mehr darauf angewiesen, dass die Augen der Person nah an den Scanner herankommen. Wie in dem Film funktioniert die Technik mittlerweile auf bis zu 12 m Entfernung – und das sogar über eine Reflexion im Seitenspiegel eines Autos.

Aktuell etwa verfilmt RTL den Roman „Das Joshua-Profil“ von Sebastian Fitzek, in dem moderne Software vorhersagt, wer in Zukunft Verbrechen begehen wird. Wie problematisch und mitunter gefährlich die Einstufung von Personen und ihrem Verhalten durch moderne Sicherheitssoftware mitunter sein kann, thematisiert die Dokumentation „Pre-Crime“, die derzeit im Kino zu sehen ist. In diesem werden verschiedene Programme vorgestellt, die keine Zukunftsmusik mehr sind, sondern in den USA und anderenorts bereits zu Einsatz kommen. Einerseits analysieren solche Programme wie „Precop“ Kriminalitätsschwerpunkte und sollen so zum Beispiel die Polizeipräsenz an bestimmten Zeiten und Orten erhöhen, um präventiv Verbrechen zu verhindern.

Datenschutzrechtlich problematischer ist die Tatsache, dass Programme in den USA und Großbritannien auch Menschen nach bestimmten Gesichtspunkten analysieren und in Gefahrenlisten abspeichern. Aufgrund der Computerdiagnose kann es dann passieren, dass solche Personen einer besonderen Überwachung unterzogen werden. Über diese Maßnahmen werden die Betroffenen häufig durch Besuche und Briefe informiert – das Gefühl der fortwährenden Überwachung und der Analyse aller Aktivitäten soll kriminelles Handeln verhindern. Datenschützer bemängeln, dass es nicht sicher sei, ob dieses bedrückende Szenario immer die richtigen Personen trifft oder eher unbescholtene Bürger erheblichem Druck aussetzt. Zudem werde die Privatsphäre verletzt, ohne dass es zu einem Verbrechen gekommen wäre. Denn zur Analyse werden unter anderem auch Social-Media-Daten genutzt.

Neben der Auswertung des Lebensumfeldes und von Verhaltensmustern setzt Pre-Crime-Technologie auch auf eine noch umstrittenere Art der Datenauswertung: Software wie die der israelischen Firma Faception entscheidet anhand der Gesichtszüge von Personen, ob diese Homosexuell, Pokerspieler oder eben Terroristen sind. Ziel ist es, potenziell gefährliche Personen verstärkt zu kontrollieren. Experten diskutieren, ob sich die Anzeichen für Homosexualität oder gewalttätiges Potenzial tatsächlich so einfach an den Gesichtern ablesen lässt, ohne den Charakter und sozialen Hintergrund der Person zu kennen. Kritiker vergleichen diese Herangehensweise mit jenem der heute als Pseudowissenschaft angesehenen Schädellehre, die Vorgabe, Kriminelle, Akademiker, Hausfrauen und ähnliches durch Vermessen der Schädelform zu bestimmen. Wenn mit der entsprechenden Technik ausgestattete Überwachungskameras in Flughäfen, Bahnhöfen oder auch Innenstädten Alarm schlagen, sobald die Gesichtszüge einer Person laut Algorithmus verdächtig erscheinen, könnte das also durchaus „Sonderbehandlungen“ durch Polizei oder Sicherheitsdienste nach sich ziehen.

Neben den gezeigten Beispielen existieren zahlreiche ähnliche Programme. Ob sie ihren Zweck erfüllen, muss sich noch zeigen. Aber bereits die ausgewählten Beispiele machen deutlich, dass die Szenarien einer völlig neuen technologischen Überwachung keineswegs rein fiktiver Natur sind.