# taz.de -- Video-Überwachung am Südkreuz: Im Schatten der Technik | |
> Schon das Modellprojekt für Gesichtserkennung per Video scheiterte. Seit | |
> Juni laufen Tests für „Verhaltens- und Mustererkennung“ – mit mäßigem | |
> Erfolg. | |
Bild: Liegen hier Menschen oder sind das Schatten? Lichteinfall am Südkreuz | |
BERLIN taz | Eine Frau sitzt auf einer Bank in der Wartehalle vom Bahnhof | |
Südkreuz und verhält sich eigenartig. Zunächst starrt sie nur auf ihr | |
Handy, doch dann legt sie sich unvermittelt auf eine schwarze Matte, die | |
vor ihren Füßen auf dem Boden liegt. Wort- und reglos bleibt sie liegen. Um | |
die Bank ist ein Bereich mit blauem Klebeband auf dem Boden markiert – | |
ähnlich wie die kleinen Raucher-Inseln auf dem Bahnsteig. | |
Nur sind diese blauen Rechtecke nicht zum Rauchen, sondern für intelligente | |
Videoüberwachung reserviert. Hier sollen die Maschinen lernen, bestimmtes | |
Verhalten von Menschen zu erkennen. Es ist die zweite Phase eines | |
Modellprojekts zu automatisierter Videoüberwachung der Deutschen Bahn und | |
der Bundespolizei. | |
Am Südkreuz, dem Testbahnhof für KI-gestützte Überwachungstechnik, läuft | |
seit Juni die zweite Testphase des Modellprojekts für die Videoüberwachung | |
der Zukunft, so wie sie sich Bahn, Innenministerium und Polizei vorstellen. | |
In der großspurigen [1][Science-Fiction-Ankündigung] hieß es, dass die | |
Kameras von allein lernen sollen, bestimmte Szenarien zu erkennen. Unter | |
anderem: liegende Personen, die Hilfe benötigen, einsame Gepäckstücke sowie | |
schnelle Bewegungen von Personengruppen. Damit rennende Hooligans von einer | |
[2][zum Zug laufenden Familie] unterscheidbar sind, sollen für die Kameras | |
bestimmte Szenen mit „Darstellern“ nach einem exakten „Drehbuch“ | |
dargestellt werden: Ein wütender Hooligan-Mob, ein messerschwingender | |
Krimineller – eine Alien-Invasion? | |
So jedenfalls die Theorie. In der Praxis lief schon die erste Phase des | |
Projekts – automatisierte Gesichtserkennung anhand von biometrischen Daten | |
– sehr schlecht. Und auch die zweite Phase scheint holprig zu starten: Denn | |
außer der liegenden Frau ist nicht viel am Südkreuz zu sehen. Keine Spur | |
von Szenarien, Darbietungen und Reenactment. Drehbuchautor*innen braucht | |
hier jedenfalls niemand. | |
## Schatten oder Mensch? | |
Dass es mit den Tests noch nicht so gut läuft, kann man wohl an der | |
schwarzen Matte erkennen, auf der die Frau liegt. Denn offenbar ist es für | |
die Maschinen gar nicht so leicht, liegende Personen zu erkennen, wenn sie | |
sich auf den nackten Boden legen. Die Matte soll wohl dabei helfen, ein | |
klares Bild zu bekommen – der Schatten fällt dann nicht so auf und die | |
Kamera muss mit weniger Kontrasten klarkommen. | |
Tatsächlich bestätigte die Bahn der taz, dass die Tests noch nicht ganz | |
nach Plan verlaufen. Viel zu sehen sei vor Ort noch nicht, hieß es auf | |
Nachfrage. Situationen nach einem exakten Drehbuch herzustellen, davon sei | |
man noch weit weg, sagte ein Sprecher der Bahn. Die Software sei noch nicht | |
vollständig einsatzbereit. Und das, obwohl die Tests bereits seit Juni | |
laufen sollten. Ursprünglich waren die ersten Versuche sogar für den | |
Jahresbeginn geplant. Drei verschiedene Anbieter – IBM, Hitachi und | |
Funkwerk – sollen ihre Software testen, seien aber noch dabei, ihre Technik | |
einzurichten. | |
Die Kameras hätten allein schon damit Probleme, den Schatten einer Person | |
von einem echten Menschen zu unterscheiden, heißt es. Ein Problem, das am | |
Bahnhof Südkreuz kein kleines sein dürfte, weil dort bei gutem Wetter die | |
Sonne durch ein Glasdach fällt. Ein lang werdender Schatten wirke dabei für | |
die Software schon mal wie eine liegende Person, so der Sprecher. Und bevor | |
man mit drehbuchartigen Szenen beginnen könne, müsse man wohl erst mal das | |
mit den Schatten justieren. Also erst mal kein simulierter Alien-Angriff. | |
Ob sich der offiziell bis Dezember laufende Test am Südkreuz verlängere, | |
könne man noch nicht abschätzen. Panik habe man aber keineswegs: Es gebe | |
eine gewisse Anspannung, aber keine Verzweiflung, so der Sprecher. Man | |
liege noch in der Zeit. Aber vor Anfang August sei noch nichts zu sehen von | |
Tests mit weiteren Probanden. Nicht mal die Bahn selbst habe bislang die | |
Technik einsehen können. | |
## Unwissenschaftliches Debakel | |
Schon die erste Testphase des Modellprojekts Intelligente Videoüberwachung | |
[3][am Südkreuz] lief nicht sonderlich gut. Zu unausgereift und ungenau ist | |
die automatisierte biometrische Gesichtserkennung, wie das einjährige | |
Modellprojekt ergab, das bis August 2018 lief. | |
Der [4][Abschlussbericht] versucht das zwar hinter allerhand Floskeln zu | |
kaschieren und lieferte ein schön gefärbtes Fazit („wertvolle | |
Unterstüzungsinstrumente für die polizeiliche Fahndung“). Doch kritisierten | |
Datenschützer*innen die Ergebnisse mit klaren Worten: „Unwissenschaftlich“ | |
sei der Abschlussbericht, die Testergebnisse seien ein „Debakel“ und | |
deutlich geschönt worden. Die [5][Stellungnahme des Chaos Computer Clubs | |
(CCC)] ist vernichtend. Nicht einmal technisch einsatzfähig seien solche | |
Systeme – von ethischen Vorbehalten einer dauerhaften biometrischen | |
Personenerfassung im öffentlichen Raum ganz zu schweigen, für die zudem | |
jegliche Rechtsgrundlage fehle, wie [6][Kritiker anmerkten]. | |
Auch Berlins Datenschutzbeauftragte Maja Smoltczyk kritisierte in ihrem | |
Jahresbericht 2018 überdeutlich: Der Trefferquote „stand eine sehr hohe | |
Falscherkennungsrate, also eine große Zahl ausgelöster Fehlalarme, | |
gegenüber.“ Während des Projektes seien insgesamt 80.000 bis 100.000 | |
Personen zu Unrecht erfasst worden, schimpft [7][ihr Bericht regelrecht auf | |
Seite 75]. In einem Ernstfall hätte die Kamera also schnell mal ein paar | |
10.000 Personen als vermeintliche Terroristen eingestuft. Eine hohe | |
Fehlerquote berge wiederum das Risiko, „dass ein korrekter Treffer nicht | |
als solcher erkannt würde, weil ständig viel zu viele Falschmeldungen von | |
Hand aussortiert werden müssten“, resümierte die Datenschützerin. | |
Immerhin verzichten Bahn und Bundespolizei bei dieser zweiten Testphase auf | |
biometrische Erkennungsmerkmale. Das ginge nicht nur anhand biometrischer | |
Daten für Gesichter, sondern auch etwa anhand des individuellen Gangs einer | |
Person. Smoltczyk hatte zuvor gefordert, darauf zu verzichten: „Bei einem | |
Verlust der Daten können Betroffene ein Leben lang Opfer von | |
Identitätsdiebstahl und Folgekriminalität werden. Die Erhebung | |
biometrischer Daten ist daher immer mit einem sehr tiefen Eingriff in die | |
Privatsphäre und einem erheblichen Risiko verbunden.“ | |
23 Jul 2019 | |
## LINKS | |
[1] https://www.bundespolizei.de/Web/DE/04Aktuelles/01Meldungen/2019/06/190607_… | |
[2] /Polizei-fixiert-Unschuldige-in-Koeln/!5598162/ | |
[3] /Gesichtserkennung-an-Berliner-Bahnhof/!5436197/ | |
[4] https://www.bundespolizei.de/Web/DE/04Aktuelles/01Meldungen/2018/10/181011_… | |
[5] https://www.ccc.de/de/updates/2018/debakel-am-suedkreuz | |
[6] https://netzpolitik.org/2018/ueberwachungstest-am-suedkreuz-geschoente-erge… | |
[7] https://www.datenschutz-berlin.de/fileadmin/user_upload/pdf/publikationen/j… | |
## AUTOREN | |
Gareth Joswig | |
## TAGS | |
Schwerpunkt Überwachung | |
Bahnhof Südkreuz | |
Videoüberwachung | |
Deutsche Bahn | |
Polizei | |
Schwerpunkt Polizeikontrollen in Hamburg | |
Gesichtserkennung | |
Kameras | |
Biometrie | |
Schwerpunkt Überwachung | |
Datenschutzbeauftragte | |
Schwerpunkt Polizeikontrollen in Hamburg | |
Datenschutz | |
## ARTIKEL ZUM THEMA | |
Überwachung von Drogenszene: Hamburgs Polizei setzt auf KI | |
Künstliche Intelligenz soll im Bahnhofsviertel künftig verdächtige | |
Bewegungen erkennen und Alarm auslösen. Der Datenschutzbeauftragte weiß von | |
nichts. | |
Berlins Zoo plant Gesichtserkennung: „Das geht gar nicht“ | |
Die Pläne des Zoos, biometrische Daten der Besucher zur Gesichtserkennung | |
zu nutzen, werden von der Koalition klar abgelehnt. | |
Videoüberwachung in Berlin: Die Normalität des Spionierens | |
Im Nahverkehr und vor Behörden ist Videoüberwachung inzwischen Standard. | |
Wie viele Kameras tatsächlich in Berlin hängen, kann man nur schätzen. | |
Koreanische Sicherheitsfirma mit Leck: Passwort „abcd1234“ | |
Biometrische Daten von Millionen Nutzern waren offen im Netz zugänglich. | |
Israelische Sicherheitsforscher haben sie entdeckt. | |
Dokumentarfilm über Gesichtserkennung: Überwachung am Südkreuz | |
Gerd Conradts Dokumentarfilm „Face_It!“ umkreist die digitale | |
Gesichtserkennung. Doch er hat inhaltliche Mängel und selbstreferenzielle | |
Spielereien. | |
Datenschützer über Drohbriefe an Linke: „Der Fall ist noch nicht erledigt“ | |
Ende 2017 wurden aus der Polizei Drohbriefe an Autonome verschickt, ein | |
Polizist wurde verurteilt. Für die Berliner Datenschutzbeauftragte ist das | |
nicht genug. | |
Datenschützer über Gesichtserkennung: „Einstieg in die absolute Kontrolle“ | |
Hamburgs Polizei soll ihre Gesichtserkennungs-Datenbank löschen. Das hat | |
der Datenschutzbeauftragte Johannes Caspar am Dienstag angeordnet. | |
Test der Gesichtserkennung in Berlin: Polizei mit Überwachung zufrieden | |
Die Bundespolizei hat in Berlin ein Pilotprojekt zur biometrischen | |
Gesichtserkennung getestet. Datenschützer kritisieren die Verletzung von | |
Persönlichkeitsrechten. |