| # taz.de -- Video-Überwachung am Südkreuz: Im Schatten der Technik | |
| > Schon das Modellprojekt für Gesichtserkennung per Video scheiterte. Seit | |
| > Juni laufen Tests für „Verhaltens- und Mustererkennung“ – mit mäßigem | |
| > Erfolg. | |
| Bild: Liegen hier Menschen oder sind das Schatten? Lichteinfall am Südkreuz | |
| Berlin taz | Eine Frau sitzt auf einer Bank in der Wartehalle vom Bahnhof | |
| Südkreuz und verhält sich eigenartig. Zunächst starrt sie nur auf ihr | |
| Handy, doch dann legt sie sich unvermittelt auf eine schwarze Matte, die | |
| vor ihren Füßen auf dem Boden liegt. Wort- und reglos bleibt sie liegen. Um | |
| die Bank ist ein Bereich mit blauem Klebeband auf dem Boden markiert – | |
| ähnlich wie die kleinen Raucher-Inseln auf dem Bahnsteig. | |
| Nur sind diese blauen Rechtecke nicht zum Rauchen, sondern für intelligente | |
| Videoüberwachung reserviert. Hier sollen die Maschinen lernen, bestimmtes | |
| Verhalten von Menschen zu erkennen. Es ist die zweite Phase eines | |
| Modellprojekts zu automatisierter Videoüberwachung der Deutschen Bahn und | |
| der Bundespolizei. | |
| Am Südkreuz, dem Testbahnhof für KI-gestützte Überwachungstechnik, läuft | |
| seit Juni die zweite Testphase des Modellprojekts für die Videoüberwachung | |
| der Zukunft, so wie sie sich Bahn, Innenministerium und Polizei vorstellen. | |
| In der großspurigen [1][Science-Fiction-Ankündigung] hieß es, dass die | |
| Kameras von allein lernen sollen, bestimmte Szenarien zu erkennen. Unter | |
| anderem: liegende Personen, die Hilfe benötigen, einsame Gepäckstücke sowie | |
| schnelle Bewegungen von Personengruppen. Damit rennende Hooligans von einer | |
| [2][zum Zug laufenden Familie] unterscheidbar sind, sollen für die Kameras | |
| bestimmte Szenen mit „Darstellern“ nach einem exakten „Drehbuch“ | |
| dargestellt werden: Ein wütender Hooligan-Mob, ein messerschwingender | |
| Krimineller – eine Alien-Invasion? | |
| So jedenfalls die Theorie. In der Praxis lief schon die erste Phase des | |
| Projekts – automatisierte Gesichtserkennung anhand von biometrischen Daten | |
| – sehr schlecht. Und auch die zweite Phase scheint holprig zu starten: Denn | |
| außer der liegenden Frau ist nicht viel am Südkreuz zu sehen. Keine Spur | |
| von Szenarien, Darbietungen und Reenactment. Drehbuchautor*innen braucht | |
| hier jedenfalls niemand. | |
| ## Schatten oder Mensch? | |
| Dass es mit den Tests noch nicht so gut läuft, kann man wohl an der | |
| schwarzen Matte erkennen, auf der die Frau liegt. Denn offenbar ist es für | |
| die Maschinen gar nicht so leicht, liegende Personen zu erkennen, wenn sie | |
| sich auf den nackten Boden legen. Die Matte soll wohl dabei helfen, ein | |
| klares Bild zu bekommen – der Schatten fällt dann nicht so auf und die | |
| Kamera muss mit weniger Kontrasten klarkommen. | |
| Tatsächlich bestätigte die Bahn der taz, dass die Tests noch nicht ganz | |
| nach Plan verlaufen. Viel zu sehen sei vor Ort noch nicht, hieß es auf | |
| Nachfrage. Situationen nach einem exakten Drehbuch herzustellen, davon sei | |
| man noch weit weg, sagte ein Sprecher der Bahn. Die Software sei noch nicht | |
| vollständig einsatzbereit. Und das, obwohl die Tests bereits seit Juni | |
| laufen sollten. Ursprünglich waren die ersten Versuche sogar für den | |
| Jahresbeginn geplant. Drei verschiedene Anbieter – IBM, Hitachi und | |
| Funkwerk – sollen ihre Software testen, seien aber noch dabei, ihre Technik | |
| einzurichten. | |
| Die Kameras hätten allein schon damit Probleme, den Schatten einer Person | |
| von einem echten Menschen zu unterscheiden, heißt es. Ein Problem, das am | |
| Bahnhof Südkreuz kein kleines sein dürfte, weil dort bei gutem Wetter die | |
| Sonne durch ein Glasdach fällt. Ein lang werdender Schatten wirke dabei für | |
| die Software schon mal wie eine liegende Person, so der Sprecher. Und bevor | |
| man mit drehbuchartigen Szenen beginnen könne, müsse man wohl erst mal das | |
| mit den Schatten justieren. Also erst mal kein simulierter Alien-Angriff. | |
| Ob sich der offiziell bis Dezember laufende Test am Südkreuz verlängere, | |
| könne man noch nicht abschätzen. Panik habe man aber keineswegs: Es gebe | |
| eine gewisse Anspannung, aber keine Verzweiflung, so der Sprecher. Man | |
| liege noch in der Zeit. Aber vor Anfang August sei noch nichts zu sehen von | |
| Tests mit weiteren Probanden. Nicht mal die Bahn selbst habe bislang die | |
| Technik einsehen können. | |
| ## Unwissenschaftliches Debakel | |
| Schon die erste Testphase des Modellprojekts Intelligente Videoüberwachung | |
| [3][am Südkreuz] lief nicht sonderlich gut. Zu unausgereift und ungenau ist | |
| die automatisierte biometrische Gesichtserkennung, wie das einjährige | |
| Modellprojekt ergab, das bis August 2018 lief. | |
| Der [4][Abschlussbericht] versucht das zwar hinter allerhand Floskeln zu | |
| kaschieren und lieferte ein schön gefärbtes Fazit („wertvolle | |
| Unterstüzungsinstrumente für die polizeiliche Fahndung“). Doch kritisierten | |
| Datenschützer*innen die Ergebnisse mit klaren Worten: „Unwissenschaftlich“ | |
| sei der Abschlussbericht, die Testergebnisse seien ein „Debakel“ und | |
| deutlich geschönt worden. Die [5][Stellungnahme des Chaos Computer Clubs | |
| (CCC)] ist vernichtend. Nicht einmal technisch einsatzfähig seien solche | |
| Systeme – von ethischen Vorbehalten einer dauerhaften biometrischen | |
| Personenerfassung im öffentlichen Raum ganz zu schweigen, für die zudem | |
| jegliche Rechtsgrundlage fehle, wie [6][Kritiker anmerkten]. | |
| Auch Berlins Datenschutzbeauftragte Maja Smoltczyk kritisierte in ihrem | |
| Jahresbericht 2018 überdeutlich: Der Trefferquote „stand eine sehr hohe | |
| Falscherkennungsrate, also eine große Zahl ausgelöster Fehlalarme, | |
| gegenüber.“ Während des Projektes seien insgesamt 80.000 bis 100.000 | |
| Personen zu Unrecht erfasst worden, schimpft [7][ihr Bericht regelrecht auf | |
| Seite 75]. In einem Ernstfall hätte die Kamera also schnell mal ein paar | |
| 10.000 Personen als vermeintliche Terroristen eingestuft. Eine hohe | |
| Fehlerquote berge wiederum das Risiko, „dass ein korrekter Treffer nicht | |
| als solcher erkannt würde, weil ständig viel zu viele Falschmeldungen von | |
| Hand aussortiert werden müssten“, resümierte die Datenschützerin. | |
| Immerhin verzichten Bahn und Bundespolizei bei dieser zweiten Testphase auf | |
| biometrische Erkennungsmerkmale. Das ginge nicht nur anhand biometrischer | |
| Daten für Gesichter, sondern auch etwa anhand des individuellen Gangs einer | |
| Person. Smoltczyk hatte zuvor gefordert, darauf zu verzichten: „Bei einem | |
| Verlust der Daten können Betroffene ein Leben lang Opfer von | |
| Identitätsdiebstahl und Folgekriminalität werden. Die Erhebung | |
| biometrischer Daten ist daher immer mit einem sehr tiefen Eingriff in die | |
| Privatsphäre und einem erheblichen Risiko verbunden.“ | |
| 23 Jul 2019 | |
| ## LINKS | |
| [1] https://www.bundespolizei.de/Web/DE/04Aktuelles/01Meldungen/2019/06/190607_… | |
| [2] /Polizei-fixiert-Unschuldige-in-Koeln/!5598162/ | |
| [3] /Gesichtserkennung-an-Berliner-Bahnhof/!5436197/ | |
| [4] https://www.bundespolizei.de/Web/DE/04Aktuelles/01Meldungen/2018/10/181011_… | |
| [5] https://www.ccc.de/de/updates/2018/debakel-am-suedkreuz | |
| [6] https://netzpolitik.org/2018/ueberwachungstest-am-suedkreuz-geschoente-erge… | |
| [7] https://www.datenschutz-berlin.de/fileadmin/user_upload/pdf/publikationen/j… | |
| ## AUTOREN | |
| Gareth Joswig | |
| ## TAGS | |
| Bahnhof | |
| Polizei | |
| Schwerpunkt Überwachung | |
| Deutsche Bahn | |
| Videoüberwachung | |
| Gewerkschaft der Polizei (GdP) | |
| Schwerpunkt Polizeikontrollen in Hamburg | |
| Gesichtserkennung | |
| Kameras | |
| Biometrie | |
| Schwerpunkt Überwachung | |
| Datenschutzbeauftragte | |
| Schwerpunkt Polizeikontrollen in Hamburg | |
| Datenschutz | |
| ## ARTIKEL ZUM THEMA | |
| Gesichterkennung zur Terrorabwehr: Der Mensch erkennt am besten | |
| Die Gewerkschaft der Polizei fordert Videoüberwachung mit Software zur | |
| Gesichtserkennung auf Weihnachtsmärkten. Chaos Computer Club hat | |
| Vorbehalte. | |
| Überwachung von Drogenszene: Hamburgs Polizei setzt auf KI | |
| Künstliche Intelligenz soll im Bahnhofsviertel künftig verdächtige | |
| Bewegungen erkennen und Alarm auslösen. Der Datenschutzbeauftragte weiß von | |
| nichts. | |
| Berlins Zoo plant Gesichtserkennung: „Das geht gar nicht“ | |
| Die Pläne des Zoos, biometrische Daten der Besucher zur Gesichtserkennung | |
| zu nutzen, werden von der Koalition klar abgelehnt. | |
| Videoüberwachung in Berlin: Die Normalität des Spionierens | |
| Im Nahverkehr und vor Behörden ist Videoüberwachung inzwischen Standard. | |
| Wie viele Kameras tatsächlich in Berlin hängen, kann man nur schätzen. | |
| Koreanische Sicherheitsfirma mit Leck: Passwort „abcd1234“ | |
| Biometrische Daten von Millionen Nutzern waren offen im Netz zugänglich. | |
| Israelische Sicherheitsforscher haben sie entdeckt. | |
| Dokumentarfilm über Gesichtserkennung: Überwachung am Südkreuz | |
| Gerd Conradts Dokumentarfilm „Face_It!“ umkreist die digitale | |
| Gesichtserkennung. Doch er hat inhaltliche Mängel und selbstreferenzielle | |
| Spielereien. | |
| Datenschützer über Drohbriefe an Linke: „Der Fall ist noch nicht erledigt“ | |
| Ende 2017 wurden aus der Polizei Drohbriefe an Autonome verschickt, ein | |
| Polizist wurde verurteilt. Für die Berliner Datenschutzbeauftragte ist das | |
| nicht genug. | |
| Datenschützer über Gesichtserkennung: „Einstieg in die absolute Kontrolle“ | |
| Hamburgs Polizei soll ihre Gesichtserkennungs-Datenbank löschen. Das hat | |
| der Datenschutzbeauftragte Johannes Caspar am Dienstag angeordnet. | |
| Test der Gesichtserkennung in Berlin: Polizei mit Überwachung zufrieden | |
| Die Bundespolizei hat in Berlin ein Pilotprojekt zur biometrischen | |
| Gesichtserkennung getestet. Datenschützer kritisieren die Verletzung von | |
| Persönlichkeitsrechten. |