Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Gesichtserkennung in England: Überall digitale Augen
> Seit 2016 testet die Londoner Polizei automatische Gesichtserkennung.
> Gegen die staatliche Überwachung regt sich nun Widerstand.
Bild: Großbritannien verfügt über eines der dichtesten Kameranetze in der we…
Als ich in der Mittagspause aus meinem Büro ging, um mir schnell was zum
Essen zu besorgen, fiel mir dieser Kleintransporter auf dem
gegenüberliegenden Parkplatz auf.“ So schildert Ed Bridges, Mitarbeiter
Öffentlichkeitsarbeit der Universität Cardiff, seine erste Begegnung mit
dem Fahrzeug, auf dem „Automatische Gesichtserkennung“ stand. Bridges
erinnert sich an seine Verwunderung, weiter darüber nachgedacht hat er
damals, vor zwei Jahren in der walisischen Hauptstadt, aber nicht.
Ein Jahr später allerdings begegnete Bridges dem Fahrzeug erneut, bei einem
friedlichen Protest gegen eine Waffenmesse. „Ich begann mir und der Polizei
Fragen zu stellen, nämlich mit welchem Recht sie dieses System der
Gesichtserkennung überhaupt einsetzen würden.“ Aus der Frage wurde eine
Kampagne und schließlich ein Gerichtsverfahren. Bridges, der auch einmal
für die Liberaldemokraten in Cardiffs Stadtrat gesessen hat, wird dabei von
der Bürgerrechtsorganisation Liberty unterstützt, die Kosten des Verfahrens
werden über ein Crowdfunding getragen. „Ich bin nun mal einer jener
Menschen, die sich ganz klar gegen so etwas aussprechen, auch ohne dass ich
anfangs sonderlich viel Detailwissen dazu hatte.“
Ende Mai kam es zu einer ersten gerichtlichen Anhörung in Cardiff, die den
polizeilichen Einsatz automatischer Gesichtserkennung prüfen sollte und der
Frage nachging, ob Bridges’ Bürgerrechte und die anderer Menschen verletzt
wurden. Ein Ergebnis wird frühestens für Ende September 2019 erwartet. Ein
ähnlich gelagertes Verfahren der Bürgerrechtsorganisation Big Brother Watch
läuft zeitgleich in London. Seit 2016 wird die automatische
Gesichtserkennung von fünf britischen Polizeibehörden getestet, darunter
die Londoner Metropolitan Police und die South Wales Police.
Die Technik, Neoface Watch, kommt von der japanischen Firma NEC, kann 300
Gesichter pro Sekunde scannen und innerhalb von Millisekunden mit 23
Millionen Bildern in der angeschlossenen Datenbank abgleichen. Das
britische Innenministerium fördert den Test der South Wales Police mit 2
Millionen Pfund (2,25 Millionen Euro).
## Dauerhafte Echtzeitüberwachung
Bei einer weiteren Praxisstudie wurden im englischen Manchester innerhalb
von sechs Monaten laut Big Brother Watch 15 Millionen Gesichter von
Besucher*innen eines Einkaufszentrums gescannt. Unter ihnen befanden sich
53 gesuchte Personen, die eindeutig identifiziert worden seien. Ob diese
Personen wegen begangener Straftaten gesucht wurden, ist allerdings unklar.
Der Test wurde erst nach der Intervention eines Kontrollgremiums für
Überwachungskameras, dem Surveillance Camera Commissioner, abgebrochen. Das
Gremium ist zwar eine staatliche Stelle, die jedoch nur eine beratende
Funktion, ohne rechtlich bindende Entscheidungskompetenz hat.
Die Kritik von Bürgerrechtsorganisationen, parlamentarischen Ausschüssen
und Gremien an den Versuchen bezieht sich nicht zuletzt auf die Speicherung
der Daten und die unfreiwilligen Scans der Gesichter von Normalbürger*innen
in ihrem Alltagsleben. „Es handelt sich ganz klar um
Menschenrechtsverletzungen, wenn diese Art von Überwachung bei friedlichen
Protesten eingesetzt wird, wenn Menschen mit mentalen Störungen
identifiziert, wenn Fußballspiele oder der zweitägige Londoner
Notting-Hill-Karneval überwacht werden.
„Da gab es zum Beispiel 30 falsche Identifizierungen und eine einzige
richtige“, weiß Griff Ferris von Big Brother Watch. Bei einer „richtigen“
Erkennung handelt es sich lediglich um eine eindeutige Identifizierung
einer Person. Hinzu kommt eine hohe Fehlerquote, besonders [1][bei Frauen
und ethnischen Minderheiten] – der Anteil an entsprechenden
Vergleichsprofilen ist im System einfach zu niedrig.
Der Londoner Ausschuss für Polizeiethik hat in einem aktuellen Bericht
nicht zufällig ein Gedankenexperiment aufgenommen zur Echtzeitüberwachung
durch ein flächendeckendes Kamerasystem. Schon jetzt verfügt Großbritannien
über eines der dichtesten Kameranetze in der westlichen Welt. Griff Ferris
glaubt, dass das am Mangel an Erfahrungen mit totalitären Regimen liegen
könnte. Angefangen mit der filmischen Überwachung hat es in Großbritannien
bereits in den 1950er Jahren, zuerst zum Schutz bei Besuchen der
königlichen Familie, bei Fußballspielen und auf Bahnhöfen.
## Einschränkung demokratischer Freiheiten
Das Netz der Überwachungskameras wurde danach immer weiter ausgebaut, nicht
zuletzt wegen des Nordirlandkonflikts. Schon Anfang der 1990er Jahre,
während der letzten Welle des IRA-Terrorismus, waren allein in der
Hauptstadt genug Überwachungskameras installiert, dass Menschen kaum einen
Schritt in der Innenstadt tun konnten, ohne dabei gefilmt zu werden.
Eine Schätzung aus dem Jahr 2011 ging von mehr als 1,8 Millionen Kameras in
ganz Großbritannien aus. Die übergroße Mehrheit davon wird jedoch nicht von
Behörden, sondern von Unternehmen und Privatpersonen betrieben. Durch die
permanente Präsenz dieser Überwachung lässt sich über die Jahre ein
gewisser Gewöhnungseffekt in der Bevölkerung vermuten. Die aktuellen Tests
mit der Gesichtserkennung laufen bislang ohne gesetzliche Grundlage.
Ed Bridges glaubt, dass seine Klage wegen der Versuche in Cardiff von den
Sicherheitsbehörden in gewisser Weise begrüßt würde, könnte eine
Entscheidung dort doch mehr Rechtssicherheit in der Anwendung schaffen. In
einem anderen Fall in London erhielt ein Mann einen Bußgeldbescheid über 90
Pfund (knapp 100 Euro), weil er sich dem Scanner durch die Vermummung
seines Gesichts verweigerte und die Beamten beschimpfte, die ihn darauf
angesprochen hatten. Laut Metropolitan Police sei das aber der einzige
derartige Vorfall gewesen.
Für Griff Ferris und Big Brother Watch geht es bei diesen Vorkommnissen vor
allem ums Prinzip. Selbst wenn das System automatischer Gesichtserkennung
einmal weniger fehleranfällig sei, also tatsächlich praktisch
hundertprozentig funktioniere und korrekte Treffer lande, ändere das seiner
Meinung nach nichts an den von [2][unterschiedlichsten Interessengruppen
geäußerten Kritikpunkten.]
## Gefährdung der Privatsphäre
In San Francisco wurde die Technologie bereits von lokalen Behörden
verboten, der britische Verband der Fußballfans spricht sich ebenfalls
gegen sie aus. Selbst Google und Microsoft diskutieren das repressive
Potenzial und die Einschränkung demokratischer Freiheiten durch
Gesichtserkennung. Wäre das System aber eine Hilfe bei der Vorbeugung von
Terroranschlägen? „Nein“, glaubt Ferris, denn würde ein Terrorist in einer
Menschenmenge identifiziert, sei es aller Wahrscheinlichkeit nach schon
viel zu spät.
Vorschläge für einen kontrollierten Einsatz gibt es derweil einige. Londons
Ausschuss für Polizeiethik, ein Gremium aus größtenteils akademischen
Experten, hat im Mai fünf Bedingungen für den Gebrauch der Technologie
vorgeschlagen. Tatsächliche Notwendigkeit und Verhältnismäßigkeit des
Einsatzes müssten geprüft werden; auch seien Mechanismen zur Vermeidung von
Diskriminierungen nötig.
Der Surveillance Camera Commissioner, dass parlamentarische
Kontrollgremium, spricht sogar von 16 Voraussetzungen, die vor einem
Einsatz erfüllt und zwingend immer wieder geprüft werden müssten. Das
Hauptaugenmerk soll dabei auf der möglichen Gefährdung der Privatsphäre
liegen. Zudem habe die Technologie der Gesichtserkennung das Potenzial,
„das Versammlungsrecht, das Recht auf Meinungsfreiheit und andere
fundamentale Bürgerrechte zu verletzten.“
In einem Bericht der parlamentarischen Arbeitsgruppe für biometrische und
forensische Ethik wurde im Februar 2019 darüber hinaus betont, dass wegen
der potenziellen Gefahren für Bürger- und Menschenrechte „die Technologie
nur dann benutzt werden soll, wenn andere, weniger zudringliche Techniken
nicht einsetzbar sind“.
Doch selbst wenn Ed Bridges sein Verfahren gewinnen sollte oder [3][neue
gesetzliche Regelungen den Einsatz der Gesichtserkennung] in Großbritannien
verbieten oder nur unter eingeschränkten Bedingungen gestatten, sieht Griff
Ferris die Debatte in einem globalen Kontext. Ihre bürgerrechtliche
Dimension sei den westlichen Demokratien eigen. Staaten wie China würden
den Gebrauch derartiger Technologien sicherlich ohnehin weiter ausbauen –
was aber eben gerade nicht bedeute, „dass die Diskussion hier bei uns
verfehlt sei“.
29 Jun 2019
## LINKS
[1] /Gesichtserkennung-in-der-Kritik/!5547535
[2] /Gesichtserkennung-im-oeffentlichen-Raum/!5540406
[3] /Kommentar-Politik-und-Digitales/!5597167
## AUTOREN
Daniel Zylbersztajn
## TAGS
Schwerpunkt Überwachung
Kameras
Videoüberwachung
England
Gesichtserkennung
Biometrie
Schwerpunkt Überwachung
Datenschutz
Schwerpunkt Überwachung
Polizei Bremen
künstliche Intelligenz
## ARTIKEL ZUM THEMA
Koreanische Sicherheitsfirma mit Leck: Passwort „abcd1234“
Biometrische Daten von Millionen Nutzern waren offen im Netz zugänglich.
Israelische Sicherheitsforscher haben sie entdeckt.
Dokumentarfilm über Gesichtserkennung: Überwachung am Südkreuz
Gerd Conradts Dokumentarfilm „Face_It!“ umkreist die digitale
Gesichtserkennung. Doch er hat inhaltliche Mängel und selbstreferenzielle
Spielereien.
Datenabfrage per Mausklick: Amazon für Ermittlungsbehörden
Die EU-Kommission möchte es den Sicherheitsbehörden leicht machen, auf
Cloud-Daten zuzugreifen. KritikerInnen fürchten um den Rechtsstaat.
Neues Polizeigesetz in Meck-Pomm: Mehr digitale Überwachung
Der Innenminister von Mecklenburg-Vorpommern pocht auf ein neues
Polizeigesetz. Kritiker*innen sehen die Grundrechte in Gefahr.
Neue Kameras am Bremer Hauptbahnhof: Überwachung – aber rechtssicher
Die Polizei hat am Bremer Hauptbahnhof 52 Kameras installiert. An
Gesichtserkennung sei man aber nicht interessiert.
Gesichtserkennung in der Kritik: Diskriminierende Algorithmen
KI-Programme erobern immer mehr Bereiche unseres Lebens. In der Regel
wissen wir nicht, nach welchen Kriterien sie Entscheidungen treffen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.