Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz im Krieg: Im Angesicht des Todes
> Das ukrainische Militär setzt Gesichtserkennung ein, um tote russische
> Soldaten zu identifizieren. Die Technik wirft seit einiger Zeit Fragen
> auf.
Bild: Die Software der Firma Clearview AI soll helfen, Leichen russischer Solda…
Auf den Schlachtfeldern der Ukraine liegen unzählige tote Soldaten:
russische, ukrainische, Söldner. Viele dieser jungen russischen Männer
wussten oder wissen nicht, in welchen mörderischen und verbrecherischen
Krieg sie ihr Präsident geschickt hat, einige glauben, sie führen [1][ein
Militärmanöver] durch. Und auch zu Hause sollen die Eltern nicht erfahren,
dass ihr Sohn im Krieg gefallen ist.
Die ukrainische Regierung will nun Gesichtserkennung einsetzen, um die
Leichen russischer Soldaten zu identifizieren und Familienangehörige zu
informieren. Wie die Nachrichtenagentur Reuters berichtet, greift das
Verteidigungsministerium dabei auf die Software [2][der Firma Clearview AI
zurück]. Mit dem System, das von Tausenden US-Regierungsbehörden eingesetzt
und [3][der Ukraine nun kostenlos] zur Verfügung gestellt wird, lassen sich
automatisiert Gesichter mit Fotos von Social-Media-Profilen abgleichen.
Ob die Technik nur zur Identifizierung von Leichen oder auch zur Enttarnung
russischer Spione genutzt wird, ist unklar. Die Meldung ist jedenfalls
brisant: Die Überwachungsfirma hat [4][nach eigenen Angaben] eine
biometrische Datenbank von zehn Milliarden Fotos aufgebaut, die sie aus
öffentlich zugänglichen Plattformen wie Facebook, Instagram und Twitter
abgesaugt hat. Zum Vergleich: [5][Das FBI] hat in seiner Datenbank rund 640
Millionen Fotos aus Gesichtserkennungssystemen. Pikant: Ein nicht
unbeträchtlicher Teil der Datengrundlage, nämlich zwei Milliarden Fotos,
speist sich aus dem russischen Onlinedienst VKontakte.
Datenschützer laufen seit Jahren Sturm gegen die Gesichtersuchmaschine –
nicht zuletzt, weil die Software zum Missbrauch einlädt: Polizisten können
anlasslos Daten abfragen und damit Personen stalken. In zahlreichen Ländern
gibt es juristische Verfahren. So hat beispielsweise Kanadas oberster
Datenschützer Clearview AI [6][als illegale Massenüberwachun]g eingestuft,
[7][die französische Datenschutzbehörde CNIL] hat die Firma unter Verweis
auf eine Verletzung der europäischen Datenschutzgrundverordnung (DSGVO)
aufgefordert, die Daten zu löschen, die britische und italienische
Datenschutzbehörde haben [8][Millionenstrafen verhängt.] Vor diesem
Hintergrund ist der Einsatz der Software in der Ukraine rechtlich
fragwürdig. Ist eine dubiose Datenfirma ein geeigneter Verbündeter? Klar,
es ist Krieg, es herrscht Ausnahmezustand. Aber rechtfertigt dies Abstriche
beim Datenschutz? Vorwiegend handelt es sich ja um Tote, deren Fotos durch
den Computeralgorithmus von Clearview AI gejagt werden.
## Postmortaler Persönlichkeitsschutz
Zwar erlischt der Datenschutz grundsätzlich nach dem Tod einer Person, doch
Rechtswissenschaftler diskutieren, ob einem Verstorbenen auch ein
„postmortaler Persönlichkeitsschutz“ zukommt. Das Argument: Die
Menschenwürde, aus der Daten- und Persönlichkeitsschutz abgeleitet sind,
gelte über den Tod hinaus.
Natürlich steht da auch das berechtigte Interesse der Hinterbliebenen, die
ein Recht darauf haben, die Wahrheit über diesen furchtbaren Krieg und
seine Opfer zu erfahren. Doch die Frage ist, ob man eine Technologie
einsetzen darf, die in autoritären Regimen wie Russland und China zur
Aufspürung sogenannter Dissidenten genutzt wird. Jedes Werkzeug ist
ambivalent: Man kann mit einem Hammer Häuser bauen und Schädel zertrümmern.
Und ja: Mit Gesichtserkennungstechnik lassen sich auch Kriegsverbrecher
entlarven und später zur Rechenschaft ziehen. Man braucht dafür keine
Geheimdienstexpertise- oder Instrumente: Die Tools stehen zum Teil zum
freien Download im Internet zur Verfügung.
Überwachungs- wie etwa Tracking-Technologien, mit denen einst nur Militärs
operierten, sind heute in den täglichen Konsum eingebettet. Man trackt auf
dem Handy nicht nur seine Schritte und Routen und Kontakte, sondern
verfolgt mithilfe von Flugradar-Apps auch das Reiseverhalten russischer
Oligarchen. Auch Mobilfunktelefone und das Internet sind genuine
Militärtechnologien; die ersten Gesichtserkennungsprogramme wurden in den
1960er von der CIA entwickelt.
Der Philosoph Michel Foucault hat mal von einem „Bumerang-Effekt“
gesprochen: Techniken wie Fingerabdruckverfahren, mit denen im 19.
Jahrhundert Menschen in (britischen) Kolonien registriert wurden, kehren in
den Westen zurück – allerdings, und hier muss man Foucault weiterdenken,
nicht nur in repressiver Form wie etwa an US-Flughäfen, wo sich Einreisende
einem Gesichtsscan unterziehen und Fingerabdrücke abgeben müssen, sondern
auch in überwachungskapitalistischer Form: Heute ist es „normal“, sein
iPhone per FaceID zu entsperren. Allein, das Rastern biometrischer Merkmale
lässt sich ja auch nicht durch schicke Apps und Gadgets kaschieren. Umso
wichtiger ist die Frage, wie Gesichtserkennung reguliert werden kann.
## Informationen sind immer sozial
[9][San Francisco] hat den Einsatz der Technologie 2019 wegen
datenschutzrechtlicher Bedenken verboten, in Deutschland ist
Gesichtserkennung wie etwa am Berliner Bahnhof Südkreuz weiterhin die
Ausnahme. Beim Thema Datenschutz geht es aber nicht, wie der Begriff
fälschlicherweise suggeriert, um den Schutz von Daten, sondern von
Menschen. Und weil Menschen in sozialen Beziehungsnetzen leben, offenbaren
Informationen über einen selbst auch solche über seine Freunde und Familie.
Das US-amerikanische [10][Technik-Magazin Wired] hat in einer Demoversion
des russischen Dienstes FindClone mit einem Foto nach einem Mann gesucht,
bei dem es sich nach Angaben von ukrainischen Offiziellen um einen
russischen Kriegsgefangenen handelte. Es dauerte keine fünf Minuten, bis
der Algorithmus einen Treffer ausspuckte: ein Profil im sozialen Netzwerk
VKontakte. Name, Geburtsdatum, Familienfotos, alles einsehbar. Wenn nun
publik wird, dass man die Schwester oder den Bruder eines russischen
Soldaten oder gar eines gesuchten Kriegsverbrechers ist, wird man schnell
zum Hassobjekt im Netz.
Das heißt nicht, dass Datenschutz Täterschutz bedeutet, wie es gern so oft
behauptet wird, sondern, dass die Integrität personenbezogener Daten
relational ist. Anders gewendet: Informationen sind immer sozial. Wer den
Täter enttarnt, muss auch sein soziales Umfeld offenbaren. Und hinzu kommt,
dass die Fehlerrate der Gesichtserkennung erfahrungsgemäß sehr hoch ist. So
haben automatisierte Systeme nach wie vor Probleme, [11][Gesichter von
Schwarzen Menschen] zu erkennen. Ob die Computerprogramme die Gesichter
entstellter Soldaten identifizieren können, ist also nicht nur eine
technische, sondern vor allem auch eine ethische Frage.
## Der Krieg schert sich nicht um Menschenwürde
Der US-amerikanische Philosoph und Kulturtheoretiker Michael Betancourt
schreibt in seinem Essayband „Kritik des digitalen Kapitalismus“, dass der
Aufbau digitaler Kontrollsysteme und Datenbanken zu einer „systemischen
Krise für die kapitalistische Wertproduktion“ führe: „Der Einsatz von
Überwachung ist – unabhängig von irgendeinem besonderen Zweck – mit der
wesensmäßigen Instabilität des digitalen Kapitalismus verbunden.“ Die
Überwachungssysteme liefern jede Menge Daten, die jedoch selbst
Ungewissheit bzw. Unwissen produzieren, sodass neue Daten gewonnen werden
müssen. Ein absoluter Teufelskreis. Die Überwachungsmaschinerie folgt damit
derselben expansiven Logik wie der Kapitalismus.
Wenn Clearview AI der Ukraine nun also kostenlosen Zugang zu seiner
Gesichtserkennungssoftware gewährt, dehnt sich der Überwachungskapitalismus
auch auf das Schlachtfeld aus und es gibt eine direkte Rückkopplung
zwischen militärischer und ziviler Nutzung. Millionen Menschen, die gar
nicht wissen, dass ihr Konterfei in einer riesigen biometrischen Datenbank
gelandet ist und der Nutzung wahrscheinlich auch gar nicht zugestimmt
haben, müssen nun also ihren Kopf hinhalten, um tote Soldaten zu
identifizieren.
Man kann das mit Recht für pietätlos und abstoßend halten. Doch der Krieg
ist am Ende auch eine Stätte der Datenproduktion – und schert sich um die
Würde der Menschen herzlich wenig.
3 Apr 2022
## LINKS
[1] https://www.atlanticcouncil.org/blogs/new-atlanticist/whats-behind-russias-…
[2] https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-reco…
[3] https://www.reuters.com/technology/exclusive-ukraine-has-started-using-clea…
[4] https://www.wired.com/story/clearview-ai-new-tools-identify-you-photos/
[5] https://www.aclu.org/blog/privacy-technology/surveillance-technologies/fbi-…
[6] https://netzpolitik.org/2022/biometrie-clearview-ai-zieht-gegen-kanadische-…
[7] https://www.theverge.com/2021/12/16/22840179/france-cnil-clearview-ai-facia…
[8] https://mixed.de/clearview-ai-italien-verhaengt-millionenstrafe/
[9] https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.…
[10] https://www.wired.com/story/facial-recognition-identify-russian-soldiers/
[11] /Dekolonialisierung-von-Algorithmen/!5706540
## AUTOREN
Adrian Lobe
## TAGS
Datenschutz
Schwerpunkt Krieg in der Ukraine
Menschenwürde
GNS
Schwerpunkt Künstliche Intelligenz
Gesichtserkennung
Schwerpunkt Überwachung
Schwerpunkt Krieg in der Ukraine
Schwerpunkt Krieg in der Ukraine
Schwerpunkt Krieg in der Ukraine
Deepfake
## ARTIKEL ZUM THEMA
Überwachungskameras in Gefängnissen: Lückenlose Auswertung
Niedersachsens Landtag erlaubt Künstliche Intelligenz zur Auswertung von
Überwachungsvideos in Gefängnissen. Dabei bleiben Fragen offen.
Mutmaßliche Kriegsverbrechen: Was tun. Irgendwas
Die EU und Berlin versuchen, angemessen auf die Bilder aus der Ukraine zu
reagieren. Ein Stopp für Energieimporte aus Russland ist umstritten.
Türkische Diplomatie im Ukrainekrieg: Vom Paria zum Staatsvermittler
Bis vor Kurzem war der türkische Präsident Erdoğan noch international
isoliert. Nun könnte er eine Schlüsselrolle bei einem Friedensschluss
spielen.
Inszenierung des Kriegs auf Tiktok: Moonwalk auf dem Schlachtfeld
Manche nennen den Krieg in der Ukraine schon den ersten „Tiktok-Krieg“: Was
bedeutet das für unsere Wahrnehmung des Konflikts?
Künstliche Intelligenz und Ethik: Stimmen aus dem Jenseits
Mit künstlicher Intelligenz klonen Filmstudios Stimmen verstorbener
Menschen. Das wirft dringende ethische und gesellschaftspolitische Fragen
auf.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.