| # taz.de -- Künstliche Intelligenz im Krieg: Im Angesicht des Todes | |
| > Das ukrainische Militär setzt Gesichtserkennung ein, um tote russische | |
| > Soldaten zu identifizieren. Die Technik wirft seit einiger Zeit Fragen | |
| > auf. | |
| Bild: Die Software der Firma Clearview AI soll helfen, Leichen russischer Solda… | |
| Auf den Schlachtfeldern der Ukraine liegen unzählige tote Soldaten: | |
| russische, ukrainische, Söldner. Viele dieser jungen russischen Männer | |
| wussten oder wissen nicht, in welchen mörderischen und verbrecherischen | |
| Krieg sie ihr Präsident geschickt hat, einige glauben, sie führen [1][ein | |
| Militärmanöver] durch. Und auch zu Hause sollen die Eltern nicht erfahren, | |
| dass ihr Sohn im Krieg gefallen ist. | |
| Die ukrainische Regierung will nun Gesichtserkennung einsetzen, um die | |
| Leichen russischer Soldaten zu identifizieren und Familienangehörige zu | |
| informieren. Wie die Nachrichtenagentur Reuters berichtet, greift das | |
| Verteidigungsministerium dabei auf die Software [2][der Firma Clearview AI | |
| zurück]. Mit dem System, das von Tausenden US-Regierungsbehörden eingesetzt | |
| und [3][der Ukraine nun kostenlos] zur Verfügung gestellt wird, lassen sich | |
| automatisiert Gesichter mit Fotos von Social-Media-Profilen abgleichen. | |
| Ob die Technik nur zur Identifizierung von Leichen oder auch zur Enttarnung | |
| russischer Spione genutzt wird, ist unklar. Die Meldung ist jedenfalls | |
| brisant: Die Überwachungsfirma hat [4][nach eigenen Angaben] eine | |
| biometrische Datenbank von zehn Milliarden Fotos aufgebaut, die sie aus | |
| öffentlich zugänglichen Plattformen wie Facebook, Instagram und Twitter | |
| abgesaugt hat. Zum Vergleich: [5][Das FBI] hat in seiner Datenbank rund 640 | |
| Millionen Fotos aus Gesichtserkennungssystemen. Pikant: Ein nicht | |
| unbeträchtlicher Teil der Datengrundlage, nämlich zwei Milliarden Fotos, | |
| speist sich aus dem russischen Onlinedienst VKontakte. | |
| Datenschützer laufen seit Jahren Sturm gegen die Gesichtersuchmaschine – | |
| nicht zuletzt, weil die Software zum Missbrauch einlädt: Polizisten können | |
| anlasslos Daten abfragen und damit Personen stalken. In zahlreichen Ländern | |
| gibt es juristische Verfahren. So hat beispielsweise Kanadas oberster | |
| Datenschützer Clearview AI [6][als illegale Massenüberwachun]g eingestuft, | |
| [7][die französische Datenschutzbehörde CNIL] hat die Firma unter Verweis | |
| auf eine Verletzung der europäischen Datenschutzgrundverordnung (DSGVO) | |
| aufgefordert, die Daten zu löschen, die britische und italienische | |
| Datenschutzbehörde haben [8][Millionenstrafen verhängt.] Vor diesem | |
| Hintergrund ist der Einsatz der Software in der Ukraine rechtlich | |
| fragwürdig. Ist eine dubiose Datenfirma ein geeigneter Verbündeter? Klar, | |
| es ist Krieg, es herrscht Ausnahmezustand. Aber rechtfertigt dies Abstriche | |
| beim Datenschutz? Vorwiegend handelt es sich ja um Tote, deren Fotos durch | |
| den Computeralgorithmus von Clearview AI gejagt werden. | |
| ## Postmortaler Persönlichkeitsschutz | |
| Zwar erlischt der Datenschutz grundsätzlich nach dem Tod einer Person, doch | |
| Rechtswissenschaftler diskutieren, ob einem Verstorbenen auch ein | |
| „postmortaler Persönlichkeitsschutz“ zukommt. Das Argument: Die | |
| Menschenwürde, aus der Daten- und Persönlichkeitsschutz abgeleitet sind, | |
| gelte über den Tod hinaus. | |
| Natürlich steht da auch das berechtigte Interesse der Hinterbliebenen, die | |
| ein Recht darauf haben, die Wahrheit über diesen furchtbaren Krieg und | |
| seine Opfer zu erfahren. Doch die Frage ist, ob man eine Technologie | |
| einsetzen darf, die in autoritären Regimen wie Russland und China zur | |
| Aufspürung sogenannter Dissidenten genutzt wird. Jedes Werkzeug ist | |
| ambivalent: Man kann mit einem Hammer Häuser bauen und Schädel zertrümmern. | |
| Und ja: Mit Gesichtserkennungstechnik lassen sich auch Kriegsverbrecher | |
| entlarven und später zur Rechenschaft ziehen. Man braucht dafür keine | |
| Geheimdienstexpertise- oder Instrumente: Die Tools stehen zum Teil zum | |
| freien Download im Internet zur Verfügung. | |
| Überwachungs- wie etwa Tracking-Technologien, mit denen einst nur Militärs | |
| operierten, sind heute in den täglichen Konsum eingebettet. Man trackt auf | |
| dem Handy nicht nur seine Schritte und Routen und Kontakte, sondern | |
| verfolgt mithilfe von Flugradar-Apps auch das Reiseverhalten russischer | |
| Oligarchen. Auch Mobilfunktelefone und das Internet sind genuine | |
| Militärtechnologien; die ersten Gesichtserkennungsprogramme wurden in den | |
| 1960er von der CIA entwickelt. | |
| Der Philosoph Michel Foucault hat mal von einem „Bumerang-Effekt“ | |
| gesprochen: Techniken wie Fingerabdruckverfahren, mit denen im 19. | |
| Jahrhundert Menschen in (britischen) Kolonien registriert wurden, kehren in | |
| den Westen zurück – allerdings, und hier muss man Foucault weiterdenken, | |
| nicht nur in repressiver Form wie etwa an US-Flughäfen, wo sich Einreisende | |
| einem Gesichtsscan unterziehen und Fingerabdrücke abgeben müssen, sondern | |
| auch in überwachungskapitalistischer Form: Heute ist es „normal“, sein | |
| iPhone per FaceID zu entsperren. Allein, das Rastern biometrischer Merkmale | |
| lässt sich ja auch nicht durch schicke Apps und Gadgets kaschieren. Umso | |
| wichtiger ist die Frage, wie Gesichtserkennung reguliert werden kann. | |
| ## Informationen sind immer sozial | |
| [9][San Francisco] hat den Einsatz der Technologie 2019 wegen | |
| datenschutzrechtlicher Bedenken verboten, in Deutschland ist | |
| Gesichtserkennung wie etwa am Berliner Bahnhof Südkreuz weiterhin die | |
| Ausnahme. Beim Thema Datenschutz geht es aber nicht, wie der Begriff | |
| fälschlicherweise suggeriert, um den Schutz von Daten, sondern von | |
| Menschen. Und weil Menschen in sozialen Beziehungsnetzen leben, offenbaren | |
| Informationen über einen selbst auch solche über seine Freunde und Familie. | |
| Das US-amerikanische [10][Technik-Magazin Wired] hat in einer Demoversion | |
| des russischen Dienstes FindClone mit einem Foto nach einem Mann gesucht, | |
| bei dem es sich nach Angaben von ukrainischen Offiziellen um einen | |
| russischen Kriegsgefangenen handelte. Es dauerte keine fünf Minuten, bis | |
| der Algorithmus einen Treffer ausspuckte: ein Profil im sozialen Netzwerk | |
| VKontakte. Name, Geburtsdatum, Familienfotos, alles einsehbar. Wenn nun | |
| publik wird, dass man die Schwester oder den Bruder eines russischen | |
| Soldaten oder gar eines gesuchten Kriegsverbrechers ist, wird man schnell | |
| zum Hassobjekt im Netz. | |
| Das heißt nicht, dass Datenschutz Täterschutz bedeutet, wie es gern so oft | |
| behauptet wird, sondern, dass die Integrität personenbezogener Daten | |
| relational ist. Anders gewendet: Informationen sind immer sozial. Wer den | |
| Täter enttarnt, muss auch sein soziales Umfeld offenbaren. Und hinzu kommt, | |
| dass die Fehlerrate der Gesichtserkennung erfahrungsgemäß sehr hoch ist. So | |
| haben automatisierte Systeme nach wie vor Probleme, [11][Gesichter von | |
| Schwarzen Menschen] zu erkennen. Ob die Computerprogramme die Gesichter | |
| entstellter Soldaten identifizieren können, ist also nicht nur eine | |
| technische, sondern vor allem auch eine ethische Frage. | |
| ## Der Krieg schert sich nicht um Menschenwürde | |
| Der US-amerikanische Philosoph und Kulturtheoretiker Michael Betancourt | |
| schreibt in seinem Essayband „Kritik des digitalen Kapitalismus“, dass der | |
| Aufbau digitaler Kontrollsysteme und Datenbanken zu einer „systemischen | |
| Krise für die kapitalistische Wertproduktion“ führe: „Der Einsatz von | |
| Überwachung ist – unabhängig von irgendeinem besonderen Zweck – mit der | |
| wesensmäßigen Instabilität des digitalen Kapitalismus verbunden.“ Die | |
| Überwachungssysteme liefern jede Menge Daten, die jedoch selbst | |
| Ungewissheit bzw. Unwissen produzieren, sodass neue Daten gewonnen werden | |
| müssen. Ein absoluter Teufelskreis. Die Überwachungsmaschinerie folgt damit | |
| derselben expansiven Logik wie der Kapitalismus. | |
| Wenn Clearview AI der Ukraine nun also kostenlosen Zugang zu seiner | |
| Gesichtserkennungssoftware gewährt, dehnt sich der Überwachungskapitalismus | |
| auch auf das Schlachtfeld aus und es gibt eine direkte Rückkopplung | |
| zwischen militärischer und ziviler Nutzung. Millionen Menschen, die gar | |
| nicht wissen, dass ihr Konterfei in einer riesigen biometrischen Datenbank | |
| gelandet ist und der Nutzung wahrscheinlich auch gar nicht zugestimmt | |
| haben, müssen nun also ihren Kopf hinhalten, um tote Soldaten zu | |
| identifizieren. | |
| Man kann das mit Recht für pietätlos und abstoßend halten. Doch der Krieg | |
| ist am Ende auch eine Stätte der Datenproduktion – und schert sich um die | |
| Würde der Menschen herzlich wenig. | |
| 3 Apr 2022 | |
| ## LINKS | |
| [1] https://www.atlanticcouncil.org/blogs/new-atlanticist/whats-behind-russias-… | |
| [2] https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-reco… | |
| [3] https://www.reuters.com/technology/exclusive-ukraine-has-started-using-clea… | |
| [4] https://www.wired.com/story/clearview-ai-new-tools-identify-you-photos/ | |
| [5] https://www.aclu.org/blog/privacy-technology/surveillance-technologies/fbi-… | |
| [6] https://netzpolitik.org/2022/biometrie-clearview-ai-zieht-gegen-kanadische-… | |
| [7] https://www.theverge.com/2021/12/16/22840179/france-cnil-clearview-ai-facia… | |
| [8] https://mixed.de/clearview-ai-italien-verhaengt-millionenstrafe/ | |
| [9] https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.… | |
| [10] https://www.wired.com/story/facial-recognition-identify-russian-soldiers/ | |
| [11] /Dekolonialisierung-von-Algorithmen/!5706540 | |
| ## AUTOREN | |
| Adrian Lobe | |
| ## TAGS | |
| Datenschutz | |
| Schwerpunkt Krieg in der Ukraine | |
| Menschenwürde | |
| GNS | |
| Schwerpunkt Künstliche Intelligenz | |
| Gesichtserkennung | |
| Schwerpunkt Überwachung | |
| Schwerpunkt Krieg in der Ukraine | |
| Schwerpunkt Krieg in der Ukraine | |
| Schwerpunkt Krieg in der Ukraine | |
| Deepfake | |
| ## ARTIKEL ZUM THEMA | |
| Überwachungskameras in Gefängnissen: Lückenlose Auswertung | |
| Niedersachsens Landtag erlaubt Künstliche Intelligenz zur Auswertung von | |
| Überwachungsvideos in Gefängnissen. Dabei bleiben Fragen offen. | |
| Mutmaßliche Kriegsverbrechen: Was tun. Irgendwas | |
| Die EU und Berlin versuchen, angemessen auf die Bilder aus der Ukraine zu | |
| reagieren. Ein Stopp für Energieimporte aus Russland ist umstritten. | |
| Türkische Diplomatie im Ukrainekrieg: Vom Paria zum Staatsvermittler | |
| Bis vor Kurzem war der türkische Präsident Erdoğan noch international | |
| isoliert. Nun könnte er eine Schlüsselrolle bei einem Friedensschluss | |
| spielen. | |
| Inszenierung des Kriegs auf Tiktok: Moonwalk auf dem Schlachtfeld | |
| Manche nennen den Krieg in der Ukraine schon den ersten „Tiktok-Krieg“: Was | |
| bedeutet das für unsere Wahrnehmung des Konflikts? | |
| Künstliche Intelligenz und Ethik: Stimmen aus dem Jenseits | |
| Mit künstlicher Intelligenz klonen Filmstudios Stimmen verstorbener | |
| Menschen. Das wirft dringende ethische und gesellschaftspolitische Fragen | |
| auf. |