Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz und Iris-Scan: Das Auge als Ausweis
> OpenAI-Chef Sam Altman will die Augen aller Menschen scannen – und sie
> vor KI schützen. Doch die Speicherung biometrischer Daten schadet eher.
Bild: Soll den digitalen Weltausweis voranbringen: Irisscanner Orb
Sam Altman hat eine Mission: Der [1][OpenAI-Chef] will die Menschheit vor
der künstlichen Intelligenz retten, deren Entwicklung er selbst
vorangetrieben hat.
Er fürchtet sich vor dem Tag, an dem eine Superintelligenz übernimmt und
Menschen und Maschinen nicht mehr voneinander zu unterscheiden sind. Mit
seinem Start-up Worldcoin, dessen gleichnamige [2][Kryptowährung] kürzlich
lanciert wurde, will er daher ein biometrisches Identifikationssystem
(World ID) etablieren, das als eine Art Ausweisdokument fungieren soll.
Für das Projekt, das mit den üblichen Beschwörungen der kalifornischen
Ideologie („giving ownership to everyone“) daherkommt, wurden [3][1.500
Iriserkennungssysteme] in Form verchromter Kugeln in über 35 Städten auf
der ganzen Welt aufgestellt.
Die „[4][Orbs“ genannten Kugeln], die ästhetisch an die Todessterne aus
„Star Wars“ erinnern, sind mit einem optischen System aus Kameras und
Sensoren ausgestattet, welche die einzigartigen biometrischen Merkmale der
Iris erfassen und als Code in einer Datenbank speichern.
Nutzer, die ihre Augen scannen, erhalten als Belohnung 25 Tokens [5][in
Worldcoin], das entspricht rund 50 Dollar. Biometrie gegen Krypto. Oder wie
Sam Altman sagt: „Kapitalismus für alle.“
Das Motto klingt verheißungsvoll. In Kenia und Indien standen die Menschen
Schlange, um das digitale „Willkommensgeld“ für die schöne neue Welt zu
erhalten. 2,2 Millionen Menschen haben mittlerweile in die Kugel geschaut
und ihre Augenpaare ablichten lassen. Geht es nach Altman, ist das erst der
Anfang. Der Techvisionär will die Retina von acht Milliarden Menschen auf
der Welt scannen, um über die digitale ID ein bedingungsloses
Grundeinkommen zu bezahlen.
## Massiver Widerstand
Ein Projekt, das so dystopisch und größenwahnsinnig klingt, dass sich die
Datensammelwut der NSA dagegen fast schon als bescheiden ausnimmt. Kein
Wunder, dass sich gegen Worldcoin massiver Widerstand regt. Die
Finanzaufsicht Bafin hat bereits Ermittlungen eingeleitet, in Kenia, wo das
Projekt wegen Sicherheits- und Datenschutzbedenken Anfang [6][August
gestoppt] worden war, hat die Polizei bei einer Razzia Gerätschaften
konfisziert.
Zwar betont Worldcoin, dass die Irisscans (gespeichert werden nicht die
Bilddateien selbst, sondern ihre kryptografischen Hashwerte) auf einem
dezentralen Protokoll hinterlegt werden. Doch IT-Experten haben Zweifel an
der Sicherheitsarchitektur. Der Ethereum-Erfinder Vitalik Buterin wies
darauf hin, dass Hacker 3-D-Attrappen von „Fakemenschen“ drucken und sich
so digitale Identitäten erschleichen könnten. Zudem wisse man nicht, wie
die Hardware der Orbs konstruiert sei und ob diese möglicherweise
Hintertüren offen ließe.
Schon jetzt blüht der Schwarzmarkt für biometrische Daten. Laut einem
Bericht der Kryptoplattform BlockBeats sollen chinesische Nutzer Irisscans
von Menschen in Kambodscha und Kenia gekauft haben, um sich in der App zu
registrieren, die in China blockiert ist. Kostenpunkt: 30 Dollar für ein
Augenpaar.
Vorbild für Worldcoin ist das indische Identifikationssystem Aadhaar, über
das Bürger per Fingerabdruck oder Irisscan staatliche Transferleistungen
beziehen können. In Indien hat die biometrische Registratur auch ihren
Ursprung. Im 19. Jahrhundert führte die britische Kolonialverwaltung dort
Hand- und Fingerabdrücke zur Identitätsfeststellung von
Pensionsberechtigten ein.
So sollte verhindert werden, dass Renten an eine Person doppelt ausbezahlt
werden. Die Iriserkennung wurde erst sehr viel später, in den 1990er
Jahren, entwickelt und kam erstmals großflächig im Irakkrieg zum Einsatz,
wo US-Marines die von Saddam Hussein aufgebaute Datenbank um Fingerabdrücke
und Irisscans anreicherten, um den Zugang zu Städten zu regulieren und
Terroristen aufzuspüren. Auch in Afghanistan hat das US-Militär Geräte zur
biometrischen Erfassung genutzt.
## (Neo)koloniale Praktiken
Viele Militärtechnologien, die auf den Schlachtfeldern des Globalen Südens
erprobt werden, kehren in neuem, schickem Gewand in den Westen zurück – sei
es die Eyetrackingtechnologie in Fahrzeugen oder der Fingerabdruckscanner
im iPhone. Wenn Worldcoin mithilfe von Vertragsarbeitern, die für jedes
Augenpaar eine Provision erhalten, biometrische Daten sammelt, setzt sich
die (neo)koloniale Praktik fort.
Das Krypto-Start-up ist quasi die Ostindien-Kompanie des
Informationskapitalismus, die Datenkörper versklavt. Wenngleich Worldcoin
nicht der einzige Akteur ist.
So müssen sich auch in UN-Flüchtlingscamps in Jordanien alle Menschen ab
fünf Jahren per Irisscan registrieren und legitimieren, um elektronische
Gutscheine zu erhalten oder in Supermärkten zu bezahlen. Der UNHCR
kooperiert dazu mit der britischen Firma IrisGuard, deren Augenscanner
auch zur Identifikation von Rentenempfängern im Irak verwendet wird. Die
Praxis ist ethisch umstritten. Medientheoretikerin Ariana Dongus
kritisiert, dass die Flüchtlingscamps „Versuchslabore für biometrische
Datenerfassung“ seien.
Die Menschen haben oft keine andere Wahl, als ihre Daten preiszugeben, weil
sie sonst auf lebensnotwendige Hilfen verzichten müssten. Wer blind und
nicht „maschinenlesbar“ ist, schaut in die Röhre. In Indien zum Beispiel
mussten Leprakranke, die ihre Finger und ihr Augenlicht verloren hatten,
auf Essensrationen verzichten, weil sie sich nicht mit ihrem Körper
„ausweisen“ konnten.
Der radikale Materialismus biometrischer Überwachungsregime grenzt Menschen
aus und diskriminiert. Für politisch Verfolgte können biometrische
Datenbanken sogar zur Lebensgefahr werden. Nachdem die USA 2021 überstürzt
aus Afghanistan abgezogen und die hinterlassenen Biometriegeräte den
Taliban in die Hände gefallen waren, besteht die Sorge, dass die
Fundamentalisten die Datensätze nutzen könnten, um US- und Nato-Helfer wie
etwa Ortskräfte zu identifizieren und zu eliminieren.
## Quasi zum Abschuss freigegeben
Wie ungeschützt die Daten sind, demonstrierten im vergangenen Jahr Hacker
des [7][Chaos Computer Clubs]: Sie beschafften sich Gebrauchtgeräte aus dem
Afghanistankrieg in Onlineauktionshäusern und unterzogen sie einer
forensischen Analyse.
Das erschreckende Ergebnis: Die Datenträger waren unverschlüsselt. Auf den
Geräten befand sich eine umfassende biometrische Datenbank mit Namen,
Fingerabdrücken, Irisscans und Fotos von 2.632 Personen, unter anderem auch
Namen von zwei US-Soldaten samt GPS-Daten vergangener Einsatzorte. Wer auf
solchen Listen steht, ist quasi zum Abschuss freigegeben. Datenschutz ist
also kein „Nice-to-have“, sondern eine Überlebensgarantie.
Was Sam Altman mit den Daten vorhat, ob er sie als Sicherheit für seine
Kryptowährung oder als Rohlinge für die nächste Avatargeneration braucht,
bleibt sein Geheimnis.
Der Technologieutopist hat ein Monstrum geschaffen, das sich kaum noch
kontrollieren lässt – und die Identität von Millionen Menschen bedroht. Es
würde nicht verwundern, wenn die verchromten Worldcoin-Kugeln irgendwann
auch bei Ebay als Sammlerobjekt zum Verkauf stünden – inklusive lokal
gespeicherter Daten. Werden die sensiblen Daten gehackt oder geleakt, ist
ihre Kontrolle für immer unmöglich.
Man kann sich ein neues Passwort oder Konto zulegen, aber keinen neuen
Finger oder Augapfel.
10 Aug 2023
## LINKS
[1] /OpenAI-in-der-Kritk/!5922783
[2] /Kollaps-der-Kryptowaehrungen/!5901327
[3] https://www.theguardian.com/technology/2023/jul/28/crypto-firm-wants-to-sca…
[4] https://restofworld.org/2023/worldcoin-orb-around-the-world/
[5] https://gizmodo.com/worldcoin-black-market-iris-data-identity-orb-1850454037
[6] https://www.spiegel.de/netzwelt/web/worldcoin-kenia-stoppt-die-kryptowaehru…
[7] /Chaos-Computer-Club/!5904529
## AUTOREN
Adrian Lobe
## TAGS
Datenschutz
Gesichtserkennung
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Datenschutz
Kryptowährung
Datenschutz
## ARTIKEL ZUM THEMA
Krach bei Anbieter von ChatGPT: OpenAI wirft Sam Altman raus
Eine Galionsfigur der KI-Branche verliert seinen Job. In dem Start-up soll
es zwischen dem gewinnorientierten und dem Non-Profit-Flügel zum Streit
gekommen sein.
Künstliche Intelligenz und Datenschutz: Wer die KI füttert
Mit den persönlichen Daten von Nutzer:innen eine KI trainieren? Das
erlauben sich immer mehr Tech-Konzerne. Doch es gibt noch eine Chance.
Künstliche Intelligenz im Hörfunk: KI kills the Radio Star
Bei bigFM startet das deutschlandweit erste KI-Radio. In Zeiten, in denen
immer mehr Branchenstars zu Spotify abwandern, ist das nur logisch.
Irland plant Gesetzesänderung: Maulkorb bei Datenschutz-Verstößen
Die irische Datenschutz-Aufsichtsbehörde soll Verfahren als „vertraulich“
einstufen dürfen. Das würde auch Fälle gegen Big-Tech-Konzerne betreffen.
Kollaps der Kryptowährungen: Geld ist was anderes
Kryptowährungen stehen vor dem Aus. Dabei war von Anfang an klar, dass sie
bloßes Hirngespinst sind – unterstützt von ein paar Gläubigen.
Datenschutz bei Facebook: Schluss mit Gesichtserkennung
Nach jahrelanger Kritik schaltet Facebook sein Gesichtserkennungssystem ab.
Die Datensätze von mehr als einer Milliarde Menschen werden gelöscht.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.