Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Unfälle mit künstlicher Intelligenz: Ein rechtlicher Flickenteppi…
> Künstliche Intelligenz ist nicht perfekt. Der tödliche Unfall durch ein
> Roboterauto oder rassistische Diskriminierung erfordern strengere
> Regulierung.
Bild: Das selbstfahrende Unfallfahrzeug von Uber, das am 18. März 2018 eine Fr…
Am 18. März 2018 kam es im US-Bundesstaat Arizona zu einem tödlichen
Unfall. Ein selbstfahrendes Uber-Taxi erfasste [1][eine 49-jährige
Fußgängerin], die mit ihrem Fahrrad die Straße überquerte. Wie die späteren
Untersuchungen des National Transportation Safety Board ergeben sollten,
hatte die Radar- und Kameratechnik des Autos die Fußgängerin nicht erkannt.
Das System war nicht darauf programmiert, Personen zu erkennen, die abseits
eines markierten Fußwegs die Straße überqueren. Die Fahrerin, die das auf
Autopilot geschaltete Roboterfahrzeug beaufsichtigt hatte, schaute auf
ihrem Bildschirm eine TV-Serie – und hatte die Hand nicht vorschriftsmäßig
am Lenkrad. 1,2 Sekunden vor dem Zusammenprall identifizierten die Sensoren
die Frau als Fahrrad. Doch es war zu spät. Der tödliche Crash gilt als
erster „Kollateralschaden“ des autonomen Fahrens.
Eigentlich versprachen Roboterfahrzeuge, den Verkehr sicherer machen. Jedes
Jahr sterben laut der Weltgesundheitsorganisation (WHO) 1,35 Millionen
[2][Menschen im Straßenverkehr]. Die Rechtslage ist eindeutig, auch wenn
sich die letzten Momente vor einem Unfall nicht immer im Detail
rekonstruieren lassen.
Wer mit überhöhter Geschwindigkeit unterwegs ist und andere
Verkehrsteilnehmer gefährdet, wird zur Rechenschaft gezogen. Wenn jedoch
ein Mensch durch einen Roboter ums Leben kommt, stellen sich komplizierte
Fragen der Verantwortlichkeit: Wer haftet, wenn ein autonomes Fahrzeug
einen tödlichen Unfall verursacht? Der Fahrzeugbauer? Der
Softwarehersteller? Der Fahrer? Kann ein Softwarehersteller wegen
fahrlässiger Tötung angeklagt werden?
Der Staatsanwalt von Yavapai County, Ort des tödlichen Unfalls, sagte, für
eine strafrechtliche Verantwortung von Uber gebe es „keine Grundlage“. Der
Fahrerin soll nun wegen fahrlässiger Tötung der Prozess gemacht werden.
## Wer haftet für Fehler eines Operationsroboters?
Es ist leichter, eine Person als ein System anzuklagen. Maschinen-Ethiker
fordern schon seit Jahren eine Regulierung von künstlicher Intelligenz. Je
mehr automatisierte Entscheidungssysteme in das Leben eingreifen, desto
dringender und wichtiger wird ein rechtlicher Rahmen. Wer haftet, wenn ein
Operationsroboter das Skalpell falsch ansetzt oder der Pflegeroboter die
falsche Medizin austeilt?
Der TÜV-Verband hat vor wenigen Tagen ein Positionspapier „Über Sicherheit
KI-gestützter Anwendungen“ vorgelegt und darin Eckpunkte eines europäischen
Rechtsrahmens formuliert. „Aus Sicht des TÜV-Verbands ist es dringend
erforderlich, die bestehende Regulierung auf ihre Applikabilität auf
KI-gestützte Anwendungen zu überprüfen“, heißt es darin.
Der TÜV-Verband bezieht sich dabei auf [3][das Weißbuch zur künstlichen
Intelligenz] der EU-Kommission, in dem ein „solider europäischer
Regulierungsrahmen für eine vertrauenswürdige KI“ postuliert wird. Das
Weißbuch geht dem Verband allerdings nicht weit genug. Der bestehende
europäische Regulierungsrahmen trage den Herausforderungen von KI nicht in
hinreichendem Maße Rechnung und müsse „eingehend auf die Zweckmäßigkeit u…
Eignung in Hinblick auf KI-gestützte Anwendungen überprüft werden“.
Der Verband fordert die Einteilung von KI-Anwendungen in Risikoklassen
sowie eine unabhängige „Konformitätsbewertungsstelle“.
Wie diese Stelle aussehen soll (der Begriff lässt ein Bürokratiemonster
befürchten) und mit welchen Befugnissen sie ausgestattet sein soll, wird in
dem Papier nicht näher ausgeführt. Zumindest für den Mobilitätsbereich ist
die Position konkret. Hier hat der TÜV-Verband bereits 2019 die
Institutionalisierung eines „Trust Centers“ vorgeschlagen, das ähnlich
einer Prüfbehörde Zugriff auf Daten vernetzter Fahrzeuge hat.
Bislang ist es so, dass die Nutzerverwaltung und Zugriffskontrolle dem
Hersteller obliegen. „Dadurch besteht ein nicht unerhebliches Risiko der
Datenmanipulation und -filterung, die einer unabhängigen technischen
Bewertung des Fahrzeugs im Wege stehen“, kritisiert der TÜV-Verband. Es
gelte, „Datenmonopolstrukturen zu vermeiden“.
## Vage Stellungnahme aus der Politik
Die Regierungsparteien haben im Koalitionsvertrag 2018 die Einführung einer
„digitalen Mobilitätsplattform“ vereinbart, um Mobilitätsangebote
„benutzerfreundlich“ zu vernetzen. Geschehen ist bislang wenig, obwohl der
TÜV-Verband anlässlich des Autogipfels im Kanzleramt Anfang September 2020
nochmal auf die Notwendigkeit einer solchen Datenplattform aufmerksam
machte.
Auch die Stellungnahme der Bundesregierung zum KI-Weißbuch der
EU-Kommission liest sich sehr verhalten und vage. Dabei ist das Weißbuch in
seiner Problemdiagnose (Überwachung, [4][Verlust der Privatsphäre,
Diskriminierung]) sowie seinen Lösungsansätzen sehr klar, wenngleich das
temporäre Verbot für Gesichtserkennungssysteme, das noch im Entwurf
enthalten war, aus der finalen Version wieder gestrichen wurde.
Das Problem ist nicht die Regulierung, die selbst von Tech-Konzernen
gefordert wird, sondern ihre Einheitlichkeit. Wenn jeder Mitgliedstaat
eigene Rechtsvorschriften zur Nutzung von KI erlässt, droht ein
Flickenteppich. Die Autoren des Weißbuchs sehen die „Gefahr einer
Fragmentierung des Binnenmarkts“.
Der KI-Experte Xeno Acharya weist daraufhin, dass die unterschiedlichen
Rechtsstandards in der Lieferkette zu Haftungsverschiebungen führen können.
Bei einem autonomen Fahrzeug sei unter der derzeitigen EU-Gesetzgebung
lediglich das Produkt, nicht aber die Software erfasst. Bei einem
selbstfahrenden Auto von BMW, das chinesische Algorithmen nutze, würde
lediglich BMW haftbar gemacht, nicht der Entwickler. Dass China infolge des
Handelsstreits mit den USA den Export des Tiktok-Algorithmus beschränkt
hat, macht das Ansinnen, die Systeme transparent zu machen, nicht
einfacher.
Laut einem Bericht des Think Tanks Carnegie Endowment for International
Peace exportieren chinesische Konzerne wie Huawei und ZTE massenhaft
Überwachungstechnologien wie Gesichtserkennungssysteme, auch nach
Deutschland. Selbst wenn es europaweit einen einheitlichen Standard
algorithmischer Transparenz gäbe – die chinesischen Softwareschmieden
werden sich wohl nicht in die Karten schauen lassen.
Facebook-Chef Mark Zuckerberg hat vor zwei Jahren bei der Anhörung vor dem
US-Senat gesagt, dass eine Regulierung nicht dazu führen dürfe, dass „wir
hinter chinesische Wettbewerber zurückfallen“.
## Hoher Bedarf an „ethischer KI“
Es ist das Standardlamento der Tech-Konzerne: Wenn ihr unsere Industrie zu
stark reguliert, haben die Konkurrenten einen Innovationsvorsprung.
Irgendwann gibt es nur noch chinesische „Lösungen“ mit niedrigen oder
keinen Datenschutz- bzw. ethischen Standards. Schon [5][die
Datenschutzgrundverordnung (DSGVO)] galt manchen als „Innovationsbremse“.
Mal abgesehen davon, dass diesem Denken ein ökonomisch verengtes
Verständnis von Innovation zugrunde liegt, können rechtliche
Rahmenbedingungen durchaus innovativ sein.
So war die Datenschutzgrundverordnung die Blaupause für den indischen
Personal Data Protection Act (PDPA). Dass es einen Regulierungsbedarf für
KI-Systeme gibt, haben wiederholt die rassistisch diskriminierenden
Klassifikationsirrtümer vor Augen geführt: So hat der
Gesichtserkennungsalgorithmus des Videodienstes Zoom kürzlich das Gesicht
eines Schwarzen Mannes wegretuschiert. Als wäre ein Mensch bloß Luft.
Auch in China gibt es einen Bedarf an „ethischer KI“. Die vom chinesischen
Wissenschaftsministerium gestützte Beijing Academy of Artificial
Intelligence (BAAI) hat 2019 moralische Prinzipien für die Nutzung von KI
aufgestellt. Aber auch wenn die Beijing AI Principles universelle Werte wie
Freiheit, Autonomie und Privatsphäre beschwören, sind es doch zuvorderst
chinesische Werte, die einer konfuzianisch-kollektivistischen
Moralvorstellung entspringen.
Man merkt das dezent in der englischen Übersetzung: „Menschliche
Privatsphäre, Würde, Freiheit, Autonomie und Rechte sollten ausreichend
respektiert werden.“ Eine Charta, die wie eine Absichtserklärung klingt.
Die Frage ist nicht nur, wer die Motoren und Roboter von morgen baut,
sondern auch, wer ihren moralischen Code schreibt. Ein Fußgänger, dessen
Rechte von einem Roboterfahrzeug „ausreichend respektiert werden“, lebt
gefährlich.
27 Sep 2020
## LINKS
[1] /Kommentar-Tote-bei-autonomem-Fahren/!5492495
[2] /Weniger-Verkehrstote-wegen-Corona/!5683364
[3] https://ec.europa.eu/info/files/white-paper-artificial-intelligence-europea…
[4] /Dekolonialisierung-von-Algorithmen/!5706540
[5] /Zwei-Jahre-Datenschutzgrundverordnung/!5691398
## AUTOREN
Adrian Lobe
## TAGS
Schwerpunkt Rassismus
Datensicherheit
Ethik
Verkehrstote
Schwerpunkt Künstliche Intelligenz
Wahl-O-Mat
Selbstfahrendes Auto
Föderalismus
Hamburg
Schwerpunkt Überwachung
Algorithmen
Soziale Medien
Schwerpunkt Überwachung
Schwerpunkt Rassismus
Verkehrsunfälle
Bundesregierung
## ARTIKEL ZUM THEMA
Künstliche Intelligenz und Wahl-O-Mat: Linksgrün versiffte Intelligenz
Ein Boulevardblatt hat herausgefunden: Die KI, die auf neutral tut, tickt
eigentlich linksgrün! Warum das kein Skandal, sondern Grund zur Freude ist.
Künstliche Intelligenz im Verkehr: Autonom bis vier Grad Celsius
Selbstfahrende Autos sind ein alter Technologietraum der Menschheit. Nun
wird er langsam Realität. Dabei sind bei Weitem nicht alle Probleme gelöst.
Lob des Föderalismus: Flickenteppich des Grauens
Die Bundesländer werden 75: Faszinierende Geschichten haben sie
hervorgebracht. Die Demokratie stärken sie. Deswegen werden sie gehasst.
Neuer Inspektor-Takeda-Krimi: Wenn Roboter morden könnten
Henrik Siebolds Krimi „Inspektor Takeda und die stille Schuld“ beleuchtet
nicht nur die Zukunft der Pflege. Er erinnert auch an den „Bluterskandal“.
Immobilienmarkt in US-Metropolen: 3 Zimmer, Küche, Gesichtserkennung
„Proptech“-Anwendungen, die Daten über Mieter*innen sammeln können, spitz…
die Lage auf dem prekären US-Immobilienmarkt nachhaltig zu.
Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig
Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren
Bericht vor. Konkreter wird ein anderer Report.
Künstliche Intelligenz: KI außer Kontrolle
Enquetekommission streitet über die Regulierung selbstlernender Maschinen:
Braucht man eine Behörde oder nur mehr Transparenz?
Überwachung vor der Haustür: Jeder ist verdächtig
Überwachung geht jetzt auch egalitär: über die App Neighbors, Amazons
smarte Türklingel Ring und das Phänomen der Coveillance.
Dekolonialisierung von Algorithmen: Programmierter Rassismus
In KI-Systemen schlummern immer noch rassistische Vorurteile. Der Grund:
Auch künstliche Intelligenz wird von Menschen gemacht.
Weniger Verkehrstote wegen Corona: Ohne Autos endlich sicher
Corona macht's möglich: Auf den leeren Straßen von New York sterben keine
Fußgänger:innen mehr. Ein guter Zeitpunkt, um Autos ganz abzuschaffen.
Bayerische KI-Strategie: Pack ma's
Bayern richtet 100 neue Lehrstühle für künstliche Intelligenz ein – und
sorgt damit für Euphorie an bayerischen Hochschulen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.