# taz.de -- Unfälle mit künstlicher Intelligenz: Ein rechtlicher Flickenteppi… | |
> Künstliche Intelligenz ist nicht perfekt. Der tödliche Unfall durch ein | |
> Roboterauto oder rassistische Diskriminierung erfordern strengere | |
> Regulierung. | |
Bild: Das selbstfahrende Unfallfahrzeug von Uber, das am 18. März 2018 eine Fr… | |
Am 18. März 2018 kam es im US-Bundesstaat Arizona zu einem tödlichen | |
Unfall. Ein selbstfahrendes Uber-Taxi erfasste [1][eine 49-jährige | |
Fußgängerin], die mit ihrem Fahrrad die Straße überquerte. Wie die späteren | |
Untersuchungen des National Transportation Safety Board ergeben sollten, | |
hatte die Radar- und Kameratechnik des Autos die Fußgängerin nicht erkannt. | |
Das System war nicht darauf programmiert, Personen zu erkennen, die abseits | |
eines markierten Fußwegs die Straße überqueren. Die Fahrerin, die das auf | |
Autopilot geschaltete Roboterfahrzeug beaufsichtigt hatte, schaute auf | |
ihrem Bildschirm eine TV-Serie – und hatte die Hand nicht vorschriftsmäßig | |
am Lenkrad. 1,2 Sekunden vor dem Zusammenprall identifizierten die Sensoren | |
die Frau als Fahrrad. Doch es war zu spät. Der tödliche Crash gilt als | |
erster „Kollateralschaden“ des autonomen Fahrens. | |
Eigentlich versprachen Roboterfahrzeuge, den Verkehr sicherer machen. Jedes | |
Jahr sterben laut der Weltgesundheitsorganisation (WHO) 1,35 Millionen | |
[2][Menschen im Straßenverkehr]. Die Rechtslage ist eindeutig, auch wenn | |
sich die letzten Momente vor einem Unfall nicht immer im Detail | |
rekonstruieren lassen. | |
Wer mit überhöhter Geschwindigkeit unterwegs ist und andere | |
Verkehrsteilnehmer gefährdet, wird zur Rechenschaft gezogen. Wenn jedoch | |
ein Mensch durch einen Roboter ums Leben kommt, stellen sich komplizierte | |
Fragen der Verantwortlichkeit: Wer haftet, wenn ein autonomes Fahrzeug | |
einen tödlichen Unfall verursacht? Der Fahrzeugbauer? Der | |
Softwarehersteller? Der Fahrer? Kann ein Softwarehersteller wegen | |
fahrlässiger Tötung angeklagt werden? | |
Der Staatsanwalt von Yavapai County, Ort des tödlichen Unfalls, sagte, für | |
eine strafrechtliche Verantwortung von Uber gebe es „keine Grundlage“. Der | |
Fahrerin soll nun wegen fahrlässiger Tötung der Prozess gemacht werden. | |
## Wer haftet für Fehler eines Operationsroboters? | |
Es ist leichter, eine Person als ein System anzuklagen. Maschinen-Ethiker | |
fordern schon seit Jahren eine Regulierung von künstlicher Intelligenz. Je | |
mehr automatisierte Entscheidungssysteme in das Leben eingreifen, desto | |
dringender und wichtiger wird ein rechtlicher Rahmen. Wer haftet, wenn ein | |
Operationsroboter das Skalpell falsch ansetzt oder der Pflegeroboter die | |
falsche Medizin austeilt? | |
Der TÜV-Verband hat vor wenigen Tagen ein Positionspapier „Über Sicherheit | |
KI-gestützter Anwendungen“ vorgelegt und darin Eckpunkte eines europäischen | |
Rechtsrahmens formuliert. „Aus Sicht des TÜV-Verbands ist es dringend | |
erforderlich, die bestehende Regulierung auf ihre Applikabilität auf | |
KI-gestützte Anwendungen zu überprüfen“, heißt es darin. | |
Der TÜV-Verband bezieht sich dabei auf [3][das Weißbuch zur künstlichen | |
Intelligenz] der EU-Kommission, in dem ein „solider europäischer | |
Regulierungsrahmen für eine vertrauenswürdige KI“ postuliert wird. Das | |
Weißbuch geht dem Verband allerdings nicht weit genug. Der bestehende | |
europäische Regulierungsrahmen trage den Herausforderungen von KI nicht in | |
hinreichendem Maße Rechnung und müsse „eingehend auf die Zweckmäßigkeit u… | |
Eignung in Hinblick auf KI-gestützte Anwendungen überprüft werden“. | |
Der Verband fordert die Einteilung von KI-Anwendungen in Risikoklassen | |
sowie eine unabhängige „Konformitätsbewertungsstelle“. | |
Wie diese Stelle aussehen soll (der Begriff lässt ein Bürokratiemonster | |
befürchten) und mit welchen Befugnissen sie ausgestattet sein soll, wird in | |
dem Papier nicht näher ausgeführt. Zumindest für den Mobilitätsbereich ist | |
die Position konkret. Hier hat der TÜV-Verband bereits 2019 die | |
Institutionalisierung eines „Trust Centers“ vorgeschlagen, das ähnlich | |
einer Prüfbehörde Zugriff auf Daten vernetzter Fahrzeuge hat. | |
Bislang ist es so, dass die Nutzerverwaltung und Zugriffskontrolle dem | |
Hersteller obliegen. „Dadurch besteht ein nicht unerhebliches Risiko der | |
Datenmanipulation und -filterung, die einer unabhängigen technischen | |
Bewertung des Fahrzeugs im Wege stehen“, kritisiert der TÜV-Verband. Es | |
gelte, „Datenmonopolstrukturen zu vermeiden“. | |
## Vage Stellungnahme aus der Politik | |
Die Regierungsparteien haben im Koalitionsvertrag 2018 die Einführung einer | |
„digitalen Mobilitätsplattform“ vereinbart, um Mobilitätsangebote | |
„benutzerfreundlich“ zu vernetzen. Geschehen ist bislang wenig, obwohl der | |
TÜV-Verband anlässlich des Autogipfels im Kanzleramt Anfang September 2020 | |
nochmal auf die Notwendigkeit einer solchen Datenplattform aufmerksam | |
machte. | |
Auch die Stellungnahme der Bundesregierung zum KI-Weißbuch der | |
EU-Kommission liest sich sehr verhalten und vage. Dabei ist das Weißbuch in | |
seiner Problemdiagnose (Überwachung, [4][Verlust der Privatsphäre, | |
Diskriminierung]) sowie seinen Lösungsansätzen sehr klar, wenngleich das | |
temporäre Verbot für Gesichtserkennungssysteme, das noch im Entwurf | |
enthalten war, aus der finalen Version wieder gestrichen wurde. | |
Das Problem ist nicht die Regulierung, die selbst von Tech-Konzernen | |
gefordert wird, sondern ihre Einheitlichkeit. Wenn jeder Mitgliedstaat | |
eigene Rechtsvorschriften zur Nutzung von KI erlässt, droht ein | |
Flickenteppich. Die Autoren des Weißbuchs sehen die „Gefahr einer | |
Fragmentierung des Binnenmarkts“. | |
Der KI-Experte Xeno Acharya weist daraufhin, dass die unterschiedlichen | |
Rechtsstandards in der Lieferkette zu Haftungsverschiebungen führen können. | |
Bei einem autonomen Fahrzeug sei unter der derzeitigen EU-Gesetzgebung | |
lediglich das Produkt, nicht aber die Software erfasst. Bei einem | |
selbstfahrenden Auto von BMW, das chinesische Algorithmen nutze, würde | |
lediglich BMW haftbar gemacht, nicht der Entwickler. Dass China infolge des | |
Handelsstreits mit den USA den Export des Tiktok-Algorithmus beschränkt | |
hat, macht das Ansinnen, die Systeme transparent zu machen, nicht | |
einfacher. | |
Laut einem Bericht des Think Tanks Carnegie Endowment for International | |
Peace exportieren chinesische Konzerne wie Huawei und ZTE massenhaft | |
Überwachungstechnologien wie Gesichtserkennungssysteme, auch nach | |
Deutschland. Selbst wenn es europaweit einen einheitlichen Standard | |
algorithmischer Transparenz gäbe – die chinesischen Softwareschmieden | |
werden sich wohl nicht in die Karten schauen lassen. | |
Facebook-Chef Mark Zuckerberg hat vor zwei Jahren bei der Anhörung vor dem | |
US-Senat gesagt, dass eine Regulierung nicht dazu führen dürfe, dass „wir | |
hinter chinesische Wettbewerber zurückfallen“. | |
## Hoher Bedarf an „ethischer KI“ | |
Es ist das Standardlamento der Tech-Konzerne: Wenn ihr unsere Industrie zu | |
stark reguliert, haben die Konkurrenten einen Innovationsvorsprung. | |
Irgendwann gibt es nur noch chinesische „Lösungen“ mit niedrigen oder | |
keinen Datenschutz- bzw. ethischen Standards. Schon [5][die | |
Datenschutzgrundverordnung (DSGVO)] galt manchen als „Innovationsbremse“. | |
Mal abgesehen davon, dass diesem Denken ein ökonomisch verengtes | |
Verständnis von Innovation zugrunde liegt, können rechtliche | |
Rahmenbedingungen durchaus innovativ sein. | |
So war die Datenschutzgrundverordnung die Blaupause für den indischen | |
Personal Data Protection Act (PDPA). Dass es einen Regulierungsbedarf für | |
KI-Systeme gibt, haben wiederholt die rassistisch diskriminierenden | |
Klassifikationsirrtümer vor Augen geführt: So hat der | |
Gesichtserkennungsalgorithmus des Videodienstes Zoom kürzlich das Gesicht | |
eines Schwarzen Mannes wegretuschiert. Als wäre ein Mensch bloß Luft. | |
Auch in China gibt es einen Bedarf an „ethischer KI“. Die vom chinesischen | |
Wissenschaftsministerium gestützte Beijing Academy of Artificial | |
Intelligence (BAAI) hat 2019 moralische Prinzipien für die Nutzung von KI | |
aufgestellt. Aber auch wenn die Beijing AI Principles universelle Werte wie | |
Freiheit, Autonomie und Privatsphäre beschwören, sind es doch zuvorderst | |
chinesische Werte, die einer konfuzianisch-kollektivistischen | |
Moralvorstellung entspringen. | |
Man merkt das dezent in der englischen Übersetzung: „Menschliche | |
Privatsphäre, Würde, Freiheit, Autonomie und Rechte sollten ausreichend | |
respektiert werden.“ Eine Charta, die wie eine Absichtserklärung klingt. | |
Die Frage ist nicht nur, wer die Motoren und Roboter von morgen baut, | |
sondern auch, wer ihren moralischen Code schreibt. Ein Fußgänger, dessen | |
Rechte von einem Roboterfahrzeug „ausreichend respektiert werden“, lebt | |
gefährlich. | |
27 Sep 2020 | |
## LINKS | |
[1] /Kommentar-Tote-bei-autonomem-Fahren/!5492495 | |
[2] /Weniger-Verkehrstote-wegen-Corona/!5683364 | |
[3] https://ec.europa.eu/info/files/white-paper-artificial-intelligence-europea… | |
[4] /Dekolonialisierung-von-Algorithmen/!5706540 | |
[5] /Zwei-Jahre-Datenschutzgrundverordnung/!5691398 | |
## AUTOREN | |
Adrian Lobe | |
## TAGS | |
Schwerpunkt Rassismus | |
Datensicherheit | |
Ethik | |
Verkehrstote | |
künstliche Intelligenz | |
Selbstfahrendes Auto | |
Föderalismus | |
Hamburg | |
Schwerpunkt Überwachung | |
künstliche Intelligenz | |
künstliche Intelligenz | |
Schwerpunkt Überwachung | |
künstliche Intelligenz | |
Verkehrsunfälle | |
Bundesregierung | |
## ARTIKEL ZUM THEMA | |
Künstliche Intelligenz im Verkehr: Autonom bis vier Grad Celsius | |
Selbstfahrende Autos sind ein alter Technologietraum der Menschheit. Nun | |
wird er langsam Realität. Dabei sind bei Weitem nicht alle Probleme gelöst. | |
Lob des Föderalismus: Flickenteppich des Grauens | |
Die Bundesländer werden 75: Faszinierende Geschichten haben sie | |
hervorgebracht. Die Demokratie stärken sie. Deswegen werden sie gehasst. | |
Neuer Inspektor-Takeda-Krimi: Wenn Roboter morden könnten | |
Henrik Siebolds Krimi „Inspektor Takeda und die stille Schuld“ beleuchtet | |
nicht nur die Zukunft der Pflege. Er erinnert auch an den „Bluterskandal“. | |
Immobilienmarkt in US-Metropolen: 3 Zimmer, Küche, Gesichtserkennung | |
„Proptech“-Anwendungen, die Daten über Mieter*innen sammeln können, spitz… | |
die Lage auf dem prekären US-Immobilienmarkt nachhaltig zu. | |
Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig | |
Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren | |
Bericht vor. Konkreter wird ein anderer Report. | |
Künstliche Intelligenz: KI außer Kontrolle | |
Enquetekommission streitet über die Regulierung selbstlernender Maschinen: | |
Braucht man eine Behörde oder nur mehr Transparenz? | |
Überwachung vor der Haustür: Jeder ist verdächtig | |
Überwachung geht jetzt auch egalitär: über die App Neighbors, Amazons | |
smarte Türklingel Ring und das Phänomen der Coveillance. | |
Dekolonialisierung von Algorithmen: Programmierter Rassismus | |
In KI-Systemen schlummern immer noch rassistische Vorurteile. Der Grund: | |
Auch künstliche Intelligenz wird von Menschen gemacht. | |
Weniger Verkehrstote wegen Corona: Ohne Autos endlich sicher | |
Corona macht's möglich: Auf den leeren Straßen von New York sterben keine | |
Fußgänger:innen mehr. Ein guter Zeitpunkt, um Autos ganz abzuschaffen. | |
Bayerische KI-Strategie: Pack ma's | |
Bayern richtet 100 neue Lehrstühle für künstliche Intelligenz ein – und | |
sorgt damit für Euphorie an bayerischen Hochschulen. |