| # taz.de -- Unfälle mit künstlicher Intelligenz: Ein rechtlicher Flickenteppi… | |
| > Künstliche Intelligenz ist nicht perfekt. Der tödliche Unfall durch ein | |
| > Roboterauto oder rassistische Diskriminierung erfordern strengere | |
| > Regulierung. | |
| Bild: Das selbstfahrende Unfallfahrzeug von Uber, das am 18. März 2018 eine Fr… | |
| Am 18. März 2018 kam es im US-Bundesstaat Arizona zu einem tödlichen | |
| Unfall. Ein selbstfahrendes Uber-Taxi erfasste [1][eine 49-jährige | |
| Fußgängerin], die mit ihrem Fahrrad die Straße überquerte. Wie die späteren | |
| Untersuchungen des National Transportation Safety Board ergeben sollten, | |
| hatte die Radar- und Kameratechnik des Autos die Fußgängerin nicht erkannt. | |
| Das System war nicht darauf programmiert, Personen zu erkennen, die abseits | |
| eines markierten Fußwegs die Straße überqueren. Die Fahrerin, die das auf | |
| Autopilot geschaltete Roboterfahrzeug beaufsichtigt hatte, schaute auf | |
| ihrem Bildschirm eine TV-Serie – und hatte die Hand nicht vorschriftsmäßig | |
| am Lenkrad. 1,2 Sekunden vor dem Zusammenprall identifizierten die Sensoren | |
| die Frau als Fahrrad. Doch es war zu spät. Der tödliche Crash gilt als | |
| erster „Kollateralschaden“ des autonomen Fahrens. | |
| Eigentlich versprachen Roboterfahrzeuge, den Verkehr sicherer machen. Jedes | |
| Jahr sterben laut der Weltgesundheitsorganisation (WHO) 1,35 Millionen | |
| [2][Menschen im Straßenverkehr]. Die Rechtslage ist eindeutig, auch wenn | |
| sich die letzten Momente vor einem Unfall nicht immer im Detail | |
| rekonstruieren lassen. | |
| Wer mit überhöhter Geschwindigkeit unterwegs ist und andere | |
| Verkehrsteilnehmer gefährdet, wird zur Rechenschaft gezogen. Wenn jedoch | |
| ein Mensch durch einen Roboter ums Leben kommt, stellen sich komplizierte | |
| Fragen der Verantwortlichkeit: Wer haftet, wenn ein autonomes Fahrzeug | |
| einen tödlichen Unfall verursacht? Der Fahrzeugbauer? Der | |
| Softwarehersteller? Der Fahrer? Kann ein Softwarehersteller wegen | |
| fahrlässiger Tötung angeklagt werden? | |
| Der Staatsanwalt von Yavapai County, Ort des tödlichen Unfalls, sagte, für | |
| eine strafrechtliche Verantwortung von Uber gebe es „keine Grundlage“. Der | |
| Fahrerin soll nun wegen fahrlässiger Tötung der Prozess gemacht werden. | |
| ## Wer haftet für Fehler eines Operationsroboters? | |
| Es ist leichter, eine Person als ein System anzuklagen. Maschinen-Ethiker | |
| fordern schon seit Jahren eine Regulierung von künstlicher Intelligenz. Je | |
| mehr automatisierte Entscheidungssysteme in das Leben eingreifen, desto | |
| dringender und wichtiger wird ein rechtlicher Rahmen. Wer haftet, wenn ein | |
| Operationsroboter das Skalpell falsch ansetzt oder der Pflegeroboter die | |
| falsche Medizin austeilt? | |
| Der TÜV-Verband hat vor wenigen Tagen ein Positionspapier „Über Sicherheit | |
| KI-gestützter Anwendungen“ vorgelegt und darin Eckpunkte eines europäischen | |
| Rechtsrahmens formuliert. „Aus Sicht des TÜV-Verbands ist es dringend | |
| erforderlich, die bestehende Regulierung auf ihre Applikabilität auf | |
| KI-gestützte Anwendungen zu überprüfen“, heißt es darin. | |
| Der TÜV-Verband bezieht sich dabei auf [3][das Weißbuch zur künstlichen | |
| Intelligenz] der EU-Kommission, in dem ein „solider europäischer | |
| Regulierungsrahmen für eine vertrauenswürdige KI“ postuliert wird. Das | |
| Weißbuch geht dem Verband allerdings nicht weit genug. Der bestehende | |
| europäische Regulierungsrahmen trage den Herausforderungen von KI nicht in | |
| hinreichendem Maße Rechnung und müsse „eingehend auf die Zweckmäßigkeit u… | |
| Eignung in Hinblick auf KI-gestützte Anwendungen überprüft werden“. | |
| Der Verband fordert die Einteilung von KI-Anwendungen in Risikoklassen | |
| sowie eine unabhängige „Konformitätsbewertungsstelle“. | |
| Wie diese Stelle aussehen soll (der Begriff lässt ein Bürokratiemonster | |
| befürchten) und mit welchen Befugnissen sie ausgestattet sein soll, wird in | |
| dem Papier nicht näher ausgeführt. Zumindest für den Mobilitätsbereich ist | |
| die Position konkret. Hier hat der TÜV-Verband bereits 2019 die | |
| Institutionalisierung eines „Trust Centers“ vorgeschlagen, das ähnlich | |
| einer Prüfbehörde Zugriff auf Daten vernetzter Fahrzeuge hat. | |
| Bislang ist es so, dass die Nutzerverwaltung und Zugriffskontrolle dem | |
| Hersteller obliegen. „Dadurch besteht ein nicht unerhebliches Risiko der | |
| Datenmanipulation und -filterung, die einer unabhängigen technischen | |
| Bewertung des Fahrzeugs im Wege stehen“, kritisiert der TÜV-Verband. Es | |
| gelte, „Datenmonopolstrukturen zu vermeiden“. | |
| ## Vage Stellungnahme aus der Politik | |
| Die Regierungsparteien haben im Koalitionsvertrag 2018 die Einführung einer | |
| „digitalen Mobilitätsplattform“ vereinbart, um Mobilitätsangebote | |
| „benutzerfreundlich“ zu vernetzen. Geschehen ist bislang wenig, obwohl der | |
| TÜV-Verband anlässlich des Autogipfels im Kanzleramt Anfang September 2020 | |
| nochmal auf die Notwendigkeit einer solchen Datenplattform aufmerksam | |
| machte. | |
| Auch die Stellungnahme der Bundesregierung zum KI-Weißbuch der | |
| EU-Kommission liest sich sehr verhalten und vage. Dabei ist das Weißbuch in | |
| seiner Problemdiagnose (Überwachung, [4][Verlust der Privatsphäre, | |
| Diskriminierung]) sowie seinen Lösungsansätzen sehr klar, wenngleich das | |
| temporäre Verbot für Gesichtserkennungssysteme, das noch im Entwurf | |
| enthalten war, aus der finalen Version wieder gestrichen wurde. | |
| Das Problem ist nicht die Regulierung, die selbst von Tech-Konzernen | |
| gefordert wird, sondern ihre Einheitlichkeit. Wenn jeder Mitgliedstaat | |
| eigene Rechtsvorschriften zur Nutzung von KI erlässt, droht ein | |
| Flickenteppich. Die Autoren des Weißbuchs sehen die „Gefahr einer | |
| Fragmentierung des Binnenmarkts“. | |
| Der KI-Experte Xeno Acharya weist daraufhin, dass die unterschiedlichen | |
| Rechtsstandards in der Lieferkette zu Haftungsverschiebungen führen können. | |
| Bei einem autonomen Fahrzeug sei unter der derzeitigen EU-Gesetzgebung | |
| lediglich das Produkt, nicht aber die Software erfasst. Bei einem | |
| selbstfahrenden Auto von BMW, das chinesische Algorithmen nutze, würde | |
| lediglich BMW haftbar gemacht, nicht der Entwickler. Dass China infolge des | |
| Handelsstreits mit den USA den Export des Tiktok-Algorithmus beschränkt | |
| hat, macht das Ansinnen, die Systeme transparent zu machen, nicht | |
| einfacher. | |
| Laut einem Bericht des Think Tanks Carnegie Endowment for International | |
| Peace exportieren chinesische Konzerne wie Huawei und ZTE massenhaft | |
| Überwachungstechnologien wie Gesichtserkennungssysteme, auch nach | |
| Deutschland. Selbst wenn es europaweit einen einheitlichen Standard | |
| algorithmischer Transparenz gäbe – die chinesischen Softwareschmieden | |
| werden sich wohl nicht in die Karten schauen lassen. | |
| Facebook-Chef Mark Zuckerberg hat vor zwei Jahren bei der Anhörung vor dem | |
| US-Senat gesagt, dass eine Regulierung nicht dazu führen dürfe, dass „wir | |
| hinter chinesische Wettbewerber zurückfallen“. | |
| ## Hoher Bedarf an „ethischer KI“ | |
| Es ist das Standardlamento der Tech-Konzerne: Wenn ihr unsere Industrie zu | |
| stark reguliert, haben die Konkurrenten einen Innovationsvorsprung. | |
| Irgendwann gibt es nur noch chinesische „Lösungen“ mit niedrigen oder | |
| keinen Datenschutz- bzw. ethischen Standards. Schon [5][die | |
| Datenschutzgrundverordnung (DSGVO)] galt manchen als „Innovationsbremse“. | |
| Mal abgesehen davon, dass diesem Denken ein ökonomisch verengtes | |
| Verständnis von Innovation zugrunde liegt, können rechtliche | |
| Rahmenbedingungen durchaus innovativ sein. | |
| So war die Datenschutzgrundverordnung die Blaupause für den indischen | |
| Personal Data Protection Act (PDPA). Dass es einen Regulierungsbedarf für | |
| KI-Systeme gibt, haben wiederholt die rassistisch diskriminierenden | |
| Klassifikationsirrtümer vor Augen geführt: So hat der | |
| Gesichtserkennungsalgorithmus des Videodienstes Zoom kürzlich das Gesicht | |
| eines Schwarzen Mannes wegretuschiert. Als wäre ein Mensch bloß Luft. | |
| Auch in China gibt es einen Bedarf an „ethischer KI“. Die vom chinesischen | |
| Wissenschaftsministerium gestützte Beijing Academy of Artificial | |
| Intelligence (BAAI) hat 2019 moralische Prinzipien für die Nutzung von KI | |
| aufgestellt. Aber auch wenn die Beijing AI Principles universelle Werte wie | |
| Freiheit, Autonomie und Privatsphäre beschwören, sind es doch zuvorderst | |
| chinesische Werte, die einer konfuzianisch-kollektivistischen | |
| Moralvorstellung entspringen. | |
| Man merkt das dezent in der englischen Übersetzung: „Menschliche | |
| Privatsphäre, Würde, Freiheit, Autonomie und Rechte sollten ausreichend | |
| respektiert werden.“ Eine Charta, die wie eine Absichtserklärung klingt. | |
| Die Frage ist nicht nur, wer die Motoren und Roboter von morgen baut, | |
| sondern auch, wer ihren moralischen Code schreibt. Ein Fußgänger, dessen | |
| Rechte von einem Roboterfahrzeug „ausreichend respektiert werden“, lebt | |
| gefährlich. | |
| 27 Sep 2020 | |
| ## LINKS | |
| [1] /Kommentar-Tote-bei-autonomem-Fahren/!5492495 | |
| [2] /Weniger-Verkehrstote-wegen-Corona/!5683364 | |
| [3] https://ec.europa.eu/info/files/white-paper-artificial-intelligence-europea… | |
| [4] /Dekolonialisierung-von-Algorithmen/!5706540 | |
| [5] /Zwei-Jahre-Datenschutzgrundverordnung/!5691398 | |
| ## AUTOREN | |
| Adrian Lobe | |
| ## TAGS | |
| Schwerpunkt Rassismus | |
| Datensicherheit | |
| Ethik | |
| Verkehrstote | |
| Schwerpunkt Künstliche Intelligenz | |
| Wahl-O-Mat | |
| Selbstfahrendes Auto | |
| Föderalismus | |
| Hamburg | |
| Schwerpunkt Überwachung | |
| Algorithmen | |
| Soziale Medien | |
| Schwerpunkt Überwachung | |
| Schwerpunkt Rassismus | |
| Verkehrsunfälle | |
| Bundesregierung | |
| ## ARTIKEL ZUM THEMA | |
| Künstliche Intelligenz und Wahl-O-Mat: Linksgrün versiffte Intelligenz | |
| Ein Boulevardblatt hat herausgefunden: Die KI, die auf neutral tut, tickt | |
| eigentlich linksgrün! Warum das kein Skandal, sondern Grund zur Freude ist. | |
| Künstliche Intelligenz im Verkehr: Autonom bis vier Grad Celsius | |
| Selbstfahrende Autos sind ein alter Technologietraum der Menschheit. Nun | |
| wird er langsam Realität. Dabei sind bei Weitem nicht alle Probleme gelöst. | |
| Lob des Föderalismus: Flickenteppich des Grauens | |
| Die Bundesländer werden 75: Faszinierende Geschichten haben sie | |
| hervorgebracht. Die Demokratie stärken sie. Deswegen werden sie gehasst. | |
| Neuer Inspektor-Takeda-Krimi: Wenn Roboter morden könnten | |
| Henrik Siebolds Krimi „Inspektor Takeda und die stille Schuld“ beleuchtet | |
| nicht nur die Zukunft der Pflege. Er erinnert auch an den „Bluterskandal“. | |
| Immobilienmarkt in US-Metropolen: 3 Zimmer, Küche, Gesichtserkennung | |
| „Proptech“-Anwendungen, die Daten über Mieter*innen sammeln können, spitz… | |
| die Lage auf dem prekären US-Immobilienmarkt nachhaltig zu. | |
| Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig | |
| Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren | |
| Bericht vor. Konkreter wird ein anderer Report. | |
| Künstliche Intelligenz: KI außer Kontrolle | |
| Enquetekommission streitet über die Regulierung selbstlernender Maschinen: | |
| Braucht man eine Behörde oder nur mehr Transparenz? | |
| Überwachung vor der Haustür: Jeder ist verdächtig | |
| Überwachung geht jetzt auch egalitär: über die App Neighbors, Amazons | |
| smarte Türklingel Ring und das Phänomen der Coveillance. | |
| Dekolonialisierung von Algorithmen: Programmierter Rassismus | |
| In KI-Systemen schlummern immer noch rassistische Vorurteile. Der Grund: | |
| Auch künstliche Intelligenz wird von Menschen gemacht. | |
| Weniger Verkehrstote wegen Corona: Ohne Autos endlich sicher | |
| Corona macht's möglich: Auf den leeren Straßen von New York sterben keine | |
| Fußgänger:innen mehr. Ein guter Zeitpunkt, um Autos ganz abzuschaffen. | |
| Bayerische KI-Strategie: Pack ma's | |
| Bayern richtet 100 neue Lehrstühle für künstliche Intelligenz ein – und | |
| sorgt damit für Euphorie an bayerischen Hochschulen. |