Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz: KI außer Kontrolle
> Enquetekommission streitet über die Regulierung selbstlernender
> Maschinen: Braucht man eine Behörde oder nur mehr Transparenz?
Bild: Immer mehr E-Busse sollen mit künstlicher Intelligenz gesteuert werden
Künstliche Intelligenz ist ein Versprechen – und eine Bedrohung. Soziale
Netzwerke ermöglichen es, schnell mit vielen Leuten in Kontakt zu treten.
Aber wer bestimmt, welche Nachrichten die Adressat:innen zuerst sehen?
Diese Auswahl treffen meist Algorithmen – Rechenformeln – in
Computerprogrammen.
Einerseits gewinnen die Nutzer:innen Autonomie, andererseits sind sie aber
auch ferngesteuert. Die zunehmend mächtigen Maschinen lenken die
Wahrnehmung der Individuen, der Öffentlichkeit, der Gesellschaft. Ist es
also nötig, die Betreiber der Netzwerke und ihre Programme demokratisch zu
kontrollieren?
Mit diesen und verwandten Fragen beschäftigte sich während der vergangenen
zwei Jahre die [1][Enquetekommission „Künstliche Intelligenz“] des
Bundestages. Am Montag tagt sie zum letzten Mal, am Mittwoch übergibt sie
ihren Bericht an Bundestagspräsident Wolfgang Schäuble. Das bislang nicht
veröffentlichte Gesamtdokument, das der taz vorliegt, und die ergänzenden
Stellungnahmen aller Fraktionen offenbaren teilweise große
Einschätzungsunterschiede.
Grundsätzlich muss man sich darauf einstellen, dass die Denkleistung von
Rechnern und Maschinen zunimmt, sie mehr und mehr menschliche Tätigkeiten
bewältigen und dabei auch selbst neue Problemlösungen entwickeln.
Produktionsanlagen in Fabriken können sich wohl bald eigenständig
reparieren, indem sie rechtzeitig Verschleißteile ordern und selbst
einbauen.
## Die Mehrheit der Kommission ist gegen starke Regulierung
Fahrerlose Vehikel wählen die Routen aus, auf denen sie die Passagiere zum
Ziel bringen, und intelligente Medizinsysteme nehmen den Ärzt:innen einen
Teil der Behandlungen ab. Schon heute beeinflussen Plattformen im Internet
das Informations- und Einkaufsverhalten der Nutzer:innen erheblich, indem
sie ihnen individualisierte Konsumvorschläge machen.
Verantwortlich dafür sind sogenannte ADM-Systeme, die eigenständig
Entscheidungen treffen („algorithmic decision making“). Darüber, wie mit
diesen umgegangen werden soll, konnten die Mitglieder der Kommission keine
Einigkeit erzielen.
„Diese Systeme werden von Einzelpersonen in privaten Unternehmen mit Blick
auf Gewinnmaximierung entwickelt und unterstehen kaum einer
institutionalisierten, unabhängigen Kontrolle im öffentlichen Interesse“,
schreiben die Grünen in ihrem Sondervotum. „Eine solche Kontrolle ist
[2][aber dringend zu empfehlen]“, sagt Tabea Rößner als grünes
Kommissionsmitglied. Sie spricht sich für „verpflichtende Register und
Audits von ADM-Systemen“ aus.
Im Bericht der KI-Kommission spielt das Thema der Regulierung allerdings
keine große Rolle. Grund: Die Kommissionsmehrheit, unter anderem die Union,
trat auf die Bremse. „Einem pauschalen Algorithmen-TÜV stehen wir skeptisch
gegenüber“, betont Ronja Kemmer (CDU). Social-Media-Plattformen sollen zwar
unter bestimmten Bedingungen „Schnittstellen öffnen“ und Einblick gewähre…
„eine neue Behörde braucht es dafür aber nicht“, so Kemmer.
Dagegen unterstützt der Bundesverband der Verbraucherzentralen die Position
der Grünen: „Ein ausgewogener Regulierungsrahmen ist nötig, um die
Akzeptanz von künstlicher Intelligenz zu stärken.“
## Ein deutsches Silicon Valley?
Noch in diesem Jahr will EU-Kommissarin Margrethe Vestager eine Richtlinie
vorlegen, die das Problem aufgreift. So könnte mit der Zeit eine
öffentliche Instanz zur Kontrolle der Algorithmen entstehen – ähnlich einer
Atomaufsicht oder einem Kartellamt. Ob das eine europäische
Digitalagentur oder ein Netzwerk nationaler Behörden sein wird, ist
offen.
Ebenso wenig einigen konnten sich die Parteien bei der Einstufung von
Systemen der künstlichen Intelligenz. „Die Definition von Risikoklassen
dient dazu, unterschiedliche Techniken im Hinblick auf potenzielle Gefahren
zu klassifizieren, die eventuell von ihnen ausgehen“, erklärt Soziologe
Florian Butollo, Sachverständiger der Linken in der Kommission.
Das wäre eine Basis, „Entwicklungen mit riskanten Auswirkungen auf die
Gesellschaft zu verhindern oder zu regulieren“. Als Beispiel nennt Butollo
Algorithmen, die Emotionen in Gesichtern erkennen. „Eine Einteilung in
Risikoklassen halten wir generell für sinnvoll“, sagt auch
Grünen-Kommissionsmitglied Anna Christmann. Während die Opposition die
Risikobewertung teilweise verpflichtend machen will, reicht der
Kommissionsmehrheit eine Sollregelung.
„Die Mehrheit wünscht sich quasi ein zweites Silicon Valley, damit
Deutschland global konkurrenzfähige KI-Systeme entwickelt und auf den Markt
bringt“, so Linke-Experte Butollo. „Uns geht es dagegen darum, künstliche
Intelligenz so einzusetzen, dass sie dem Gemeinwohl und der
sozialökologischen Transformation dient.“
25 Oct 2020
## LINKS
[1] https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki
[2] /Unfaelle-mit-kuenstlicher-Intelligenz/!5711704
## AUTOREN
Hannes Koch
## TAGS
Soziale Medien
Digitalisierung
Schwerpunkt Künstliche Intelligenz
Vernetzung
Ethik
Algorithmen
Schwerpunkt Rassismus
Bildende Kunst
Schwerpunkt Rassismus
## ARTIKEL ZUM THEMA
Künstliche Intelligenz im Alltag: Längst unter uns
Anwendungen künstlicher Intelligenz sind keine Science-Fiction, sondern
längst Alltag. Vier Beispiele aus ganz unterschiedlichen Bereichen.
Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig
Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren
Bericht vor. Konkreter wird ein anderer Report.
Unfälle mit künstlicher Intelligenz: Ein rechtlicher Flickenteppich
Künstliche Intelligenz ist nicht perfekt. Der tödliche Unfall durch ein
Roboterauto oder rassistische Diskriminierung erfordern strengere
Regulierung.
Kunst in Zeiten von Social Distancing: Wenn Roboter von der Liebe singen
Wie verhandeln neue Medien Gefühl und Sinnlichkeit? Wie rassistisch ist die
KI? Zwei Ausstellungen in Amsterdam und Basel geben Auskunft.
Dekolonialisierung von Algorithmen: Programmierter Rassismus
In KI-Systemen schlummern immer noch rassistische Vorurteile. Der Grund:
Auch künstliche Intelligenz wird von Menschen gemacht.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.