Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Debatte um Künstliche Intelligenz: KI für alle
> Regulierungen müssen sicherstellen, dass vom KI-Einsatz nicht nur ein
> paar Unternehmen profitieren, sondern die ganze Gesellschaft.
Bild: Gut vernetzt – Mensch mit Maschine
Dubai führt ein System zur Gesichtserkennung im öffentlichen Nahverkehr
ein. In Japan hilft Roboterhund Aibo Menschen durch die Einsamkeit der
Coronazeit. Deutschland und Frankreich veröffentlichen eine gemeinsame
Förderrichtlinie zur Erforschung von Vorhaben im Bereich Künstlicher
Intelligenz.
Drei Meldungen aus der aktuellen Woche. Aus der Woche, in der die
[1][Enquetekommission Künstliche Intelligenz] des Bundestages das letzte
Mal tagte und am Mittwoch schließlich ihren Abschlussbericht an
Bundestagspräsident Wolfgang Schäuble (CDU) übergab. Drei Meldungen, die
ganz exemplarisch skizzieren, wie die Welt bezüglich der Künstlichen
Intelligenz (KI) aussieht: In den Industrieländern ist sie längst im
Einsatz. In einigen im Alltag präsenter, mit Roboterhunden, mit digitalen
Barkeeper:innen oder einem weitgehend von Robotern betriebenen Hotel, wie
in einem japanischen Vergnügungspark. Doch auch in Deutschland verwenden
Nutzer:innen [2][KI im Alltag]. Sie steckt etwa in Sprachassistenten wie
Siri oder Alexa. Sie ermöglicht die Bilderkennung in Onlinenetzwerken und
das automatische Optimieren von Fotos in Smartphones. Sie findet sich in
Einparkhilfen von Autos, in der Überwachung von Passant:innen, wie bei
einem Projekt am Berliner Fernbahnhof Südkreuz, und in medizinischen
Diagnosehilfen.
Dass KI-Anwendungen mittlerweile in der Praxis angekommen sind, haben auch
die Mitglieder der jeweils zur Hälfte mit Bundestagsabgeordneten und mit
externen Expert:innen besetzten Enquetekommission mitbekommen. Was
allerdings fehlt: Konsequenzen. Allen voran sperrte sich die Union gegen
klare Empfehlungen zur Regulierung von KI-Anwendungen. Dass solche in naher
Zukunft auf anderem Weg Eingang in den parlamentarischen Prozess finden
werden, ist eher unwahrscheinlich. Eine Fehlentscheidung, deren Folgen die
Gesellschaft spätestens in einigen Jahren zu spüren bekommen wird.
Denn auch wenn KI-Anwendungen längst im Alltag angekommen sind –
unumgänglich sind sie nicht, noch nicht. Und das betrifft beide Seiten:
Sowohl Verbraucher:innen und Bürger:innen als auch Unternehmen oder
Behörden, die die Anwendungen nutzen wollen, sind aktuell noch nicht auf
ihren Einsatz angewiesen. Medizin, Strafverfolgung, Haushalt – kein System
wird hierzulande zusammenbrechen, wenn KI strenger reguliert wird. Und das
ist eine Chance. Auch wenn seit mehr als 50 Jahren rund um KI geforscht
wird – lange ging es dabei um akademisch und technisch spannende, aber
praktisch ziemlich nutzlose Projekte. Doch jetzt befinden wir uns in der
Anfangsphase der Marktreife. Und die bietet die Möglichkeit, ein paar
Fragen zu stellen, zu diskutieren und im besten Fall als Gesellschaft einen
möglichst breit getragenen Ansatz für den Umgang mit KI zu finden, bevor
sie unverzichtbar wird.
Zum Beispiel: Was wollen wir überhaupt von KI? Was soll sie leisten? Wo
können und sollen wir Grenzen setzen? Wie sieht es aus in Sachen
Transparenz? Wer überprüft, ob eine KI das macht, was sie soll? Oder das,
was ihr Auftraggeber behauptet? Wer haftet, falls das nicht der Fall ist?
Wer haftet überhaupt? Wie lässt sich vermeiden, dass KI diskriminiert? Und
wie lässt sich das überprüfen? Wie gehen wir mit dem Datenhunger um, den
ein guter Teil der KI-Anwendungen mitbringt? Und dem Energiehunger? Und ist
KI überhaupt gleich KI? Wäre es nicht sinnvoll, eine KI, die Waldbrände
anhand von Satellitenbildern erkennen soll, anders zu behandeln als eine,
die entscheidet, ob Bewerber:innen zum Vorstellungsgespräch eingeladen
werden?
Stichwort Haftung. Ein Unternehmen programmiert die KI-Anwendung. Der
Autokonzern baut sie in sein selbstfahrendes Auto ein. Das verursacht einen
Unfall. Wer zahlt nun? Der Hersteller der Software? Oder der
Autohersteller? Oder eine Versicherung? Oder der:die Fahrer:in? Und, noch
komplizierter: Wie lässt sich überhaupt herausfinden, ob der Fehler in der
KI lag? Ist doch das Wesen dieser Anwendungen mitunter das, was als Black
Box bezeichnet wird: Was darin passiert, ist auch für die Entwickler:innen
längst nicht immer nachvollziehbar.
Stichwort Diskriminierung. Legendär ist das Beispiel von Seifenspendern,
deren Sensoren nur dann die Aufforderung zum Seifenspenden erkannten, wenn
eine weiße Person ihre Hand darunter hielt. Noch gravierender wird es, wenn
Algorithmen selbstfahrender Autos People of Color schlechter erkennen als
weiße Menschen. Oder: Ein selbstlernender Algorithmus bevorzugte bei der
Bewerberauswahl männliche Kandidaten – einfach deshalb, weil sich in der
Vergangenheit vorwiegend Männer beworben hatten. Anhand dieser
Trainingsdaten stufte die Software Männer damit als geeigneter ein.
Jüngstes Beispiel: Weil Schüler:innen in der Pandemie ihre
Abschlussarbeiten nicht schreiben konnten, errechnete in Großbritannien ein
Algorithmus die Schulabschlussnoten. Das Nachsehen hatten eigentlich gute
Schüler:innen von Schulen, bei denen die Ergebnisse der gesamten Schule in
der Vergangenheit unter dem Durchschnitt lagen. Deren durch den Algorithmus
errechnete Noten lagen deutlich unter denen, die ihre Lehrer:innen
vorhergesagt hatten. Auf öffentlichen Druck hin stoppte die britische
Regierung schließlich das Projekt.
Stichwort Transparenz. Automatisierte Entscheidungsfindung ist ein
beliebtes Gebiet von KI-Anwendungen. Ob es um den Tarif einer
Autoversicherung geht oder die Risikoeinstufung bei einem Kredit oder
darum, vorherzusagen, in welcher Region Wohnungseinbrüche zu erwarten sind.
Der aktuelle „Automating Society“-Report, den AlgorithmWatch und die
Bertelsmann-Stiftung passenderweise ebenfalls diese Woche veröffentlicht
haben, kommt zu dem Ergebnis: Transparent geht es bei der automatischen
Entscheidungsfindung selten zu. Schon bei der Einführung gebe es meist
keine breite gesellschaftliche Debatte. Symptomatisch dafür ist auch, dass
es die Enquetekommission Künstliche Intelligenz mit Transparenz nicht so
hatte. Die Vorträge waren zwar öffentlich, die – mutmaßlich weitaus
interessanteren – Diskussionen aber nicht. Dabei hätten genau die Anstöße
geben können zu einer allgemeinen Auseinandersetzung mit Künstlicher
Intelligenz.
Denn aktuell verläuft die gesellschaftliche Debatte in Deutschland analog
zur Debatte über Technologie allgemein. Diese ist entweder das große
Versprechen und die Lösung für alles. Oder aber eine riesige Bedrohung und
mindestens der erste Schritt in Richtung Auslöschung der Menschheit. Die
Realität liegt üblicherweise ungefähr in der Mitte. Entscheidend ist daher
die Umsetzung. Es spricht überhaupt nichts gegen einen Staubsaugerroboter,
der saugend lernt, wie die Wohnung zugeschnitten ist, wo er sinnvollerweise
häufiger entlangsaugen sollte, weil dort der Küchentisch steht, und wo es
seltener nötig ist. Es spricht aber etwas dagegen, dass derart gewonnene
Grundrisse und Kundendaten auf den Servern des Herstellers landen und
möglicherweise auch noch bei Drittanbietern.
Die genannten Beispiele sind nur ein kleiner Ausschnitt. Es sind die, die
erkannt und publik wurden, und es lässt sich vermuten, dass es dahinter ein
nennenswertes Dunkelfeld gibt. Die Konsequenz sollte klar sein: Es braucht
Regulierung. Und zwar dringend, klar und europaweit einheitlich. Denn was
passiert, wenn diese zu spät kommt, ist aktuell beispielsweise bei der
Plattformökonomie sichtbar und dabei, wie Facebook, Amazon oder Google
mit persönlichen Daten umgehen. Sinnvolle Regulierungsvorschläge gibt es
eine ganze Reihe: von einem Algorithmen-TÜV bis hin zu öffentlich
einsehbaren Registern, in denen die Bürger:innen nachschauen können, welche
Unternehmen oder Behörden für welche Zwecke auf algorithmische
Entscheidungsfindung setzen und welche Modelle dabei zum Einsatz kommen. so
geschaffene Transparenz würde gleichzeitig das Wissen über KI in der
Gesellschaft erweitern. Und sie würde neue Anreize für Bürger:innen
schaffen, sich mehr damit zu beschäftigen – über das Nutzen einer bunten
Oberfläche hinaus.
## Die Demokratie schneller machen
Denn ein Gegensatz lässt sich derzeit nicht auflösen: Im digitalen
Zeitalter gehen die Entwicklung von Geschäftsmodellen, neuen Technologien
und der Aufbau riesiger Datensammlungen schnell. Die Demokratie ist aber
immer noch so langsam wie in Zeiten, als Faxe als modern und Videotext als
fortschrittliche Art, sich zu informieren, galten. Die Demokratie schneller
zu machen, wäre sicher häufig wünschenswert, aber keine flächendeckende
Lösung. Was daher schneller sein muss: das Denken in der Demokratie. Und
hier sind wir wieder bei der Künstlichen Intelligenz: Regulierung zu einem
späteren Zeitpunkt zurückzunehmen oder abzuschwächen ist viel einfacher,
als sie zu verstärken. Denn dann schreit die Lobby der Unternehmen, die
schon Geschäftsmodelle auf der problematischen Basis aufgebaut haben.
Vermutlich wünschen sich Teile der Regierungskoalition, allen voran der
Union, insgeheim ein Silicon Valley in Deutschland. Dass das Facebook des
KI-Zeitalters aus Dresden kommt statt aus Menlo Park. Und scheuen daher
Regulierung. Aber der kapitalismuszentrierte KI-Ansatz mit
milliardenschweren Risikoinvestoren ist schon an die USA vergeben. Und der
staatliche Ansatz der digitalen Totalüberwachung an [3][China].
Dass die EU und Deutschland nur mit einem eigenen, menschenfreundlichen
Ansatz punkten können, hat sich auch schon bis zur Enquetekommission
rumgesprochen. Doch es reicht nicht, ihn zu proklamieren. Man muss ihn auch
ausgestalten. Dabei sollte Technik immer so realisiert sein, dass nicht nur
bestimmte Gruppen – Wohlhabende, technisch Versierte oder anderweitig
Privilegierte – von ihr profitieren. Sondern die gesamte Gesellschaft. Das
mitzudenken ist die Basis, um das Zeitalter der Künstlichen Intelligenz auf
ethische, ökologische, soziale Weise zu realisieren.
1 Nov 2020
## LINKS
[1] /Leben-mit-kuenstlicher-Intelligenz/!5724514&s=K%C3%BCnstliche+Intellig…
[2] /Kuenstliche-Intelligenz-im-Alltag/!5724515&s=K%C3%BCnstliche+Intellige…
[3] /Firma-Zhenhua-wertet-Social-Media-aus/!5715076&s=K%C3%BCnstliche+Intel…
## AUTOREN
Svenja Bergt
## TAGS
Alexa
Schwerpunkt Überwachung
Internet der Dinge
Schwerpunkt Künstliche Intelligenz
Wir retten die Welt
Schwerpunkt Meta
Schwerpunkt Überwachung
Ethik
Algorithmen
Digitalisierung
## ARTIKEL ZUM THEMA
Algorithmen bei Bilderkennung: Wenn die KI Beine zählt
Es gibt Dinge, die können Computer gut, aber Menschen nicht – und
umgekehrt. Das kann für Verwirrung sorgen.
Europäischer Aktionsplan für Demokratie: Werbung via Desinformation
Die EU-Kommission will mit einem Aktionsplan gegen Desinformation auf
Tech-Plattformen vorgehen. Besser wäre ein neues Geschäftsmodell.
Immobilienmarkt in US-Metropolen: 3 Zimmer, Küche, Gesichtserkennung
„Proptech“-Anwendungen, die Daten über Mieter*innen sammeln können, spitz…
die Lage auf dem prekären US-Immobilienmarkt nachhaltig zu.
Künstliche Intelligenz im Alltag: Längst unter uns
Anwendungen künstlicher Intelligenz sind keine Science-Fiction, sondern
längst Alltag. Vier Beispiele aus ganz unterschiedlichen Bereichen.
Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig
Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren
Bericht vor. Konkreter wird ein anderer Report.
KI-Einsatz in Deutschland: Firmen kaum künstlich intelligent
Eine Umfrage zeigt: Viele Firmen sind skeptisch, was den Nutzen künstlicher
Intelligenz angeht. Sie fordern verbindliche Regeln.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.