# taz.de -- Debatte um Künstliche Intelligenz: KI für alle | |
> Regulierungen müssen sicherstellen, dass vom KI-Einsatz nicht nur ein | |
> paar Unternehmen profitieren, sondern die ganze Gesellschaft. | |
Bild: Gut vernetzt – Mensch mit Maschine | |
Dubai führt ein System zur Gesichtserkennung im öffentlichen Nahverkehr | |
ein. In Japan hilft Roboterhund Aibo Menschen durch die Einsamkeit der | |
Coronazeit. Deutschland und Frankreich veröffentlichen eine gemeinsame | |
Förderrichtlinie zur Erforschung von Vorhaben im Bereich Künstlicher | |
Intelligenz. | |
Drei Meldungen aus der aktuellen Woche. Aus der Woche, in der die | |
[1][Enquetekommission Künstliche Intelligenz] des Bundestages das letzte | |
Mal tagte und am Mittwoch schließlich ihren Abschlussbericht an | |
Bundestagspräsident Wolfgang Schäuble (CDU) übergab. Drei Meldungen, die | |
ganz exemplarisch skizzieren, wie die Welt bezüglich der Künstlichen | |
Intelligenz (KI) aussieht: In den Industrieländern ist sie längst im | |
Einsatz. In einigen im Alltag präsenter, mit Roboterhunden, mit digitalen | |
Barkeeper:innen oder einem weitgehend von Robotern betriebenen Hotel, wie | |
in einem japanischen Vergnügungspark. Doch auch in Deutschland verwenden | |
Nutzer:innen [2][KI im Alltag]. Sie steckt etwa in Sprachassistenten wie | |
Siri oder Alexa. Sie ermöglicht die Bilderkennung in Onlinenetzwerken und | |
das automatische Optimieren von Fotos in Smartphones. Sie findet sich in | |
Einparkhilfen von Autos, in der Überwachung von Passant:innen, wie bei | |
einem Projekt am Berliner Fernbahnhof Südkreuz, und in medizinischen | |
Diagnosehilfen. | |
Dass KI-Anwendungen mittlerweile in der Praxis angekommen sind, haben auch | |
die Mitglieder der jeweils zur Hälfte mit Bundestagsabgeordneten und mit | |
externen Expert:innen besetzten Enquetekommission mitbekommen. Was | |
allerdings fehlt: Konsequenzen. Allen voran sperrte sich die Union gegen | |
klare Empfehlungen zur Regulierung von KI-Anwendungen. Dass solche in naher | |
Zukunft auf anderem Weg Eingang in den parlamentarischen Prozess finden | |
werden, ist eher unwahrscheinlich. Eine Fehlentscheidung, deren Folgen die | |
Gesellschaft spätestens in einigen Jahren zu spüren bekommen wird. | |
Denn auch wenn KI-Anwendungen längst im Alltag angekommen sind – | |
unumgänglich sind sie nicht, noch nicht. Und das betrifft beide Seiten: | |
Sowohl Verbraucher:innen und Bürger:innen als auch Unternehmen oder | |
Behörden, die die Anwendungen nutzen wollen, sind aktuell noch nicht auf | |
ihren Einsatz angewiesen. Medizin, Strafverfolgung, Haushalt – kein System | |
wird hierzulande zusammenbrechen, wenn KI strenger reguliert wird. Und das | |
ist eine Chance. Auch wenn seit mehr als 50 Jahren rund um KI geforscht | |
wird – lange ging es dabei um akademisch und technisch spannende, aber | |
praktisch ziemlich nutzlose Projekte. Doch jetzt befinden wir uns in der | |
Anfangsphase der Marktreife. Und die bietet die Möglichkeit, ein paar | |
Fragen zu stellen, zu diskutieren und im besten Fall als Gesellschaft einen | |
möglichst breit getragenen Ansatz für den Umgang mit KI zu finden, bevor | |
sie unverzichtbar wird. | |
Zum Beispiel: Was wollen wir überhaupt von KI? Was soll sie leisten? Wo | |
können und sollen wir Grenzen setzen? Wie sieht es aus in Sachen | |
Transparenz? Wer überprüft, ob eine KI das macht, was sie soll? Oder das, | |
was ihr Auftraggeber behauptet? Wer haftet, falls das nicht der Fall ist? | |
Wer haftet überhaupt? Wie lässt sich vermeiden, dass KI diskriminiert? Und | |
wie lässt sich das überprüfen? Wie gehen wir mit dem Datenhunger um, den | |
ein guter Teil der KI-Anwendungen mitbringt? Und dem Energiehunger? Und ist | |
KI überhaupt gleich KI? Wäre es nicht sinnvoll, eine KI, die Waldbrände | |
anhand von Satellitenbildern erkennen soll, anders zu behandeln als eine, | |
die entscheidet, ob Bewerber:innen zum Vorstellungsgespräch eingeladen | |
werden? | |
Stichwort Haftung. Ein Unternehmen programmiert die KI-Anwendung. Der | |
Autokonzern baut sie in sein selbstfahrendes Auto ein. Das verursacht einen | |
Unfall. Wer zahlt nun? Der Hersteller der Software? Oder der | |
Autohersteller? Oder eine Versicherung? Oder der:die Fahrer:in? Und, noch | |
komplizierter: Wie lässt sich überhaupt herausfinden, ob der Fehler in der | |
KI lag? Ist doch das Wesen dieser Anwendungen mitunter das, was als Black | |
Box bezeichnet wird: Was darin passiert, ist auch für die Entwickler:innen | |
längst nicht immer nachvollziehbar. | |
Stichwort Diskriminierung. Legendär ist das Beispiel von Seifenspendern, | |
deren Sensoren nur dann die Aufforderung zum Seifenspenden erkannten, wenn | |
eine weiße Person ihre Hand darunter hielt. Noch gravierender wird es, wenn | |
Algorithmen selbstfahrender Autos People of Color schlechter erkennen als | |
weiße Menschen. Oder: Ein selbstlernender Algorithmus bevorzugte bei der | |
Bewerberauswahl männliche Kandidaten – einfach deshalb, weil sich in der | |
Vergangenheit vorwiegend Männer beworben hatten. Anhand dieser | |
Trainingsdaten stufte die Software Männer damit als geeigneter ein. | |
Jüngstes Beispiel: Weil Schüler:innen in der Pandemie ihre | |
Abschlussarbeiten nicht schreiben konnten, errechnete in Großbritannien ein | |
Algorithmus die Schulabschlussnoten. Das Nachsehen hatten eigentlich gute | |
Schüler:innen von Schulen, bei denen die Ergebnisse der gesamten Schule in | |
der Vergangenheit unter dem Durchschnitt lagen. Deren durch den Algorithmus | |
errechnete Noten lagen deutlich unter denen, die ihre Lehrer:innen | |
vorhergesagt hatten. Auf öffentlichen Druck hin stoppte die britische | |
Regierung schließlich das Projekt. | |
Stichwort Transparenz. Automatisierte Entscheidungsfindung ist ein | |
beliebtes Gebiet von KI-Anwendungen. Ob es um den Tarif einer | |
Autoversicherung geht oder die Risikoeinstufung bei einem Kredit oder | |
darum, vorherzusagen, in welcher Region Wohnungseinbrüche zu erwarten sind. | |
Der aktuelle „Automating Society“-Report, den AlgorithmWatch und die | |
Bertelsmann-Stiftung passenderweise ebenfalls diese Woche veröffentlicht | |
haben, kommt zu dem Ergebnis: Transparent geht es bei der automatischen | |
Entscheidungsfindung selten zu. Schon bei der Einführung gebe es meist | |
keine breite gesellschaftliche Debatte. Symptomatisch dafür ist auch, dass | |
es die Enquetekommission Künstliche Intelligenz mit Transparenz nicht so | |
hatte. Die Vorträge waren zwar öffentlich, die – mutmaßlich weitaus | |
interessanteren – Diskussionen aber nicht. Dabei hätten genau die Anstöße | |
geben können zu einer allgemeinen Auseinandersetzung mit Künstlicher | |
Intelligenz. | |
Denn aktuell verläuft die gesellschaftliche Debatte in Deutschland analog | |
zur Debatte über Technologie allgemein. Diese ist entweder das große | |
Versprechen und die Lösung für alles. Oder aber eine riesige Bedrohung und | |
mindestens der erste Schritt in Richtung Auslöschung der Menschheit. Die | |
Realität liegt üblicherweise ungefähr in der Mitte. Entscheidend ist daher | |
die Umsetzung. Es spricht überhaupt nichts gegen einen Staubsaugerroboter, | |
der saugend lernt, wie die Wohnung zugeschnitten ist, wo er sinnvollerweise | |
häufiger entlangsaugen sollte, weil dort der Küchentisch steht, und wo es | |
seltener nötig ist. Es spricht aber etwas dagegen, dass derart gewonnene | |
Grundrisse und Kundendaten auf den Servern des Herstellers landen und | |
möglicherweise auch noch bei Drittanbietern. | |
Die genannten Beispiele sind nur ein kleiner Ausschnitt. Es sind die, die | |
erkannt und publik wurden, und es lässt sich vermuten, dass es dahinter ein | |
nennenswertes Dunkelfeld gibt. Die Konsequenz sollte klar sein: Es braucht | |
Regulierung. Und zwar dringend, klar und europaweit einheitlich. Denn was | |
passiert, wenn diese zu spät kommt, ist aktuell beispielsweise bei der | |
Plattformökonomie sichtbar und dabei, wie Facebook, Amazon oder Google | |
mit persönlichen Daten umgehen. Sinnvolle Regulierungsvorschläge gibt es | |
eine ganze Reihe: von einem Algorithmen-TÜV bis hin zu öffentlich | |
einsehbaren Registern, in denen die Bürger:innen nachschauen können, welche | |
Unternehmen oder Behörden für welche Zwecke auf algorithmische | |
Entscheidungsfindung setzen und welche Modelle dabei zum Einsatz kommen. so | |
geschaffene Transparenz würde gleichzeitig das Wissen über KI in der | |
Gesellschaft erweitern. Und sie würde neue Anreize für Bürger:innen | |
schaffen, sich mehr damit zu beschäftigen – über das Nutzen einer bunten | |
Oberfläche hinaus. | |
## Die Demokratie schneller machen | |
Denn ein Gegensatz lässt sich derzeit nicht auflösen: Im digitalen | |
Zeitalter gehen die Entwicklung von Geschäftsmodellen, neuen Technologien | |
und der Aufbau riesiger Datensammlungen schnell. Die Demokratie ist aber | |
immer noch so langsam wie in Zeiten, als Faxe als modern und Videotext als | |
fortschrittliche Art, sich zu informieren, galten. Die Demokratie schneller | |
zu machen, wäre sicher häufig wünschenswert, aber keine flächendeckende | |
Lösung. Was daher schneller sein muss: das Denken in der Demokratie. Und | |
hier sind wir wieder bei der Künstlichen Intelligenz: Regulierung zu einem | |
späteren Zeitpunkt zurückzunehmen oder abzuschwächen ist viel einfacher, | |
als sie zu verstärken. Denn dann schreit die Lobby der Unternehmen, die | |
schon Geschäftsmodelle auf der problematischen Basis aufgebaut haben. | |
Vermutlich wünschen sich Teile der Regierungskoalition, allen voran der | |
Union, insgeheim ein Silicon Valley in Deutschland. Dass das Facebook des | |
KI-Zeitalters aus Dresden kommt statt aus Menlo Park. Und scheuen daher | |
Regulierung. Aber der kapitalismuszentrierte KI-Ansatz mit | |
milliardenschweren Risikoinvestoren ist schon an die USA vergeben. Und der | |
staatliche Ansatz der digitalen Totalüberwachung an [3][China]. | |
Dass die EU und Deutschland nur mit einem eigenen, menschenfreundlichen | |
Ansatz punkten können, hat sich auch schon bis zur Enquetekommission | |
rumgesprochen. Doch es reicht nicht, ihn zu proklamieren. Man muss ihn auch | |
ausgestalten. Dabei sollte Technik immer so realisiert sein, dass nicht nur | |
bestimmte Gruppen – Wohlhabende, technisch Versierte oder anderweitig | |
Privilegierte – von ihr profitieren. Sondern die gesamte Gesellschaft. Das | |
mitzudenken ist die Basis, um das Zeitalter der Künstlichen Intelligenz auf | |
ethische, ökologische, soziale Weise zu realisieren. | |
1 Nov 2020 | |
## LINKS | |
[1] /Leben-mit-kuenstlicher-Intelligenz/!5724514&s=K%C3%BCnstliche+Intellig… | |
[2] /Kuenstliche-Intelligenz-im-Alltag/!5724515&s=K%C3%BCnstliche+Intellige… | |
[3] /Firma-Zhenhua-wertet-Social-Media-aus/!5715076&s=K%C3%BCnstliche+Intel… | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
künstliche Intelligenz | |
Internet der Dinge | |
Schwerpunkt Überwachung | |
Alexa | |
Wir retten die Welt | |
Schwerpunkt Facebook | |
Schwerpunkt Überwachung | |
künstliche Intelligenz | |
künstliche Intelligenz | |
künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Algorithmen bei Bilderkennung: Wenn die KI Beine zählt | |
Es gibt Dinge, die können Computer gut, aber Menschen nicht – und | |
umgekehrt. Das kann für Verwirrung sorgen. | |
Europäischer Aktionsplan für Demokratie: Werbung via Desinformation | |
Die EU-Kommission will mit einem Aktionsplan gegen Desinformation auf | |
Tech-Plattformen vorgehen. Besser wäre ein neues Geschäftsmodell. | |
Immobilienmarkt in US-Metropolen: 3 Zimmer, Küche, Gesichtserkennung | |
„Proptech“-Anwendungen, die Daten über Mieter*innen sammeln können, spitz… | |
die Lage auf dem prekären US-Immobilienmarkt nachhaltig zu. | |
Künstliche Intelligenz im Alltag: Längst unter uns | |
Anwendungen künstlicher Intelligenz sind keine Science-Fiction, sondern | |
längst Alltag. Vier Beispiele aus ganz unterschiedlichen Bereichen. | |
Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig | |
Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren | |
Bericht vor. Konkreter wird ein anderer Report. | |
KI-Einsatz in Deutschland: Firmen kaum künstlich intelligent | |
Eine Umfrage zeigt: Viele Firmen sind skeptisch, was den Nutzen künstlicher | |
Intelligenz angeht. Sie fordern verbindliche Regeln. |