Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz: Der drohende Daten-Kolonialismus
> Künstliche Intelligenz (KI) wird vielfach als Lösung für zahlreiche
> Probleme gepriesen. Doch die KI ist kein Allheilmittel, warnen Experten.
Bild: In der medizinischen Diagnostik können Algorithmen dazu beitragen, tomog…
Berlin taz | Die Spannung zwischen Gesellschaft und Technik, ihr Nutzen und
ihr Schaden, prägt derzeit vor allem die Auseinandersetzung um die
künstliche Intelligenz (KI). Nach einer Anfangsphase des unbeschwerten
Forschens, nur manchmal gestört durch technische Dystopien einer
Herrschaft der Rechenmaschinen, ist das Thema inzwischen in der Politik
angekommen. Aktuell diskutieren sowohl der Deutsche Bundestag als auch das
Europäische Parlament, welche Leitplanken und Begrenzungen der neuen
Technik gesetzt werden sollen – Stichwort „Ethische KI“. Wo dies nicht
geschieht, etwa in China mit seinem System des „Social Scoring“, werden
die Rechner zum politischen Überwachungsinstrument.
Eine gute Zusammenfassung der KI-Trends und der gesellschaftlichen Reaktion
gibt jetzt das [1][neue Jahrbuch „Technik im Gespräch: KI in der Praxis“
(pdf-Datei)], das vom Austrian Institute of Technology (AIT) regelmäßig zu
den [2][Alpbacher Technologiegesprächen] herausgegeben wird. „Angesichts
der planetarischen Gefahren und Herausforderungen brauchen wir dringend
entsprechende technologische Entwicklungen und Innovationen, um diese zu
bewältigen und weitere Gefahren abzuwehren – damit es nicht, wie Martin
Rees gemeint hat, unser letztes Jahrhundert wird“, erklärt Herausgeber
Hannes Androsch in seinem Vorwort.
In der Darstellung wird unterschieden zwischen der Anwendung von
KI-Methoden in bestimmten Domänen und für spezifische Fragestellungen
(„vertical AI“) und dem Einsatz von [3][Algorithmen,] die in vielen
Anwendungsbereichen einsetzbar sind („horizontal AI“).
Nach der Statistik gibt es in den USA derzeit 13.700 Organisationen
(Forschungsinstitute und Unternehmen), die sich mit KI beschäftigen. In
China sind es 11.400 und in der EU 5.900. Großbritannien wird mit 3.500
Organisationen gesondert geführt, während Japan mit 1.200 Organisationen
vergleichsweise wenig zu bieten hat. Im wirtschaftlichen Bereich werden
KI-Systeme vor allem zur Produktivitätssteigerung eingesetzt (49 Prozent
bei einer Befragung von 360 Unternehmen für die Studie [4][„Machine
Learning“ des INFORM DataLab]) vor Kostensenkung (46 Prozent) und besserer
Qualität (26).
## Einsatz im Pharmalabor
In der Pharmaforschung hilft KI bei der Entwicklung von neuen
Medikamenten, etwa gegen antibiotikaresistente Bakterien. So konnte ein
KI-System, das am Massachusetts Institute of Technology (MIT) mit
zahlreichen Strukturen von Biomolekülen sowie deren biologischer Wirkung
gefüttert wurde, eine chemische Struktur als potenziell wirksam
identifizieren, auf die die menschlichen Experten nie gekommen wären.
Versuche im Labor und in der Klinik führten dann zu einem völlig neuartigen
Antibiotikum, dessen Hauptsubstanz „Halicin“ getauft wurde – in Anlehnung
an „HAL“, den legendären Supercomputer mit menschlichen Empfindungen aus
dem Film „2001: Odyssee im Weltraum“.
Auch in Fachrichtungen, von denen man es nicht erwarten würde, hält KI
Einzug. So zum Beispiel im Spezialgebiet der Epigrafik des Altgriechischen,
das mit Texten auf Steinen und Gefäßen arbeitet. Von ihnen sind häufig nur
Fragmente über die Jahrtausende erhalten geblieben, die dann auch längere
Transporte hinter sich hatten. Ein internationales Forscherkonsortium hat
dafür die KI-Anwendung „Ithaca“ entwickelt, bei dem es sich um ein „tief…
neuronales Netzwerk“ handelt, das die gleichzeitige textliche
Restaurierung, geografische Zuordnung und chronologische Zuweisung von
altgriechischen Inschriften ermöglicht.
Sein Wissen schöpft Ithaca aus der Auswertung von 78.000 Inschriften, die
mit Metadaten über den Ort (84 Regionen) und die Zeit ihrer Anfertigung
(zwischen 800 vor und 800 nach Christus) verknüpft wurden. Bei Eingabe
neuer Text-Fragmente schlägt Ithaca eine Ergänzung der fehlenden Zeichen,
einen Entstehungsort und eine Entstehungszeit vor. Nach den bisherigen
Erfahrungen arbeitet das KI-System bei der Standortzuordnung mit einer
Genauigkeit von 71 Prozent und beim Entstehungszeitpunkt der Texte mit
einer Bandbreite von weniger als 30 Jahren. Auf diese Weise können
Schlüsseltexte des klassischen Griechenlands neu gelesen und datiert
werden.
Aber es gibt auch Grenzen für den Einsatz von KI. „Man sollte nicht jede
neue Methode als Allheilmittel betrachten“, gießt Andreas Kugi, Professor
für komplexe dynamische Systeme an der TU Wien, ein wenig Wasser in den
Wein des Technikoptimismus. „Bei Automatisierungslösungen bin ich kein
Vertreter des starken End-to-End-Learnings, bei dem man vorne Daten
hineinfüttert und erwartet, dass man am Ausgang alles herausbekommt, was
man möchte“, gibt er Erfahrungen aus seinem Institut für Automatisierungs-
und Regelungstechnik wieder.
„Unser Ansatz besteht eher darin, dass wir möglichst viel A-priori-Wissen
und spezifisches Domänen-Wissen in den Lernprozess mit einfließen lassen.“
Konkret bedeutet das, die klassischen Automatisierungsmethoden mit
physikalisch basierten, mathematischen Modellen und modernen Methoden des
maschinellen Lernens zu kombinieren. Auf diese Weise lasse sich etwa die
Bewegung eines Roboters optimieren. Während die Gelenksgeschwindigkeiten
des stählernen Arbeiters vorprogrammiert sind, bleiben nach den Worten von
Kugi „für die Modellierung der Umgebung aber moderne Verfahren des
maschinellen Lernens unabdingbar“.
Die maschinelle „Intelligenz“ kann aber auch ausgesprochen dumm sein. Das
führte in den USA zu einer heftigen [5][Debatte über Diskriminierung durch
KI.] Nachdem es Berichte über Fehlleistungen von KI-Systemen – etwa in
sexistischen Jobeinstellungspraktiken oder rassistischen Polizeiaktionen –
gab, stellte sich heraus, dass die Trainingsdaten für solche KI-Systeme
systematisch verzerrt waren. Sie wurden überwiegend optimiert mit den Daten
von weißen Männern, eben der Gruppe der IT-Programmierer, während Frauen
und People of Color in dieser berechneten KI-Gesellschaft nur randständig
vorkamen.
„Die Unterrepräsentation von Frauen und People of Color in der Technologie
und die Untererfassung dieser Gruppen in den Daten, die die KI formen, hat
zur Entwicklung von Technologien geführt, die für einen kleinen Teil der
Welt optimiert sind“, kritisierte die amerikanische Aktivistin Joy
Buolamwini im Namen der von ihr gegründeten [6][„Algorithmic Justice
League“].
Inzwischen dreht sich die internationale Diskussion weiter und greift
Vorwürfe eines „neuen Kolonialismus“ auf. In den Augen dieser Kritiker
wiederholen sich in der aktuellen, vor allem von großen Datenkonzernen
getriebenen Entwicklung der KI die „Muster aus dem historischen
Kolonialismus“. Sprich: die Dominanz westlicher Industrieländer über den
Globalen Süden. Konkret reiche dieser negative Einfluss „von der Ausbeutung
von Arbeitskräften bis hin zur massenhaften Extraktion von Daten aus
Ländern mit schwachem Datenschutz“, so die Kritiker.
Auf der Website der MIT Technology Review wurden zahlreiche konkrete
Beispiele dafür angeführt, die das Alpbach-Jahrbuch zusammenfasst:
„Beginnend bei der Rekrutierung von Fachkräften durch
US-Daten-Labelling-Firmen zu minimalsten Löhnen im krisengeschüttelten
Venezuela bis hin zu einer neuen digitalen sozialen Kluft zwischen Weiß und
Schwarz in Südafrika (digital apartheid)“.
Eine bessere Welt durch KI? So einfach dürfte es wahrscheinlich nicht
werden. Denn viele gesellschaftliche Konflikte und Problemlagen lassen sich
nicht mit verbesserter Rechnerei beilegen.
3 Oct 2022
## LINKS
[1] https://www.ait.ac.at/fileadmin/cmc/downloads/News/efatec22/TG2022-Book-165…
[2] /Ressourcenschutz-ausweiten/!5875199
[3] /Verbraucherschuetzerin-ueber-Digital-Gesetze/!5826301
[4] https://info.inform-datalab.de/machine-learning-studie?utm_term=studie%20ma…
[5] /Gesichtserkennung-in-der-Kritik/!5547535
[6] https://www.ajl.org/
## AUTOREN
Manfred Ronzheimer
## TAGS
Schwerpunkt Rassismus
Diskriminierung
Digitalisierung
Algorithmen
Schwerpunkt Künstliche Intelligenz
Unternehmen
Bot
Datenschutzabkommen
Algorithmen
Lesestück Recherche und Reportage
Pentagon
## ARTIKEL ZUM THEMA
Künstliche Intelligenz: Faktenfreiheit zum Mitnehmen, bitte
Algorithmen und Moral haben auf den ersten Blick wenig gemeinsam. Doch der
gehypte Chatbot GPT zeigt, wie gefährlich es ist, die Ethik zu vergessen.
Künstliche Intelligenz via ChatGPT: Alles verändert?
Eine KI, die für uns Texte schreibt? Klingt toll. Und ist inzwischen
Wirklichkeit. ChatGPT ist lustig, eloquent – und gefährlich.
Datenschutzabkommen zwischen EU und USA: Kalkuliertes Scheitern
Washington und Brüssel verhandeln darüber, wie viele Daten US-Plattformen
aus Europa sammeln dürfen. Die Nutzer:innenrechte? Nebensache.
Automatisierung im Alltag: Rettet Künstliche Intelligenz die Welt?
Die Bundesregierung hat sich zur Künstlichen Intelligenz viel vorgenommen.
Nun startet der Digitalgipfel.
Gesichtserkennung in der Kritik: Diskriminierende Algorithmen
KI-Programme erobern immer mehr Bereiche unseres Lebens. In der Regel
wissen wir nicht, nach welchen Kriterien sie Entscheidungen treffen.
Nachruf auf Marvin Minsky: Der Uropa künstlicher Intelligenz
Vom menschlichen Verstand hielt er nicht viel. Marvin Minsky brachte
Maschinen das Lernen bei – und wurde zum Wegbereiter künstlicher
Intelligenz.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.