Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Lernende Maschinen: Entscheiden muss der Mensch
> Noch kratzen Forscher:innen bei der Künstlichen Intelligenz an der
> Oberfläche. Vieles ist bisher nur Wunsch und Utopie.
Bild: Erste Anwendungen aus der Welt des Maschinellen Lernens sind bereits im A…
[1][Elon Musk] ist nicht nur ein geschäftstüchtiger Pionier in der
Autoindustrie. Er hat auch Visionen im Bereich der Künstlichen Intelligenz
(KI). 2016 gründete er das Neurotechnologie-Unternehmen Neuralink
mit dem Ziel, die Vernetzung von menschlichem Gehirn und Computer
entscheidend voranzutreiben. Das Unternehmen wirbt mit Neuroprothesen, die
es ermöglichen sollen, mittels im Gehirn implantierter Elektroden etwa
Symptome der Parkinson- oder Alzheimer-Krankheit zu lindern. Am Ende jedoch
steht Musks Idee einer posthumanistischen Verschmelzung von Mensch und
Maschine.
Nicht alles, was sich selbst ernannte Utopisten ausdenken, ist derzeit auch
schon machbar. Deepart, eine Plattform für kreative Bildintelligenz, oder
die selbst trainierende Spieleplattform AlphaZero, mit der man beim
Go-Spiel inzwischen als Verlierer hervorgehen kann, weisen zwar in eine
spielerisch-leichtsinnige Zukunft, aber noch, sagt der Tübinger Spezialist
für Adaptive Intelligenz, Matthias Bethge, funktioniere das maschinelle
Lernen weitgehend nach dem Prinzip Input-Output. Bisher seien Maschinen
nicht in der Lage, eigenständig Modelle zu bilden, also eben das, was
wissensbasierte Intelligenz ausmacht.
Doch schon der Begriff Intelligenz wirft eine Menge Fragen auf, wie Ende
Februar eine Anhörung des Deutschen Ethikrats zum Thema „Künstliche
Intelligenz und Mensch-Maschinen-Schnittstelle“ erkundete. Bethge
umschreibt sie als Fähigkeit, erfahrungsgesättigt mit Situationen
umzugehen, die sich von anderen unterscheiden und daraus Generalisierungen
abzuleiten.
So gesehen ist eine intelligente Maschine zwar in der Lage, Muster zu
erkennen und neu zu komponieren, jedoch ohne tieferes Verständnis dessen,
was sie hervorbringt. Kreativität und Empathie, aber auch „divergentes“,
querständiges Denken als exklusiver „Überschuss“ menschlicher Intelligenz
sind die immer wieder umkreisten abgrenzenden Begriffe.
Die in Tübingen lehrende Informatikerin Ulrike von Luxburg spricht deshalb
vorläufig auch lieber nur von Maschinellem Lernen als von KI und bricht das
Vorhaben auf eine Bastelwerkstatt herunter: große Datenmengen plus
Optimierung und Statistik, „nichts Mysteriöses, jeder kann es, der mal
Informatik studiert hat“.
## Abgreifen der Gehirnaktivitäten
Erholsames Understatement war überhaupt ein Grundzug dieser ausgesprochen
selbstreflexiven und kritischen Expert:innenrunde. Die Bremer
Informatikerin Tanja Schultz etwa, die auf dem Feld akustischer Signale
arbeitet, führte sehr anschaulich in die aktuellen Entwicklungen kognitiver
Systeme ein. Mittlerweile demonstrieren uns die
[2][Amazon-Spracherkennungs-App Alexa] oder das Apple-Pendant Siri im
täglichen Alltag, wie mühelos Maschinen durch integrierte, teilweise schon
unter die Haut implantierbare Kleinstmikrofone Sprache erkennen und
verarbeiten. Überraschend und auch verstörend ist jedoch die sich
abzeichnende Möglichkeit, durch die [3][Abbildung von Gehirnaktivitäten]
„lautlose“, also im Gehirn gebildete Sprache zu „übersetzen“. „Wir k…
dem Gehirn beim Sprechen zuschauen“, so Tanja Schultz. Wie lange sind dann
die Gedanken noch frei?
In faszinierenden Gehirnwindungen ist auch der Magdeburger
Neurowissenschaftler Stefan Remy unterwegs. Der Flaschenhals der
Hirnforschung seien heutzutage nicht mehr die Daten, sondern das Aufspüren
und die Identifizierung von verborgenen Datenstrukturen im Gehirn, die uns
das Denken ermöglichen und unser Gedächtnis ordnen. „Wir kratzen dabei noch
ganz an der Oberfläche“, erklärt er demütig und setzt sich explizit von den
Human Enhancement-Projekten eines Elon Musk ab.
Remy sieht die Gefahr, dass die möglichen medizinischen
Einsatzmöglichkeiten des Computer Brain Interface technologische
Entwicklungen rechtfertigen, die nur einer Nutzerschicht zugute kämen. Jede
Intervention in die Plastizität des Gehirns berge jedoch die Gefahr nicht
auslotbarer Veränderungen.
Das medizinische Potenzial dieser Forschung ist andererseits
elektrisierend, wie die diesbezüglichen Nachfragen des Altersforschers und
Ethikrats Andreas Kruse zeigten. Könnte man mittels derartiger
Interventionen nicht Ordnung in die Gedächtniswelt von Alzheimer-Patienten
bringen oder durch Tiefenstimulation bewegungsgestörten Menschen helfen?
Die Anwendungsgebiete sind vielfältig und könnten das Leben von
Betroffenen, Angehörigen und Pfleger:innen erleichtern, etwa, wenn
dadurch eine bessere Kommunikation möglich werden kann. Doch was, wenn
intelligente Maschinen Entscheidungen übernehmen, etwa ob ein Straffälliger
aus der Haft entlassen oder ein Kredit vergeben wird? Können sie moralisch
entscheiden?
Die Philosophin Janina Loh hat in ihrem Buch „Roboterethik“ nachdrücklich
auf die Herausforderungen beim Bau von Robotern aufmerksam gemacht und die
Vorgängigkeit der menschlichen Bewertungen und auf Vorurteile, die in die
Systeme eingehen, hingewiesen.
Die Bias, also die kognitiven Verzerrungen von KI-Systemen, bringt auch
Luxburg in Anschlag. „KI ist nicht neutral, und es gibt keine technischen
Lösungen, die die Biases korrigieren könnten.“ Neben der Fairness, etwa bei
den oben genannten Vorentscheidungen, stellt sich für Luxburg auch das
Problem der Erklärbarkeit, denn beim Maschinellen Lernen handle es sich um
eine Black Box.
## Wer ist verantwortlich?
Loh erklärt das am Beispiel des [4][autonomen Fahrens]: Warum sollte ein
System sich nicht dafür entscheiden können, gegen eine Wand zu fahren? Im
menschlichen Kontext nennt man das Probehandeln, mit der immer inhärenten
Möglichkeit, Fehler zu machen. Aber wie ist das bei einer lernfähigen
Maschine? Ist sie verantwortlich für das, was sie tut?
Keinen Zweifel lassen die Befragten aber daran, dass nicht die Künstliche
Intelligenz, sondern der Mensch der Schlüssel für die künftige
Entwicklungen ist. „Wie wollen wir den Weg weiter gestalten, wenn Facebook
und Google die Entwicklung weiter in der Hand hat?“, gibt Schultz zu
bedenken und konstatiert: „Wir haben schon viel Boden verloren.“
Luxburg findet es dabei weniger wichtig, „wie die Ethik in die KI kommt“,
sondern dass wir für ausreichend Transparenz und angemessene Regulierungen
sorgen. Wenn sie an autonome Waffen, Überwachung oder Polizeiarbeit denke,
so ihr Auftakt, drehe sich ihr persönlich der Magen um.
Und Bethge wiederholt mehrmals seine Hoffnung, dass sich nicht der Mensch
an die Maschine anzupassen habe, sondern diese umgekehrt an Natur, Umwelt
und Mensch. Die Welt, die wir erfinden wollen, müsse auch in Afrika Bestand
haben. Der Kontinent sei mittels KI-Technologien in einen Zustand zu
versetzen, der die Menschen ermutige, dort zu bleiben.
Im Silicon Valley, wo Elon Musk und die vielen anderen Brain-Visionäre
unterwegs sind, geht es allerdings um ein ganz anderes Projekt, die
Optimierung und perspektivisch unendliche Ausweitung der Lebenszeit der
Privilegierten, und um die Kontrolle all der anderen, die mittels
Künstlicher Intelligenz besser arbeiten und mehr konsumieren sollen.
20 Mar 2021
## LINKS
[1] /Tesla-in-Brandenburg/!5747448
[2] /Musik-fuer-computergesteuerte-Maschinen/!5735754
[3] /Hirnforscher-ueber-das-Gedankenlesen/!5529523
[4] /Verbraucherschuetzerin-ueber-vernetzte-Pkw/!5755748
## AUTOREN
Ulrike Baureithel
## TAGS
Roboter
Algorithmen
Schwerpunkt Künstliche Intelligenz
Software
Schwerpunkt Künstliche Intelligenz
Neurologie
IG
Zeitgenössischer Tanz
Schwerpunkt Rassismus
Digital
Elon Musk
Dystopie
Afrika
Schwerpunkt Coronavirus
## ARTIKEL ZUM THEMA
Neuropsychologin über Gehirne und Computer: Signale aus der Schaltzentrale
Schnittstellen zwischen Computern und Gehirnen sind möglich, aber
kompliziert. Stefanie Enriquez-Geppert erklärt, wie das geht und wann es
hilfreich ist.
Gehirn-Computer-Schnittstellen: Der dritte Daumen
Alle Hände voll zu tun? Brain-Computer-Interfaces ermöglichen es,
zusätzliche Körperteile zu schaffen. Dabei stellen sich auch ethische
Fragen.
Cyberphilosophie mit Haustier: Wann ist ein Hund ein Hund?
Ein Roboter als Haustier? In der Welt der künstlichen Intelligenz stellen
sich die großen Fragen nach Wesen, Willen und Bewusstsein noch mal neu.
Künstliche Intelligenz in der Kunst: Tanzen nach Zahlen
Wenn Künstliche Intelligenz die Schritte lenkt: Die Choreografie für das
Stück „Deep Dance“ stammt von einem neuronalen Netzwerk.
Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen
Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von
männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.
EU-Pläne für Künstliche Intelligenz: KI soll nicht ausspähen
Menschliches Verhalten soll unangetastet bleiben, Massenüberwachung
ausgeschlossen sein: Die Kommission hat ihren Gesetzesvorschlag zur KI
vorgelegt.
Elon Musk vs. Bernie Sanders: Krieg der Sterne
US-Senator Bernie Sanders kritisiert Elon Musk auf Twitter scharf. Während
Musk vom Weltraum träumt, will Sanders die Probleme auf der Erde angehen.
Roman über Künstliche Intelligenz: Fehler im System
Der Supercomputer ist das Menschlichste, was wir haben. Raphaela Edelbauer
donnert in ihrer KI-Dystopie „Dave“ los wie bei „2001“ von Stanley Kubr…
KI-Konzeptalbum von Mouse On Mars: Humanismus kickt die Klangelemente
Das Weltall sind wir: Das Berliner-Elektronikduo Mouse On Mars macht mit
seinem neuen Album „AAI“ Künstliche Intelligenz zur Anarcho-Utopie.
Künstliche Intelligenz als Warnsytem: Den Coronatod verhindern
Ein selbstlernendes System soll frühzeitig Alarm geben, wenn droht, dass
ein Patient stirbt. Der Arzt kann dann schnell handeln.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.