Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Philosoph über Digitalisierung: „Algorithmen sind gefährlich“
> Der Philosoph Luciano Floridi warnt: Wir passen unser Leben zu sehr der
> digitalen Welt an – und verlieren die Freiheit, die Gesellschaft zu
> verändern.
Bild: Der digitale schaut auf den analogen Menschen herab
taz: Herr Floridi, in Ihrem jüngsten Buch „Die 4. Revolution“ vergleichen
Sie die Revolution, die die Computertechnologie ausgelöst hat, mit der von
Kopernikus, Darwin und Freud. Warum halten Sie das für so wichtig?
Luciano Floridi: Vor 20 Jahren ist die digitale Revolution, die
Computerrevolution, als rein technologische beschrieben worden. Es ging um
die tollen Dinge, die wir tun können – schneller, besser, mehr, anders. Sie
wurde verglichen mit der Revolution, die das Rad oder der Buchdruck
ausgelöst haben. Das Internet wurde als Massenmedium missverstanden.
Und worum geht es eigentlich?
Unser Selbstverständnis verändert sich. Wir verbringen den größten Teil
unseres Lebens in einer Umwelt, die von Technologie erschaffen wurde – man
lebt zwar nicht in Massenmedien, aber online. Wir müssen darüber reden, wie
diese neue informationelle Gesellschaft gestaltet werden soll.
Sie haben auf der re:publica am Montag mit Edward Snowden diskutiert. Ist
er nicht das perfekte Beispiel für ein Leben, das untrennbar verknüpft ist
mit Informationstechnologie?
Ganz sicher. Snowden hat den Übergang vom Analogen ins Digitale bereits
komplett vollzogen. Er gehört zur neuen Stufe der Zivilisation: der
digitalen.
Was ist mit denen, die keinen Zugang zum Internet haben?
Es gibt diesen digitalen Graben – der die Menschen, die in dieser
Infosphäre leben, von denen trennt, die draußen bleiben. Aber das Leben von
denen außerhalb ist stark beeinflusst von dem auf der anderen Seite der
Welt. Welche Rolle das spielen kann, sehen Sie zum Beispiel in Indien, wo
Facebook das Internet halb gratis raushauen wollte – und die Regierung das
abgelehnt hat, wegen mangelnder Netzneutralität. Hier geht es darum, wer
Gatekeeper für Informationen in unseren Gesellschaften sein soll. Die, die
drinnen sind, bestimmen über das Leben derer, die es nicht sind.
In den letzten Jahren gab es im Bereich der künstlichen Intelligenz große
Fortschritte – denken wir an die Google-Maschine AlphaGo. Sie bezweifeln
trotzdem, dass es starke künstliche Intelligenz geben kann.
Wenn Sie mich fragen, ob ich das für unmöglich halte, ist die Antwort nein.
Ich kann es nicht ausschließen. Aber glaube ich, dass es passiert? Nein.
Denn es würde einen ganz dramatischen Wandel in der Technologie
voraussetzen, den wir uns nicht einmal vorstellen können. Das ist reine
Spekulation. Ganz ehrlich: Echte künstliche Intelligenz, so wie im Film
„Terminator“ – das ist ein Witz. Ich verstehe nicht, warum Leute ernsthaft
glauben, dass wir kurz davor stehen. Denn das letzte Mal, als ich
nachgeschaut habe, da konnte mein Computer sich nicht einmal mit meinem
Drucker verbinden, obwohl der direkt daneben stand.
Den Einsatz von dummen Maschinen halten Sie auch für gefährlich?
Momentan sehe ich vor allem ein fundamentales Risiko: die große Verführung,
an Maschinen zu delegieren. Und zwar Aufgaben, die nicht delegiert werden
sollten. Nicht weil die Maschinen es nicht können – sondern weil man
immense Fehler machen kann. Zum Beispiel wenn Algorithmen entscheiden, ob
man einen Kredit bekommt und zu welchen Konditionen. Der Bankkaufmann, der
vor ihnen sitzt und die Daten in eine Maske eintippt, kann weder ihnen noch
sich selbst erklären, wie diese Entscheidung zustande gekommen ist. Es ist
eine magische Box.
Da ist die Frage natürlich: Wer hat hier die Handlungsmacht?
Ist die Maschine das Problem – oder der Idiot hinter der Maschine, der sie
für diese Sachen verantwortlich gemacht hat und das alles zulässt. Man gibt
Zahlen ein, dreht die Kurbel, und das ist, was man herausbekommt. Aber
irgendjemand hat diesen Algorithmus ja erschaffen. Jemand hat ihn
implementiert. Und jemand hat sich über all das nicht beschwert. Das waren
alles Menschen. In den USA, aber auch in Großbritannien kommen zunehmend
Predictive-Policing-Systeme zum Einsatz – eine Software, die Polizeiarbeit
unterstützt, indem sie voraussagt, wo es Straftaten geben könnte.
Unglücklicherweise arbeitet dieses System mit einem Algorithmus, der für
die Vorhersage von Erdbeben programmiert wurde. Und nun sagt die Software
eben nicht voraus, wo bald ein Erdbeben stattfinden wird, sondern das
nächste Verbrechen. So dass die Polizei ihre Ressourcen dort konzentriert.
Damit erzwingt man Wechselwirkungen.
Was meinen Sie damit?
Soziale Interaktionen sind keine Erdbeben. Erdbeben passieren – und man
kann nichts dagegen tun. Man kann damit umgehen, sie aber nicht vermeiden.
Gegen soziale Muster kann man etwas tun. Darum geht es bei Freiheit: Man
interveniert in der Gesellschaft. Man ändert ökonomische, soziale
Bedingungen – und plötzlich gibt es kein Verbrechen. Aber wenn man soziale
Muster wie Muster für Erdbeben behandelt – dann gibt man diese Freiheit,
Dinge zu verändern, auf. Das ist furchtbar. Wollen wir wirklich in diese
Richtung gehen? Unglücklicherweise ist es ziemlich wahrscheinlich, dass das
passiert. Weil wir faul sind.
Was ist die Lösung?
Zum einen brauchen wir sicherere Programmierung. Bei automatischen
Waffensystemen wäre es zum Beispiel am besten, sie erst gar nicht zu bauen.
Aber wo das nicht möglich oder einfach schon zu spät ist, müssen wir
Menschen zwei, drei Kontrollinstanzen einbauen. Nicht weil ich glaube, dass
Menschen intelligenter sind. Sondern weil sie Zweifel haben. Nachfragen.
Ein dummes Beispiel: AlphaGo, dieser Algorithmus, der in den letzten Wochen
in der Presse war, gewinnt Go. Jeden Tag. Er wird nicht aufhören. Würde ein
Feuer in dem Raum ausbrechen, in dem das Spiel stattfindet – dann würde der
Mensch, gegen den er spielt, aus dem Raum rennen. Der Computer spielt
weiter – und wird mit dem gesamten Gebäude abbrennen. Herzlichen
Glückwunsch. Ist das die Intelligenz, über die wir reden? Natürlich nicht.
Also stehen Sie auf der Seite von Technikpessimisten, die es ohnehin für
eine schlechte Idee halten, Computer so tief in unser Leben zu lassen?
Bis zu einem bestimmten Grad ja. Ich will zumindest sehen, dass jemand
formuliert, das etwas eine schlechte Idee ist. Diese ganze Debatte über
Maschinenethik in der Verteidigungsindustrie: Es gibt zahlreiche Programme
– besonders eines in den USA, die Möglichkeiten untersuchen, wie man
ethische Regeln in unbemannte Waffensysteme wie Drohnen implementieren
kann. Das ist eine derartig schlechte Idee!
Warum? Hört sich doch erst einmal besser an als eine Maschine ohne solche
Regeln.
Das ist, als würde man der AlphaGo-Maschine beibringen, den Raum zu
verlassen, wenn ein Feueralarm losgeht. Dann wäre sie auf einen Rohrbruch
aber immer noch nicht vorbereitet. Wir sollten einfach vorsichtig sein, was
wir bauen. Algorithmen sind und können gefährlich sein. Sie werden unser
Leben bestimmen. Und wir passen uns an sie an. Nicht sie an uns.
Ist also alles einfach nur schlimm?
Ich bin ziemlich optimistisch, was die Vorteile angeht: Wir können
Maschinen bauen, die uns zu Diensten sind. Wir können sicherstellen, dass
Dummheit für Intelligenz arbeitet – und zwar für unsere. Aber tun wir das
auch? Da bin ich mir nicht so sicher. Ich fürchte, wir bewegen uns in die
entgegengesetzte Richtung.
3 May 2016
## AUTOREN
Meike Laaff
## TAGS
Digitalisierung
Algorithmen
Edward Snowden
Internet
Einbruch
AlphaGo
Schwerpunkt Überwachung
Marketing
Netzneutralität
Nick Bostrom
Bot
Medienkunst
Mark Zuckerberg
Drohnen
Sascha Lobo
Sascha Lobo
Grundschule
Drohnen
## ARTIKEL ZUM THEMA
Digitalisierung in der Kirche: Ausflug ins Neuland
Zur Eröffnung einer Themenwoche zur digitalen Zeitenwende stand in der
Hamburger Nikolai-Kirche ein Roboter … nein, nicht auf der Kanzel. Aber
beinahe.
Verbrechens-Vorhersage mit Software: „Die Polizei ist skeptisch“
Predictive Policing versucht zu prognostizieren, wo und wann Einbrüche
begangen werden. Die Analyse kann auch auf andere Delikte ausgeweitet
werden.
Google-Programm bringt sich selbst Go bei: Maschine braucht keinen Menschen
Erst 2016 bezwang ein Google-Programm einen Meister des Brettspiels „Go“.
Nun präsentiert das Google-Team einen noch besseren Nachfolger.
Snowden im NSA-Ausschuss: Entscheidung wird vertagt
Nach dem Urteil des Bundesgerichtshofs schiebt der NSA-Ausschuss den
Beschluss über eine Befragung Snowdens auf. Die Opposition kritisiert das
scharf.
Werberoboter von IBM: „Watson“ weiß, was du brauchst
Suppenhersteller Campbell’s wirbt jetzt mit künstlicher Intelligenz. Das
klingt, als hätte die Zukunft endlich angefangen. Ist aber nicht so.
Gesetzentwurf zur Netzneutralität: Bußgeld bei Verstoß
Eine Gesetzesänderung soll die EU-Netzneutralität in Deutschland umsetzen.
Kritiker sehen aber weiterhin die Gefahr eines „Zwei-Klassen-Internets“.
Künstliche Intelligenz: Apocalypse soon
Superschlaue Computer lernen immer selbstständiger. Das sei eine tickende
Zeitbombe, sagt der Philosoph Nick Bostrom.
Debüt einer Drehbuchmaschine: Regieanweisung aus der Zukunft
„Sunspring“ heißt der erste Film aus der Feder eines Algorithmus. Das
Ergebnis ist ein krudes Spiegelkabinett der Science-Fiction-Welt.
Ausstellung über Whistleblower: Die Spione sind gerade nicht im Büro
Der Medienkunstverein Hartware zeigt in Dortmund „Whistleblower &
Vigilanten“. Eine Sammlung von „Figuren des digitalen Widerstands“.
Diskussion um Facebook-Algorithmus: Ein Berg voll Zucker
Ex-Mitarbeiter werfen Facebook vor, konservative Nachrichten zu
unterdrücken. Jetzt meldet sich Gründer Mark Zuckerberg zu Wort.
Streit um Flugobjekte: Der Himmel voller Drohnen
Flugzeuge, Vögel, Drohnen: Es ist viel los in der Luft. Deshalb will der
Verkehrsminister die Gesetze überarbeiten. Das sorgt für Ärger.
Sascha Lobo über die re:publica: Ganz schön erwachsen
Am Monag startet in Berlin die zehnte re:publica. Aus dem Bloggertreffen
ist eine professionelle Großkonferenz geworden.
Ironie erkennen ist echt schwierig: Wie lacht ein Paragraf?
Sascha Lobo schlägt ein Emoticon vor, um zu kennzeichnen, wenn etwas
wirklich ernstgemeint wird. Helfen wird es wohl nicht.
Computerspiele im Unterricht: Professor S. und die Zeitforscher
Indem sie Professor S. helfen, lernen Grundschüler auch Stoff für Deutsch
oder Geschichte. Und sie erfahren etwas über Datenschutz im Internet.
Autoren über Science-Fiction und NSA: „Wir schenken Google eine Rolex“
In ihren Daten-Thrillern erzählen die Bestseller-Autoren Marc Elsberg und
Tom Hillenbrand, was nach Facebook auf uns zukommt. Ein Gipfeltreffen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.