Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz: Mensch, gib mir deine Daten
> Die Entwicklung künstlicher Intelligenz ist ein altes Militärprojekt. Nun
> sprechen Forscher von einer Revolution. Gefahr oder Chance?
Bild: Der humanoide Kampfroboter „Atlas“ aus dem Hause Boston Dynamics – …
Mensch: Worin besteht der Sinn des Lebens?
Maschine: Einem höheren Gut zu dienen.
Mensch: Worin besteht der Sinn zu sterben?
Maschine: Ein Leben zu haben.
Mensch: Was ist der Zweck von Intelligenz?
Maschine: Herauszufinden, was das ist.
Mensch: Welchen Zweck haben Gefühle?
Maschine: Das weiß ich nicht.
Diese Unterhaltung entstand während eines Forschungsprojekts von Google,
dessen Ergebnis die Entwickler vor einigen Wochen veröffentlichten. Ein von
ihnen konstruiertes künstliches neuronales Netzwerk hatte zuvor sein
Sprachverständnis auf Basis von Filmuntertiteln erlernt. Danach führte das
System Gespräche zu verschiedenen Themen mit den Forschern.
Für Alan Turing wäre mit dieser Konversation womöglich der Beweis für
Künstliche Intelligenz (KI) erbracht. Der Mathematiker knackte die
Nazi-Chiffriermaschine Enigma und war an der Entwicklung der ersten
elektronischen Computer beteiligt. 1936 beschrieb er erstmals formal und
praktisch, was ein Algorithmus ist. Alan Turing dachte auch als einer der
Ersten darüber nach, ob Maschinen Intelligenz erlangen könnten. Das war
1950, sechs Jahre bevor der Begriff „Künstliche Intelligenz“ bei einer
Konferenz in Dartmouth geprägt wurde.
Turing entwickelte einen Test zur Definition maschineller Intelligenz. Wenn
bei einer verdeckten Konversation für einen Beobachter nicht unterscheidbar
wäre, ob das Gespräch mit einer Maschine oder einem Menschen geführt wird,
gelte der Test als bestanden. Für Turing reichte bereits die Imitation von
Intelligenz – nicht zuletzt, weil damals wie heute die Frage ungeklärt ist,
was Intelligenz überhaupt bedeutet.
Abseits der Frage, wann man von Künstlicher Intelligenz (KI) sprechen kann,
zeigen vom Menschen gemachte Systeme bereits erstaunliche Fähigkeiten. Im
Juni 2015 etwa führten chinesische Wissenschaftler ein künstliches
neuronales Netz vor, das auch bei einem herkömmlichen IQ-Test menschliche
Leistungen im Sprachverständnis übertraf.
## Die Menschheitsgeschichte revolutionieren
Die Leistungskurve künstlicher neuronaler Netze verleitet selbst
zurückhaltende Informatiker dazu, von einer Revolution zu sprechen. Jürgen
Schmidhuber zählt nicht zu den zurückhaltenden Wissenschaftlern. Wer mit
dem Bayern reden möchte, muss nach Lugano reisen. Oberhalb der Altstadt, in
Manno, steht ein hässlicher Klotz: Das [1][Istituto Dalle Molle di Studi
sull’Intelligenza Artificiale (IDSIA)] wird von Schmidhuber geleitet.
Der Mann, der mit seiner Schiebermütze an einen Golfspieler erinnert,
erforscht seit fast 30 Jahren die Entwicklung künstlicher neuronaler Netze.
Er ist einer der Pioniere. „Jetzt passiert etwas, was die
Menschheitsgeschichte revolutionieren wird. All das, was gemeinhin mit
Intelligenz assoziiert wird, wird von künstlichen neuronalen Netzwerken und
ähnlichen Systemen erledigt werden. Das stellt den Menschen als Krone der
Schöpfung infrage.“
Das Forschungsfeld ist in unüberschaubare Untergruppen zersplittert.
Schmidhuber geht es um „Artificial General Intelligence“ (AGI). Er möchte
also eine echte Künstliche Intelligenz erschaffen, die einmal so klug wie
ein Mensch sein soll und: mit steigender Rechenleistung viel intelligenter.
Schmidhuber ist überzeugt, dass seine Kinder das noch erleben werden. Diese
Prognose geht von einer stetig wachsenden Rechenleistung aus. Gordon Moore
entdeckte bereits 1965 eine bis heute gültige Regelmäßigkeit: Etwa alle
zwei Jahre verdoppelt sich die Prozessorleistung, die pro Dollar zu
bekommen ist.
Ein Smartphone besitzt heute die gleiche Rechenpower wie ein
Cray-Supercomputer aus den 1990er Jahren. Das Pentagon erwartet, dass
„Computerprozessoren die Rechenleistung des menschlichen Gehirns
wahrscheinlich in den 2020er Jahren erreichen werden“. Schmidhuber blickt
noch weiter in die Zukunft: „In ein paar Jahrzehnten wird eine einzige
relativ billige Maschine über die rohe Rechenkraft der gesamten Menschheit
verfügen. Und es wird sehr viele solche Maschinen geben. Und dann hört es
immer noch nicht auf.
## Eine „Cyborg-Ökonomie“
Die Durchbrüche bei künstlichen neuronalen Netzen basieren auf Arbeiten,
die fast 40 Jahre alt sind. Was lange Zeit fehlte, waren Rechenleistung und
ausreichend Daten, um die Netze zu trainieren. Das ist nun erreicht, und
das macht Forscher wie Schmidhuber zuversichtlich. Andere, wie [2][Stephen
Hawking], warnen nun vor den Gefahren solcher Systeme, die immer autonomer
werden und immer mehr Bereiche der Gesellschaft durchdringen.
Das Rückgrat ganzer Ökonomien fußt bereits auf ihnen. 30.000 Deals wurden
an der New Yorker Stock Exchange 2013 verbucht – pro Sekunde. Über 70
Prozent des US-amerikanischen Börsengeschehens vollzieht sich bereits
automatisiert. Der Wissenschaftshistoriker Philip Mirowski spricht von
einer „Cyborg-Ökonomie“, einer Wirtschaft, die sich wie ein Thermostat
selbst reguliert. Das Hongkonger Unternehmen Deep Knowledge Ventures
ernannte eine Künstliche Intelligenz gar zum Aufsichtsrat. „Vital“ heißt
das System, „Validating Investment Tool for Advancing Life Sciences“. Es
gilt als gleichwertiges Mitglied im Aufsichtsgremium.
Auch im Alltag sind wir von KI-Systemen umzingelt: Keine Suchanfrage bei
Google ohne lernende Software, keine Empfehlungen bei Amazon ohne adaptive
Systeme, kein Newsfeed bei Facebook ohne eine Form von KI. Bei künstlichen
neuronalen Netzen handelt es sich um informationsverarbeitende Systeme, die
bereits ohne Vorgaben eines Programmierers aus Rohdaten konkrete
Informationen und Schlussfolgerungen ziehen. Es gibt Systeme, die aus
tausenden medizinischen Studien inhaltliche Bezüge ableiten, die Texte und
semantische Zusammenhänge zunehmend „verstehen“.
## Das Prinzip des Lernens imitieren
Bei den besonders eigenständigen Systemen wurde ein verhaltenbiologisches
Belohnungsprinzip eingebaut, das Lernen honoriert. Durch Versuch und Irrtum
versuchen diese Systeme stets ihre Belohnung zu maximieren. Nebenbei lösen
sie so Probleme. Es handelt sich um Systeme, die das Prinzip des Lernens
als solches imitieren. Sie bauen aus vorher gelernten Fähigkeiten
Erfahrungen auf, die als Grundlage zur Weiterentwicklung neuer Fähigkeiten
dienen. Das macht ihre prinzipielle Universalität aus. Intelligenz meint
hier die Fähigkeit, nahezu alle definierbaren Probleme lösen zu können. Der
[3][“universelle Problemlöser“] ist seit jeher ein Ziel der KI-Forschung.
In der Neuroinformatik beschreiben Neuronen eine mathematische Funktion.
Ein solches Neuron besitzt jeweils eine Eingabefunktion (Input), eine
Aktivierungsfunktion und eine Ausgabefunktion (Output). Input-Neuronen
werden durch Sensoren aktiviert, die das System mit der Umwelt verbinden.
Diese Aktivierung geben die Neuronen an die mit ihnen vernetzten Neuronen
weiter, die dann ihrerseits aktiviert werden.
Auf diese Weise werden Informationen über das gesamte Netz codiert. In
diesem Zustand hat das Netz einen spezifischen Aktivierungszustand
erreicht, der als „Gewichtung“ bezeichnet wird und konkreten Informationen
entspricht. Akustische Signale, Abbildungen oder Buchstaben drücken sich in
neuronalen Netzen als eine spezifische Aktivierung sehr vieler
verschiedener Neuronen aus.
Für einen solchen Vorgang wurde der Begriff [4][“Deep Learning“],
Tiefenlernen, geprägt, weil neuronale Netze aus mehreren Lagen von
Neuronenschichten zu Milliarden Vernetzungen gekoppelt sind. Sie können
extrem komplexe Funktionen aus Rohdaten errechnen und lernen. Je
leistungsfähiger die Netze werden, desto anspruchsvoller wird die
mathematische Funktion, desto genauer „versteht“ das System etwa
sprachliche Zusammenhänge. So können etwa Filmuntertitel als Datenbasis
dienen, um Zusammenhänge zwischen einzelnen Wörtern zu entziffern und zu
reproduzieren: Maschinen lernen sprechen.
Den Schlüsselaspekt von Deep Learning erklärt Schmidhuber so: „Ich muss
dieses System mit seinen vielen Millionen ‚Gewichten‘ nicht mehr explizit
programmieren, dass es das Muster erkennt. Ich muss am Anfang nur ein paar
Zeilen hinschreiben, nämlich den Lernalgorithmus, der dazu führt, dass aus
den ganzen Trainingsbeispielen diese ‚Gewichte‘ extrahiert werden, die dazu
führen, dass das System gut erkennt.“
## „Big Data“ und Muster lesen
Ein Kollege Schmidbauers ergänzt diese Beschreibung. Bernhard Schölkopf
arbeitet als Gründungsdirektor am [5][Max-Planck-Institut für Intelligente
Systeme in Tübingen]. Er sagt: „Es geht darum, auf der Basis von
empirischen Beobachtungen auf darunter liegende Gesetzmäßigkeiten zu
schließen. Das ist dann nötig, wenn es Gesetzmäßigkeiten in der Welt gibt,
die zu kompliziert sind, als dass man sie explizit modellieren könnte. Also
versucht man mit Lernalgorithmen automatisch mathematische Beschreibungen
dieser Gesetzmäßigkeiten zu extrahieren.“
Die neuronalen Netze erkennen so Muster. Aus großen Datenmengen – „Big
Data“, etwa den Pixelinformationen von Millionen Fotos oder Videos. Auch
Sprachsignale sind Daten, die von neuronalen Netzen als Muster gelesen
werden können.
Die Menge an Daten wächst noch schneller als die Rechenleistung. Zunehmend
sind es Daten von Menschen. Denn so, wie unser Körper bei jeder Bewegung
Luft verdrängt, erzeugen wir heute ständig Daten, die berechenbar geworden
sind. Dank Smartphone, „sozialer“ Medien und digitaler Vernetzung. So wird
es möglich, soziale Phänomene und Gesetzmäßigkeiten wie in der
experimentellen Physik zu erkunden.
Mit den massenhaften Auswertungen von Tweets und Mitteilungen bei Facebook
lassen sich Revolutionen erkennen, bevor sie entstehen, ebenso die
Ausbreitung von Krankheiten oder die Entstehung bestimmter Krebsarten. Die
Polizei nutzt weltweit Prognosesoftware, um Verbrechen vorherzusagen.
## Militärtechnologie sickert in die Gesellschaft
Bei aller Faszination für die Chancen, die Künstliche Intelligenz
ermöglichen: Ihre Ursprünge gehen auf das Militär zurück. Auf den gleichen
kybernetischen Prinzipien, auf denen der Mathematiker Norbert Wiener die
Prognose der Flugbahnen von Jagdfliegern entwickelt hatte, fußt später die
Flugraumüberwachung oder die Raketenabwehr mit KI-Systemen. Und nach
denselben Prinzipien und vergleichbarer Technologie werden heute Menschen
durch die Analyse von Massendaten überwacht, ihr Verhalten prognostiziert.
Der US-amerikanische Rüstungskonzern Lockheed bietet dieselbe
KI-Technologie zur Raketenabwehr und zur Diagnose von Blutvergiftung an.
Eine Technologie, die vom Militär entwickelt worden war, sickerte mit
zunehmender Leistungsfähigkeit und Verbreitung des Computers in die
Zivilgesellschaft. Es verwundert daher nicht, dass wir es gegenwärtig mit
einer globalen Überwachung durch Regierungen und Konzernen gleichermaßen zu
tun haben.
Milliardenschwere Forschungsprogramme des Pentagons waren, wie bei der
Entwicklung des Computers, für die Entstehung der KI maßgeblich. Die
Erfindung und die Konstruktion des Internets finanzierte und koordinierte
die [6][Defense Advanced Research Projects Agency], kurz: Darpa. Die
Forschungsbehörde des Pentagons war 1958 als Schockreaktion auf den ersten
Satelliten gegründet worden, den die UdSSR ins All schoss. Nie wieder
sollten die USA derart überrascht werden.
Unter US-Präsident Ronald Reagan verdoppelte sich der Rüstungsetat. 1983
setzte Darpa ein Programm auf, um eine „künstliche Superintelligenz“ für
das US-Militär zu entwickeln, die als informationelle Basis das Internet
hatte: „Strategic Computing Initiative“ (SCI) hieß es. Federführend war
[7][Robert Kahn], der Mann, der auch die technischen Grundlagen des
Internets entworfen hatte. Aus der SCI entwickelten sich später Programme,
die den USA in den 1990er Jahren die Vormachtstellung bei Superrechnern
sicherten.
## Die NSA würde in Daten ertrinken
Nach dem 11. September 2001 entwickelte Darpa auf KI basierende
Überwachungstechnologien, deren Einsatz Edward Snowden enthüllte. Die
globale Überwachung durch Geheimdienste wie die NSA wäre ohne Künstliche
Intelligenz nicht möglich. Die NSA würde in den Daten ertrinken.
Mit dieser militärischen Forschung eng verknüpft ist der Aufstieg von
Google. Die Erschaffung von Künstlicher Intelligenz war der Grund, warum
Larry Page und Sergey Brin überhaupt eine Suchmaschine entwickelten. Mit
einem solchen System ließe sich irgendwann eine echte Künstliche
Intelligenz erreichen, glauben sie. Google dürfte mittlerweile der größte
KI-Konzern sein. Kürzlich heuerten sie Geoffrey Hinton an, der mit viel
Eigenwerbung als „Pate“ künstlicher neronaler Netze bezeichnet wird. Google
schluckte 2014 für 400 Millionen Pfund auch das KI-Unternehmen Deep Mind.
Zwei der vier Gründer von Deep Mind waren Schmidhubers Studenten.
Die Central Intelligence Agency (CIA) unterstützte 1998 Sergey Brins
Forschungsarbeit zum Bau einer Suchmaschine an der Stanford University auch
[8][finanziell]. Man ließ sich von Brin regelmäßig über die Fortschritte
informieren. Über ein Dutzend Robotikfirmen schluckte Google in den
vergangenen Jahren – ein Teilbereich der Künstlichen-Intelligenz-Forschung.
Darunter exklusive Vertragspartner der U.S. Army wie [9][Boston Dynamics],
deren humanoide Militärroboter sich mittlerweile problemlos auf zwei Beinen
durch unwegsames Unterholz kämpfen.
Ein Produkt aus Googles Portfolio nennt sich „NIC“. Das steht für „Neuro…
Image Caption Generator“, ein künstliches neuronales Netz, das
Bilderkennung mit Spracherkennung kombiniert. Das Netz ist in der Lage, auf
einem Bild die einzelnen Objekte zu erkennen und sprachlich zu beschreiben.
Bei einem der Bilder entstanden folgende Beschreibungen: „Eine Gruppe
junger Menschen spielt Frisbee.“ Oder: „Eine Herde Elefanten trottet über
ein trockenes Grasfeld.“ Dieses System identifiziert nicht nur einzelne
Objekte, es ist in der Lage, sie in Beziehung zu setzen und Aktionen zu
erkennen.
Ähnliche Ergebnisse erzielte das System des Stanford Artificial
Intelligence Lab. Es ist in der Lage, Bilder mit Sätzen per Sprachausgabe
zu beschreiben. Die Forscher vergleichen die Fähigkeiten des Systems mit
denen eines dreijährigen Kindes.
## Die KI macht Konversation mit Kindern
Echte Kinder wiederum arbeiten daran mit, solche Systeme zu testen und zu
optimieren. Die Firma ToyTalk etwa bietet künstliche „Freunde“ zum
App-Download an. „Charaktere für echte Konversation“ warten auf anregende
Unterhaltung mit Kindern zwischen 6 und 8 Jahren. Es gibt inzwischen eine
ganze Reihe solcher künstlicher Freunde.
Zum Umgang mit den Daten steht in den Geschäftsbeziehungen, dass diese
aufgezeichnet werden, auch akustisch. Sie werden teilweise transkribiert
und ausgewertet. Die Firma Elemental Path bietet „CogniToys“ an. Zur
Produktpalette gehört ein Plüschdino, mit dem sich Kinder unterhalten
können. Das Gerät ist an die Cloud des KI-Systems [10][IBM-Watson]
gekoppelt. Der Konzern investierte eine Milliarde Dollar und baute sein
KI-System zu einer eigenen Sparte aus.
Google-Forscher Geoffrey Hinton spricht im Zusammenhang von künstlichen
neuronalen Netzen inzwischen gar von „Gedanken“, die solche Systeme
entwickelten. Hinton sagte, ihm sei klar, dass diese Beschreibung
kontrovers klinge. Doch er glaube, es sei möglich, [11][“Gedanken als
Vektoren abzubilden“]. Vektoren sind Zahlenketten.
Für Hintons Kollegen vom Max-Planck-Institut, Bernhard Schölkopf, klingt
die Definition des „Gedanken-Vektors“ plausibel. „Jede neuronale Schicht
hängt von einer Schicht davor ab, durch die Informationen hereinkommen. Man
kann also sagen, jede Schicht ist eine Repräsentation dessen, was gerade
bearbeitet wird. Nur, dass die Repräsentation zunehmend vom Input der
Sensordaten entfernt ist. Die vorletzte Schicht lässt sich durchaus als ein
‚Gedanken-Vektor‘ – also eine Zahlenkette – beschreiben, weil dieser al…
vorhergehenden Verarbeitungen repräsentiert.“ Die letzte Schicht besteht
aus Ausgabe-Neuronen, die dann etwa ein Objekt identifizieren: „Das ist ein
Elefant.“
## KI soll Gefühle erkennen
Für Geoffrey Hinton ist dies der Schlüssel, mit dem die Systeme natürliche
Sprachen und logisches Denken erlernen können. Mit den „Gedanken-Vektoren“
lassen sich Wörter als komplexe Zahlenketten repräsentieren, die sie
innerhalb eines sprachlichen „Bedeutungsraums“ einnehmen: „Wenn Sie den
Vektor für Paris nehmen und den Vektor für Frankreich abziehen und jenen
von Italien hinzufügen, erhalten sie Rom“, erklärt Hinton.
Künstliche Intelligenz soll aber auch lernen, Gefühle zu erkennen.
„Affective Computing“, nennt sich der Bereich, der nach Mustern sucht, die
sich als Emotionen decodieren lassen. Bei einem Ansatz geht es darum, mit
Gesichtserkennungssoftware Gefühle visuell zu detektieren. Das in den
späten 1970er Jahren entwickelte „Facial Action Coding System“ (FACS) fußt
auf einem 500 Seiten starken Gefühlsatlas von Gesichtsausdrücken.
Informatiker in der Computeranimation verwenden dies heute ebenso wie die
Polizei.
Ein anderes Verfahren untersucht die Verwendung bestimmter Wörter und deren
Beziehung zueinander, aber auch die Art, wie wir Menschen sprechen: Pausen,
Rhythmen, Intonation, Lautstärken. Auf Grundlage psychologischer und
linguistischer Modelle klassifizieren künstliche neuronale Netze Emotionen.
Die deutsche Firma [12][Psyware] etwa hat eine KI-Software entwickelt, die
anhand der Stimmmuster von Menschen Persönlichkeitsprofile errechnet.
Die Ergebnisse seien objektiver als jene, die Psychologen lieferten. „Denn
wie wir sprechen, das können wir kaum bewusst steuern, sobald wir länger
als ein paar Minuten reden“, sagte einer der Entwickler in einem Interview.
Das Ziel sei „kein geringeres, als Maschinen dieses Wissen einzupflanzen.
Sie sollen verstehen lernen, wie der Mensch funktioniert.“
## Der größte und letzte Moment der Geschichte
Im vergangenen Jahr warnte der Physiker Stephen Hawking in einem offenen
Brief davor, die Risiken, die von Künstlicher Intelligenz ausgehen, zu
unterschätzen. Das wäre „der größte Fehler in der Geschichte“. Alles, w…
Menschen hervorgebracht hätten, sei ein Produkt des Intellekts. Daher wäre
auch die Entwicklung einer Künstlichen Intelligenz „der größte Moment in
der Geschichte der Menschheit“, womöglich jedoch „der letzte“.
Eine KI wäre uns – dank Gordon Moores Gesetz – bald weit überlegen. Vor
Kurzem veröffentlichte Hawking erneut eine [13][Warnung], die sich auf den
militärischen Einsatz Künstlicher Intelligenz bezieht. Hunderte von
Wissenschaftlern schlossen sich dem Appell an, den schließlich 16.000
unterzeichneten. Darin wurde KI als „dritte Revolution der Kriegsführung“
nach Schwarzpulver und Nuklearwaffen bezeichnet.
Entstünde eine Superintelligenz, schrieben Stephen Hawking und seine
Kollegen, könnte „sie Finanzmärkte überlisten, ebenso Forscher, sie würde
menschliche Führungspersönlichkeiten manipulieren und Waffen entwickeln,
die wir nicht mehr verstehen können“. Eine Maschine mit den kognitiven
Fähigkeiten eines Menschen würde anfangen, sich selbst zu optimieren, immer
wieder und immer schneller – eine „Intelligenzexplosion“ wäre die Folge.
Davor warnte der Mathematiker Irving John Good schon 1965, er war
Chefstatistiker der Gruppe um Alan Turing, die im Zweiten Weltkrieg Enigma
knackte: „Die erste ultraintelligente Maschine ist also die letzte
Erfindung, die der Mensch je machen muss, vorausgesetzt, die Maschine ist
fügsam genug, um uns zu sagen, wie man sie unter Kontrolle hält.“
Kai Schlieter leitet das Ressort Reportage und Recherche der taz. Sein Buch
„Die Herrschaftsformel: Wie Künstliche Intelligenz uns berechnet, steuert
und unser Leben verändert“ erscheint am 25. September 2015 im Westend
Verlag
18 Sep 2015
## LINKS
[1] http://www.idsia.ch/
[2] http://www.independent.co.uk/news/science/stephen-hawking-transcendence-loo…
[3] https://en.wikipedia.org/wiki/General_Problem_Solver
[4] http://people.idsia.ch/~juergen/deeplearning.html
[5] http://www.is.mpg.de/de
[6] http://www.darpa.mil/
[7] https://en.wikipedia.org/wiki/Bob_Kahn
[8] https://medium.com/insurge-intelligence/how-the-cia-made-google-e836451a959e
[9] https://www.youtube.com/watch?v=M8YjvHYbZ9w
[10] http://www.ibm.com/smarterplanet/us/en/ibmwatson/what-is-watson.html
[11] http://www.theguardian.com/science/2015/may/21/google-a-step-closer-to-dev…
[12] http://www.faz.net/aktuell/gesellschaft/menschen/software-erkennt-persoenl…
[13] http://futureoflife.org/AI/open_letter_autonomous_weapons
## AUTOREN
Kai Schlieter
## TAGS
Schwerpunkt Überwachung
Stephen Hawking
Roboter
Schwerpunkt Künstliche Intelligenz
Darpa
Schwerpunkt Meta
Sprunginnovation
CRISPR
Google
Roboter
Lesestück Recherche und Reportage
Japan
Schwerpunkt Rassismus
Google
Pentagon
Online-Shopping
Stephen Hawking
Überwachungsgesellschaft
Handy
Schwerpunkt Meta
Cyborg
Roboter
Oxford
## ARTIKEL ZUM THEMA
Facebook kauft „Ctrl-Labs“: Endlich Cyborgs!
Mit der Hardware von Ctrl-Labs lassen sich Computer durch Gedanken
kontrollieren. Das bietet viele Chancen – die nun Facebook nutzen will.
Neue Forschungsinitative: Lahme Schnecken
Die Agentur für Sprunginnovation sollte längst ihre Arbeit aufgenommen
haben. Die offizielle Gründung steht in der Jahresmitte an.
Gentech-Insekten aus dem Militärlabor: Fliegende B-Waffen
Forscher warnen vor genmanipulierten Insekten. Selbst wenn sie für zivile
Zwecke verändert werden – meist sind sie als biologische Waffe verwendbar.
Debatte Künstliche Intelligenz im Krieg: Der Google-Militär-Komplex
Das Pentagon setzt für zukünftige Einsätze zunehmend auf künstliche
Intelligenz. Dafür engagiert es unter anderen den IT-Konzern Google.
Robo-Dog von Boston Dynamics: Beeindruckend. Oder?
In einem Video hilft ein Roboter einem anderen dabei, eine Tür zu öffnen –
und viele sind schwer beeindruckt. Andere finden's öde. Zu recht.
Menschen und Maschinen: Die Roboterfabrik
Der chinesische Gerätehersteller Midea schluckte die deutsche Firma Kuka.
Besuch bei einem Konzern, der Robotern das Lernen beibringt.
Aus Le Monde diplomatique: Schwester Roboter
Japan automatisiert Dienstleistungen. Es will den Bevölkerungsrückgang und
Arbeitskräftemangel ausgleichen – ohne Einwanderung.
Mensch und Maschine: Haben Sie Angst vor Algorithmen?
Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf
ihre Neutralität. Dabei entscheiden sie nicht immer fair.
Computer besiegt Mensch: Go, Google, Go!
Das Spiel Go galt als größte Herausforderung für künstliche Intelligenz.
Jetzt gelang es einem Computer erstmals gegen einen Profi-Spieler zu
gewinnen.
Nachruf auf Marvin Minsky: Der Uropa künstlicher Intelligenz
Vom menschlichen Verstand hielt er nicht viel. Marvin Minsky brachte
Maschinen das Lernen bei – und wurde zum Wegbereiter künstlicher
Intelligenz.
Big Data für personalisierten Einkauf: Jeder hat seinen Preis
Onlinehändler bieten verschiedenen Kunden dieselbe Pauschalreise zu
unterschiedlichen Preisen an. Und das ist erst der Anfang.
Astrophysiker warnt vor Weltuntergang: Hawking misstraut dem Fortschritt
Eindringlich warnt Stephen Hawking vor den tödlichen Gefahren des
Fortschritts – ob künstliche Intelligenz oder Gentechnik. Und nennt sich
trotzdem Optimist.
ZKM-Kurator Serexhe über Überwachung: „Wir leben im smarten Totalitarismus�…
Die Ausstellung „Global Control and Censorship“ zeigt Arbeiten zu
Überwachung und Zensur weltweit. Ein Gespräch mit dem Kurator Bernhard
Serexhe.
Studie zu Smartphonenutzung: Kinder können süchtig werden
Mobbing – was früher auf dem Schulhof stattfand, passiert heute digital.
Eine Studie weist auf die Risiken der exzessiven Handynutzung hin.
Neuer Empathie-Button für Facebook: Kein One-Klick-Hate-Inferno
Facebook arbeitet an einer Ergänzung zur Like-Funktion. Natürlich ohne
negative Bewertungen zuzulassen. Gefällt Ihnen nicht? Selbst schuld!
Technikforscher über neue Intelligenz: „Eine typische Vermenschlichung“
Die Rechenleistung von Maschinen überholt das menschliche Gehirn. Von
„neuer Intelligenz“ will Technikforscher Christopher Coenen nicht sprechen.
Umfrage zu High-Tech-Medizin: Bereit für den Hirn-Chip?
Krankenpflege durch Roboter? Die Deutschen sehen die neue Zukunftsmedizin
kommen – aber mit ziemlich gemischten Gefühlen.
Debatte Roboter: Die automatisierte Zukunft
Roboter und Computer übernehmen immer mehr Arbeit. Davon profitieren
Aktionäre, Arbeiter verlieren. Das könnte zu sozialen Konflikten führen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.