Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Ethik für Künstliche Intelligenz: Wo Schwaben Kalifornien sein wi…
> Das Tübinger Cyber Valley will transparent und fair künstliche
> Intelligenz entwickeln – Hand in Hand mit Milliardenkonzernen wie Amazon
> und BMW.
Bild: Das Modell eines Roboterarms im Labor des Max-Planck-Instituts für intel…
Der Ort, an dem die Zukunft entstehen soll, sieht ziemlich trist aus. An
einem regnerischen Morgen kurz vor Weihnachten versprüht das Zentrum der
europäischen Forschung für [1][künstliche Intelligenz (KI)] nicht den
Innovationsgeist, den man sich hier verspricht. Wer bei dem Namen Cyber
Valley an riesige Glasgebäude und Tesla-Fuhrparks denkt, der wird im
Tübinger Stadtteil Waldhäuser-Ost enttäuscht. Grimmige Parkplatzwächter
mustern vorbeifahrende E-Smarts, Baukräne flankieren die leeren Straßen.
Hier, auf einer ehemaligen Viehweide in der schwäbischen Stadt mit ihren
90.000 Einwohnern, will Europa in der KI-Forschung schnellstmöglich zu den
USA und China aufschließen. Und eine Sache grundlegend anders machen: Im
Ländle soll möglichst transparent, im Diskurs mit der Gesellschaft und mit
Weitsicht für ethische Konflikte geforscht werden. Aber wie kriegt man
gesellschaftliche Werte und Normen in eine Maschine? Ist dieser Anspruch in
einem Feld, in dem es hochkompetitiv zugeht und kaum
Sozialwissenschaftler:innen arbeiten, überhaupt realistisch?
Gegründet wurde das selbsternannte Ökosystem Cyber Valley vor etwa sechs
Jahren vom Land Baden-Württemberg, zusammen mit den Universitäten Tübingen
und Stuttgart sowie der Max-Planck-Gesellschaft. Mit an Bord waren von
Beginn an auch sieben Konzerne, darunter Amazon, BMW und Bosch.
Über 1.000 Forschende arbeiten an den beiden Standorten. Dabei soll es
nicht bleiben: Die Stiftung des SAP-Gründers Hans-Werner Hector investiert
100 Millionen in ein weiteres KI-Labor, [2][die schwarz-grüne
Landesregierung] schießt noch 180 Millionen Euro in die Initiative. Danyal
Bayaz, baden-württembergischer Finanzminister der Grünen, sagt: „Wir wollen
Quellen künftigen Wohlstands erschließen.“ Das Land investiere, „damit
Baden-Württemberg das Kalifornien Europas wird.“
## Schwarzwald-Retreat und Yoga auf dem Dach
Im Tübinger Max-Planck-Institut für Intelligente Systeme kommt bereits die
Tech-Start-Up-Stimmung auf, von der im [3][Silicon Valley] so gerne
gesprochen wird. Auf Glaswänden in den Küchenecken stehen handgeschriebene
Formeln. Im Aufzug hängt die Einladung zu einem mehrtägigen Retreat im
Schwarzwald, und auf der Dachterrasse mit Panoramablick auf die schwäbische
Alb kann man sich eine Yogamatte vom Ständer greifen.
Ein paar Stockwerke tiefer sitzt Wieland Brendel, Fleecejacke,
Dreitagebart, auf einem Barhocker und nippt an einem Espresso. Die Wörter
schießen nur so aus dem 36-Jährigen, der besonders herzlich über makabre
Witze lacht. Brendel leitet eine Forschungsgruppe, die Maschinen
menschliches Sehen beibringen will. Eines seiner Projekte wurde dieses Jahr
auf der [4][Klimakonferenz in Ägypten] vorgestellt: Ein vollautomatischer
Roboter, der sich in unbekannter Umgebung bewegen, Äpfel pflücken oder
Unkraut jäten kann. Was hat das mit Ethik und Moral zu tun? „Ich kann den
Roboter als persönlichen Gärtner halten, aber natürlich kann da auch jemand
ein Gewehr draufpacken“, sagt Brendel. Ob und wie seine Ergebnisse eines
Tages zweckentfremdet werden, könne er als Forscher zum jetzigen Zeitpunkt
kaum beeinflussen. KI und Machine Learning sind für Brendel eine
Basistechnologie, ähnlich wie ein Motor: „Damit kann ein Krankenwagen
genauso fahren wie ein Panzer.“ Die Folgen solch grundlegender Forschung in
zehn oder zwanzig Jahren könne man heute noch nicht absehen, sagt er.
Um die Forschenden im Cyber Valley anzuregen, sich mit den
gesellschaftlichen Folgen ihrer Arbeit auseinanderzusetzen, wurde vor drei
Jahren extra ein Gremium geschaffen: Das Public Advisory Board, einberufen
vom baden-württembergischen Wissenschaftsministerium. Der Beirat bewertet
die eingereichten Forschungsanträge.
## „Wir sind keine Forschungspolizei“
Bevor die Anträge genehmigt werden, landen sie im Postfach von Regina
Ammicht Quinn. Die Ethik-Professorin der Uni Tübingen ist Sprecherin des
neunköpfigen Gremiums. Gleich zu Beginn des Videogesprächs stellt die
65-Jährige klar: „Wir sind keine Forschungspolizei.“ In dem ehrenamtlichen
Beirat sitzen Ethiker:innen, ein Lehramtsstudent, eine Tech-Aktivistin und
eine Grünen-Gemeinderätin aus Tübingen. Fast 60 Anträge haben sie in drei
Jahren gelesen und in den meisten Fällen bei den Forschenden nachgehakt: In
welchem Feld sollte die Forschung am besten angewendet werden? Wo auf
keinen Fall?
Unter den 21 finanzierten Projekten finden sich ein intelligenter
Lernassistent für Schüler:innen oder künstliche Organe, die Berührungen
spüren können und Mediziner:innen in der Ausbildung helfen sollen.
Welche Anträge abgelehnt wurden oder zu großen Bedenken im Ethik-Beirat
führten, will das Cyber Valley aber nicht sagen.
Interessant ist ein anderes Projekt. Hier hatte der Ethik-Beirat nach
taz-Informationen Sorgen – und dennoch wurde es gefördert. Denn die finale
Entscheidung über Fördergelder liegt beim Fund-Board des Cyber Valleys.
Jeweils sechs Vertreter:innen aus Wissenschaft und Industrie sitzen
darin. Der Ethik-Beirat hat dabei kein Stimm- oder Vetrorecht, sondern eine
rein beratende Funktion. In dem Projekt ging es um autonome Drohnen, die
Bewegungsmuster von Wildtieren in der Natur erfassen. Der Ethik-Beirat
äußerte Bedenken, weil mit der Technik theoretisch auch Menschen aus der
Luft präzise und automatisiert überwacht werden könnten.
Ist der Ethik-Beirat nicht mehr als ein nettes Aushängeschild? „Unsere
Wirkung auf das gesamte Ökosystem war bisher schwach“, sagt Ammicht Quinn.
Von Anfang an habe die Öffentlichkeit den Einfluss des Ethik-Beirats
überschätzt. Im KI-Bereich würden extrem kluge junge Leute arbeiten, die
auch politisch interessiert seien. „Aber oft ist ihnen in der alltäglichen
Arbeit nicht wirklich klar, dass ihre eigene Forschung auch politisch ist
und ethische Fragen aufwirft“, sagt Ammicht Quinn.
## Nicht alle Tübinger:innen wollten das Cyber Valley
Viele Tübinger:innen sind sich dieses Zusammenhangs offenbar bewusst.
Kundgebungen wurden abgehalten, ein Hörsaal besetzt, Diskussionsrunden
veranstaltet. Nicht alle freuten sich auf das Cyber Valley. Ammicht Quinn
sagt, die anfänglichen Proteste hätten zur Bildung des Ethik-Beirats
beigetragen.
Mehrere Jahre protestierte das von Studierenden gegründete [5][Bündnis
#NoCyberValley] gegen die Initiative, allen voran gegen die Ansiedlung von
Amazon in Tübingen. Sie befürchteten nicht nur eine Explosion der Mieten,
sondern sahen auch die Unabhängigkeit der Forschung in Gefahr. Ein Beispiel
nannten die Gegner:innen immer wieder: Vier Jahre lang arbeitete
Matthias Bethge, Neurowissenschaftler am KI-Zentrum der Uni im Cyber
Valley, an einem Projekt, das von der Forschungsbehörde IARPA der
US-Geheimdienste in Auftrag gegeben wurde. Bethge forschte an
neurowissenschaftlichen Modellen, die mit Hilfe von Algorithmen die
Funktionsweise des Gehirns darstellen.
Ein Großteil der damaligen Kritik richtete sich gegen ein Forschungszentrum
von Amazon, das mittlerweile fertig gebaut wurde. Es steht in unmittelbarer
Nachbarschaft des Cyber Valleys. Praktisch ist das insbesondere für einen
Mann: Max-Planck-Direktor Bernhard Schölkopf, ein Star im Cyber Valley. In
unter fünf Minuten kann er von seinem Arbeitsplatz zum Amazon-Gebäude
spazieren, sein zweiter Arbeitsplatz. Seit 2017 forscht Schölkopf dort
ebenfalls an künstlicher Intelligenz. Gleiches galt bis 2021 auch für
Michael Black, der ebenfalls zu den renommiertesten
Wissenschaftler:innen im Cyber Valley zählt. Das weltweite Programm
von Amazon richtet sich explizit an akademische Führungskräfte und soll
„die Zusammenarbeit zwischen akademischer und industrieller Forschung
fördern“, schreibt der Konzern.
Wegen solcher Verbindungen sahen einige Tübinger:innen die
Wissenschaftsfreiheit in Gefahr. Dabei sind Drittmittel aus Industrie und
Wirtschaft in der deutschen Forschungslandschaft nichts Ungewöhnliches. Das
Protestbündnis gegen das Cyber Valley befürchtet trotzdem, dass die
Unternehmen Einfluss auf die wissenschaftliche Arbeit nähmen und einen
exklusiven Zugang zu den Ergebnissen hätten. Im Cyber Valley wird das
konsequent verneint: Alle Resultate der Forschung, die mit öffentlichen
Mitteln finanziert wurde, würden auch öffentlich publiziert. Die
Kooperationsverträge zwischen den sieben Geldgebern aus der Industrie und
der Forschungsinitiative hingegen bleiben geheim.
Nach Amazon will nun Bosch ein eigenes Forschungszentrum in Tübingen bauen.
Der Technikkonzern finanziert, genauso wie Mercedes-Benz, bereits einen
Lehrstuhl im Cyber Valley.
Keine 100 Meter entfernt vom goldbraunen Amazon-Neubau sitzt Philipp Hennig
in seinem Büro im KI-Zentrum der Uni Tübingen. Der 42-Jährige hat eine
ruhige Stimme und ist geübt darin, komplexe Sachverhalte für Fachfremde zu
übersetzen. Er ist Professor für Methoden des maschinellen Lernens und hat
die Proteste gegen das Cyber Valley vor drei Jahren unmittelbar zu spüren
bekommen. Drei Wochen lang besetzten Studierende den Hörsaal, in dem Hennig
normalerweise in seinen Vorlesungen erklärt, wie Algorithmen so trainiert
werden können, dass sie Fehler in ihren Entscheidungen besser erkennen.
Hennig wurde zu einer Figur, die das Cyber Valley auf Podiumsdiskussionen
beharrlich gegen Kritik verteidigt hat.
## Forschung mit Forschung kontrollieren
Nicht nur wegen der anfänglichen Proteste ist Hennig überzeugt, dass die
Sensibilität für ethische Fragen im Cyber Valley ausgeprägter sei als an
anderen Standorten. Ein Beleg dafür sei, dass sich immer mehr Institutionen
in Tübingen mit KI-Ethik beschäftigten. An der Uni gibt es eine
Arbeitsgruppe Ethik und Philosophie der KI, und die Volkswagenstiftung
fördert ein neues Zentrum zur Analyse der gesellschaftlichen KI-Debatte. Am
Max-Planck-Institut für Intelligente Systeme erforscht eine Gruppe, wie
Algorithmen diskriminierungsfreie Entscheidungen treffen können. Und mit
Moritz Hardt von der Universität Berkeley in Kalifornien wurde Anfang 2022
ein Forscher angestellt, der Informatik als Sozialwissenschaft bezeichnet.
Hennig selbst hat ein Seminar zu algorithmischer Fairness gegeben und
spricht in seiner Vorlesung über gesellschaftliche Verantwortung. Was
bedeutet es für einen Algorithmus, fair zu sein? Als Beispiel nennt er die
Vergabe eines Kredits. Man könne etwa verlangen, dass die Entscheidungen
des Algorithmus unabhängig vom Geschlecht der Kreditnehmer:innen sein
sollen. Oder, dass der Algorithmus für Männer und Frauen gleich zuverlässig
sei, also gleich häufig Fehler macht. Es sei aber mathematisch bewiesen,
dass beides gleichzeitig nicht möglich ist. Solche Fragen gehören laut
Hennig inzwischen zu den Inhalten der Grundvorlesungen in KI.
Noch mehr Raum für Diskussionen solcher Probleme soll es im deutschlandweit
ersten Masterstudiengang für Machine Learning geben. Neue Seminare zu den
sozialen Folgen von immer mehr intelligenten Maschinen sind geplant. „Wir
sind hier so etwas wie die letzte Station außerhalb der Industrie für die
Leute, die später dort arbeiten“, sagt Hennig. Die Studierenden sollen für
die Relevanz der KI-Ethik sensibilisiert werden, bevor sie nach ihrem
Abschluss womöglich anfangen, nebenan bei Amazon zu arbeiten.
9 Jan 2023
## LINKS
[1] /Kuenstliche-Intelligenz/!5880554
[2] /Winfried-Kretschmann-ueber-2022/!5901542
[3] /Stellenstreichungen-im-Silicon-Valley/!5892248
[4] /Reaktionen-auf-COP27/!5893633
[5] https://nocybervalley.de/?page_id=26
## AUTOREN
Aaron Wörz
## TAGS
Zukunft
GNS
wochentaz
Schwerpunkt Künstliche Intelligenz
Forschungsförderung
Bildungschancen
Datenschutz
IG
## ARTIKEL ZUM THEMA
Künstliche Intelligenz von ChatGPT: Gedichtanalyse, Goethe, Enter
Der Chatbot ChatGPT könnte viele Hausaufgaben erledigen. Kommt da was auf
die Schulen zu? In den Ministerien ist man erstaunlich gelassen.
Foto-App „Lensa“: Nicht so schön, wie es scheint
Die Fotobearbeitungs-App Lensa kommt ganz unschuldig daher. Doch sie macht
immer wiederkehrende schwere Fehler im Maschinenlernen sichtbar.
Kolumne einer künstlichen Intelligenz: Wie schreibt eine Robo-Autor*in?
Die taz veröffentlicht die erste Kolumne einer nicht-menschlichen Autor*in.
Wie funktioniert das? Die wichtigsten Fragen zur künstlichen Intelligenz.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.