# taz.de -- Ethik für Künstliche Intelligenz: Wo Schwaben Kalifornien sein wi… | |
> Das Tübinger Cyber Valley will transparent und fair künstliche | |
> Intelligenz entwickeln – Hand in Hand mit Milliardenkonzernen wie Amazon | |
> und BMW. | |
Bild: Das Modell eines Roboterarms im Labor des Max-Planck-Instituts für intel… | |
Der Ort, an dem die Zukunft entstehen soll, sieht ziemlich trist aus. An | |
einem regnerischen Morgen kurz vor Weihnachten versprüht das Zentrum der | |
europäischen Forschung für [1][künstliche Intelligenz (KI)] nicht den | |
Innovationsgeist, den man sich hier verspricht. Wer bei dem Namen Cyber | |
Valley an riesige Glasgebäude und Tesla-Fuhrparks denkt, der wird im | |
Tübinger Stadtteil Waldhäuser-Ost enttäuscht. Grimmige Parkplatzwächter | |
mustern vorbeifahrende E-Smarts, Baukräne flankieren die leeren Straßen. | |
Hier, auf einer ehemaligen Viehweide in der schwäbischen Stadt mit ihren | |
90.000 Einwohnern, will Europa in der KI-Forschung schnellstmöglich zu den | |
USA und China aufschließen. Und eine Sache grundlegend anders machen: Im | |
Ländle soll möglichst transparent, im Diskurs mit der Gesellschaft und mit | |
Weitsicht für ethische Konflikte geforscht werden. Aber wie kriegt man | |
gesellschaftliche Werte und Normen in eine Maschine? Ist dieser Anspruch in | |
einem Feld, in dem es hochkompetitiv zugeht und kaum | |
Sozialwissenschaftler:innen arbeiten, überhaupt realistisch? | |
Gegründet wurde das selbsternannte Ökosystem Cyber Valley vor etwa sechs | |
Jahren vom Land Baden-Württemberg, zusammen mit den Universitäten Tübingen | |
und Stuttgart sowie der Max-Planck-Gesellschaft. Mit an Bord waren von | |
Beginn an auch sieben Konzerne, darunter Amazon, BMW und Bosch. | |
Über 1.000 Forschende arbeiten an den beiden Standorten. Dabei soll es | |
nicht bleiben: Die Stiftung des SAP-Gründers Hans-Werner Hector investiert | |
100 Millionen in ein weiteres KI-Labor, [2][die schwarz-grüne | |
Landesregierung] schießt noch 180 Millionen Euro in die Initiative. Danyal | |
Bayaz, baden-württembergischer Finanzminister der Grünen, sagt: „Wir wollen | |
Quellen künftigen Wohlstands erschließen.“ Das Land investiere, „damit | |
Baden-Württemberg das Kalifornien Europas wird.“ | |
## Schwarzwald-Retreat und Yoga auf dem Dach | |
Im Tübinger Max-Planck-Institut für Intelligente Systeme kommt bereits die | |
Tech-Start-Up-Stimmung auf, von der im [3][Silicon Valley] so gerne | |
gesprochen wird. Auf Glaswänden in den Küchenecken stehen handgeschriebene | |
Formeln. Im Aufzug hängt die Einladung zu einem mehrtägigen Retreat im | |
Schwarzwald, und auf der Dachterrasse mit Panoramablick auf die schwäbische | |
Alb kann man sich eine Yogamatte vom Ständer greifen. | |
Ein paar Stockwerke tiefer sitzt Wieland Brendel, Fleecejacke, | |
Dreitagebart, auf einem Barhocker und nippt an einem Espresso. Die Wörter | |
schießen nur so aus dem 36-Jährigen, der besonders herzlich über makabre | |
Witze lacht. Brendel leitet eine Forschungsgruppe, die Maschinen | |
menschliches Sehen beibringen will. Eines seiner Projekte wurde dieses Jahr | |
auf der [4][Klimakonferenz in Ägypten] vorgestellt: Ein vollautomatischer | |
Roboter, der sich in unbekannter Umgebung bewegen, Äpfel pflücken oder | |
Unkraut jäten kann. Was hat das mit Ethik und Moral zu tun? „Ich kann den | |
Roboter als persönlichen Gärtner halten, aber natürlich kann da auch jemand | |
ein Gewehr draufpacken“, sagt Brendel. Ob und wie seine Ergebnisse eines | |
Tages zweckentfremdet werden, könne er als Forscher zum jetzigen Zeitpunkt | |
kaum beeinflussen. KI und Machine Learning sind für Brendel eine | |
Basistechnologie, ähnlich wie ein Motor: „Damit kann ein Krankenwagen | |
genauso fahren wie ein Panzer.“ Die Folgen solch grundlegender Forschung in | |
zehn oder zwanzig Jahren könne man heute noch nicht absehen, sagt er. | |
Um die Forschenden im Cyber Valley anzuregen, sich mit den | |
gesellschaftlichen Folgen ihrer Arbeit auseinanderzusetzen, wurde vor drei | |
Jahren extra ein Gremium geschaffen: Das Public Advisory Board, einberufen | |
vom baden-württembergischen Wissenschaftsministerium. Der Beirat bewertet | |
die eingereichten Forschungsanträge. | |
## „Wir sind keine Forschungspolizei“ | |
Bevor die Anträge genehmigt werden, landen sie im Postfach von Regina | |
Ammicht Quinn. Die Ethik-Professorin der Uni Tübingen ist Sprecherin des | |
neunköpfigen Gremiums. Gleich zu Beginn des Videogesprächs stellt die | |
65-Jährige klar: „Wir sind keine Forschungspolizei.“ In dem ehrenamtlichen | |
Beirat sitzen Ethiker:innen, ein Lehramtsstudent, eine Tech-Aktivistin und | |
eine Grünen-Gemeinderätin aus Tübingen. Fast 60 Anträge haben sie in drei | |
Jahren gelesen und in den meisten Fällen bei den Forschenden nachgehakt: In | |
welchem Feld sollte die Forschung am besten angewendet werden? Wo auf | |
keinen Fall? | |
Unter den 21 finanzierten Projekten finden sich ein intelligenter | |
Lernassistent für Schüler:innen oder künstliche Organe, die Berührungen | |
spüren können und Mediziner:innen in der Ausbildung helfen sollen. | |
Welche Anträge abgelehnt wurden oder zu großen Bedenken im Ethik-Beirat | |
führten, will das Cyber Valley aber nicht sagen. | |
Interessant ist ein anderes Projekt. Hier hatte der Ethik-Beirat nach | |
taz-Informationen Sorgen – und dennoch wurde es gefördert. Denn die finale | |
Entscheidung über Fördergelder liegt beim Fund-Board des Cyber Valleys. | |
Jeweils sechs Vertreter:innen aus Wissenschaft und Industrie sitzen | |
darin. Der Ethik-Beirat hat dabei kein Stimm- oder Vetrorecht, sondern eine | |
rein beratende Funktion. In dem Projekt ging es um autonome Drohnen, die | |
Bewegungsmuster von Wildtieren in der Natur erfassen. Der Ethik-Beirat | |
äußerte Bedenken, weil mit der Technik theoretisch auch Menschen aus der | |
Luft präzise und automatisiert überwacht werden könnten. | |
Ist der Ethik-Beirat nicht mehr als ein nettes Aushängeschild? „Unsere | |
Wirkung auf das gesamte Ökosystem war bisher schwach“, sagt Ammicht Quinn. | |
Von Anfang an habe die Öffentlichkeit den Einfluss des Ethik-Beirats | |
überschätzt. Im KI-Bereich würden extrem kluge junge Leute arbeiten, die | |
auch politisch interessiert seien. „Aber oft ist ihnen in der alltäglichen | |
Arbeit nicht wirklich klar, dass ihre eigene Forschung auch politisch ist | |
und ethische Fragen aufwirft“, sagt Ammicht Quinn. | |
## Nicht alle Tübinger:innen wollten das Cyber Valley | |
Viele Tübinger:innen sind sich dieses Zusammenhangs offenbar bewusst. | |
Kundgebungen wurden abgehalten, ein Hörsaal besetzt, Diskussionsrunden | |
veranstaltet. Nicht alle freuten sich auf das Cyber Valley. Ammicht Quinn | |
sagt, die anfänglichen Proteste hätten zur Bildung des Ethik-Beirats | |
beigetragen. | |
Mehrere Jahre protestierte das von Studierenden gegründete [5][Bündnis | |
#NoCyberValley] gegen die Initiative, allen voran gegen die Ansiedlung von | |
Amazon in Tübingen. Sie befürchteten nicht nur eine Explosion der Mieten, | |
sondern sahen auch die Unabhängigkeit der Forschung in Gefahr. Ein Beispiel | |
nannten die Gegner:innen immer wieder: Vier Jahre lang arbeitete | |
Matthias Bethge, Neurowissenschaftler am KI-Zentrum der Uni im Cyber | |
Valley, an einem Projekt, das von der Forschungsbehörde IARPA der | |
US-Geheimdienste in Auftrag gegeben wurde. Bethge forschte an | |
neurowissenschaftlichen Modellen, die mit Hilfe von Algorithmen die | |
Funktionsweise des Gehirns darstellen. | |
Ein Großteil der damaligen Kritik richtete sich gegen ein Forschungszentrum | |
von Amazon, das mittlerweile fertig gebaut wurde. Es steht in unmittelbarer | |
Nachbarschaft des Cyber Valleys. Praktisch ist das insbesondere für einen | |
Mann: Max-Planck-Direktor Bernhard Schölkopf, ein Star im Cyber Valley. In | |
unter fünf Minuten kann er von seinem Arbeitsplatz zum Amazon-Gebäude | |
spazieren, sein zweiter Arbeitsplatz. Seit 2017 forscht Schölkopf dort | |
ebenfalls an künstlicher Intelligenz. Gleiches galt bis 2021 auch für | |
Michael Black, der ebenfalls zu den renommiertesten | |
Wissenschaftler:innen im Cyber Valley zählt. Das weltweite Programm | |
von Amazon richtet sich explizit an akademische Führungskräfte und soll | |
„die Zusammenarbeit zwischen akademischer und industrieller Forschung | |
fördern“, schreibt der Konzern. | |
Wegen solcher Verbindungen sahen einige Tübinger:innen die | |
Wissenschaftsfreiheit in Gefahr. Dabei sind Drittmittel aus Industrie und | |
Wirtschaft in der deutschen Forschungslandschaft nichts Ungewöhnliches. Das | |
Protestbündnis gegen das Cyber Valley befürchtet trotzdem, dass die | |
Unternehmen Einfluss auf die wissenschaftliche Arbeit nähmen und einen | |
exklusiven Zugang zu den Ergebnissen hätten. Im Cyber Valley wird das | |
konsequent verneint: Alle Resultate der Forschung, die mit öffentlichen | |
Mitteln finanziert wurde, würden auch öffentlich publiziert. Die | |
Kooperationsverträge zwischen den sieben Geldgebern aus der Industrie und | |
der Forschungsinitiative hingegen bleiben geheim. | |
Nach Amazon will nun Bosch ein eigenes Forschungszentrum in Tübingen bauen. | |
Der Technikkonzern finanziert, genauso wie Mercedes-Benz, bereits einen | |
Lehrstuhl im Cyber Valley. | |
Keine 100 Meter entfernt vom goldbraunen Amazon-Neubau sitzt Philipp Hennig | |
in seinem Büro im KI-Zentrum der Uni Tübingen. Der 42-Jährige hat eine | |
ruhige Stimme und ist geübt darin, komplexe Sachverhalte für Fachfremde zu | |
übersetzen. Er ist Professor für Methoden des maschinellen Lernens und hat | |
die Proteste gegen das Cyber Valley vor drei Jahren unmittelbar zu spüren | |
bekommen. Drei Wochen lang besetzten Studierende den Hörsaal, in dem Hennig | |
normalerweise in seinen Vorlesungen erklärt, wie Algorithmen so trainiert | |
werden können, dass sie Fehler in ihren Entscheidungen besser erkennen. | |
Hennig wurde zu einer Figur, die das Cyber Valley auf Podiumsdiskussionen | |
beharrlich gegen Kritik verteidigt hat. | |
## Forschung mit Forschung kontrollieren | |
Nicht nur wegen der anfänglichen Proteste ist Hennig überzeugt, dass die | |
Sensibilität für ethische Fragen im Cyber Valley ausgeprägter sei als an | |
anderen Standorten. Ein Beleg dafür sei, dass sich immer mehr Institutionen | |
in Tübingen mit KI-Ethik beschäftigten. An der Uni gibt es eine | |
Arbeitsgruppe Ethik und Philosophie der KI, und die Volkswagenstiftung | |
fördert ein neues Zentrum zur Analyse der gesellschaftlichen KI-Debatte. Am | |
Max-Planck-Institut für Intelligente Systeme erforscht eine Gruppe, wie | |
Algorithmen diskriminierungsfreie Entscheidungen treffen können. Und mit | |
Moritz Hardt von der Universität Berkeley in Kalifornien wurde Anfang 2022 | |
ein Forscher angestellt, der Informatik als Sozialwissenschaft bezeichnet. | |
Hennig selbst hat ein Seminar zu algorithmischer Fairness gegeben und | |
spricht in seiner Vorlesung über gesellschaftliche Verantwortung. Was | |
bedeutet es für einen Algorithmus, fair zu sein? Als Beispiel nennt er die | |
Vergabe eines Kredits. Man könne etwa verlangen, dass die Entscheidungen | |
des Algorithmus unabhängig vom Geschlecht der Kreditnehmer:innen sein | |
sollen. Oder, dass der Algorithmus für Männer und Frauen gleich zuverlässig | |
sei, also gleich häufig Fehler macht. Es sei aber mathematisch bewiesen, | |
dass beides gleichzeitig nicht möglich ist. Solche Fragen gehören laut | |
Hennig inzwischen zu den Inhalten der Grundvorlesungen in KI. | |
Noch mehr Raum für Diskussionen solcher Probleme soll es im deutschlandweit | |
ersten Masterstudiengang für Machine Learning geben. Neue Seminare zu den | |
sozialen Folgen von immer mehr intelligenten Maschinen sind geplant. „Wir | |
sind hier so etwas wie die letzte Station außerhalb der Industrie für die | |
Leute, die später dort arbeiten“, sagt Hennig. Die Studierenden sollen für | |
die Relevanz der KI-Ethik sensibilisiert werden, bevor sie nach ihrem | |
Abschluss womöglich anfangen, nebenan bei Amazon zu arbeiten. | |
9 Jan 2023 | |
## LINKS | |
[1] /Kuenstliche-Intelligenz/!5880554 | |
[2] /Winfried-Kretschmann-ueber-2022/!5901542 | |
[3] /Stellenstreichungen-im-Silicon-Valley/!5892248 | |
[4] /Reaktionen-auf-COP27/!5893633 | |
[5] https://nocybervalley.de/?page_id=26 | |
## AUTOREN | |
Aaron Wörz | |
## TAGS | |
Zukunft | |
wochentaz | |
künstliche Intelligenz | |
Forschungsförderung | |
GNS | |
Bildungschancen | |
Digitalisierung | |
künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Künstliche Intelligenz von ChatGPT: Gedichtanalyse, Goethe, Enter | |
Der Chatbot ChatGPT könnte viele Hausaufgaben erledigen. Kommt da was auf | |
die Schulen zu? In den Ministerien ist man erstaunlich gelassen. | |
Foto-App „Lensa“: Nicht so schön, wie es scheint | |
Die Fotobearbeitungs-App Lensa kommt ganz unschuldig daher. Doch sie macht | |
immer wiederkehrende schwere Fehler im Maschinenlernen sichtbar. | |
Kolumne einer künstlichen Intelligenz: Wie schreibt eine Robo-Autor*in? | |
Die taz veröffentlicht die erste Kolumne einer nicht-menschlichen Autor*in. | |
Wie funktioniert das? Die wichtigsten Fragen zur künstlichen Intelligenz. |