| # taz.de -- Ethik für Künstliche Intelligenz: Wo Schwaben Kalifornien sein wi… | |
| > Das Tübinger Cyber Valley will transparent und fair künstliche | |
| > Intelligenz entwickeln – Hand in Hand mit Milliardenkonzernen wie Amazon | |
| > und BMW. | |
| Bild: Das Modell eines Roboterarms im Labor des Max-Planck-Instituts für intel… | |
| Der Ort, an dem die Zukunft entstehen soll, sieht ziemlich trist aus. An | |
| einem regnerischen Morgen kurz vor Weihnachten versprüht das Zentrum der | |
| europäischen Forschung für [1][künstliche Intelligenz (KI)] nicht den | |
| Innovationsgeist, den man sich hier verspricht. Wer bei dem Namen Cyber | |
| Valley an riesige Glasgebäude und Tesla-Fuhrparks denkt, der wird im | |
| Tübinger Stadtteil Waldhäuser-Ost enttäuscht. Grimmige Parkplatzwächter | |
| mustern vorbeifahrende E-Smarts, Baukräne flankieren die leeren Straßen. | |
| Hier, auf einer ehemaligen Viehweide in der schwäbischen Stadt mit ihren | |
| 90.000 Einwohnern, will Europa in der KI-Forschung schnellstmöglich zu den | |
| USA und China aufschließen. Und eine Sache grundlegend anders machen: Im | |
| Ländle soll möglichst transparent, im Diskurs mit der Gesellschaft und mit | |
| Weitsicht für ethische Konflikte geforscht werden. Aber wie kriegt man | |
| gesellschaftliche Werte und Normen in eine Maschine? Ist dieser Anspruch in | |
| einem Feld, in dem es hochkompetitiv zugeht und kaum | |
| Sozialwissenschaftler:innen arbeiten, überhaupt realistisch? | |
| Gegründet wurde das selbsternannte Ökosystem Cyber Valley vor etwa sechs | |
| Jahren vom Land Baden-Württemberg, zusammen mit den Universitäten Tübingen | |
| und Stuttgart sowie der Max-Planck-Gesellschaft. Mit an Bord waren von | |
| Beginn an auch sieben Konzerne, darunter Amazon, BMW und Bosch. | |
| Über 1.000 Forschende arbeiten an den beiden Standorten. Dabei soll es | |
| nicht bleiben: Die Stiftung des SAP-Gründers Hans-Werner Hector investiert | |
| 100 Millionen in ein weiteres KI-Labor, [2][die schwarz-grüne | |
| Landesregierung] schießt noch 180 Millionen Euro in die Initiative. Danyal | |
| Bayaz, baden-württembergischer Finanzminister der Grünen, sagt: „Wir wollen | |
| Quellen künftigen Wohlstands erschließen.“ Das Land investiere, „damit | |
| Baden-Württemberg das Kalifornien Europas wird.“ | |
| ## Schwarzwald-Retreat und Yoga auf dem Dach | |
| Im Tübinger Max-Planck-Institut für Intelligente Systeme kommt bereits die | |
| Tech-Start-Up-Stimmung auf, von der im [3][Silicon Valley] so gerne | |
| gesprochen wird. Auf Glaswänden in den Küchenecken stehen handgeschriebene | |
| Formeln. Im Aufzug hängt die Einladung zu einem mehrtägigen Retreat im | |
| Schwarzwald, und auf der Dachterrasse mit Panoramablick auf die schwäbische | |
| Alb kann man sich eine Yogamatte vom Ständer greifen. | |
| Ein paar Stockwerke tiefer sitzt Wieland Brendel, Fleecejacke, | |
| Dreitagebart, auf einem Barhocker und nippt an einem Espresso. Die Wörter | |
| schießen nur so aus dem 36-Jährigen, der besonders herzlich über makabre | |
| Witze lacht. Brendel leitet eine Forschungsgruppe, die Maschinen | |
| menschliches Sehen beibringen will. Eines seiner Projekte wurde dieses Jahr | |
| auf der [4][Klimakonferenz in Ägypten] vorgestellt: Ein vollautomatischer | |
| Roboter, der sich in unbekannter Umgebung bewegen, Äpfel pflücken oder | |
| Unkraut jäten kann. Was hat das mit Ethik und Moral zu tun? „Ich kann den | |
| Roboter als persönlichen Gärtner halten, aber natürlich kann da auch jemand | |
| ein Gewehr draufpacken“, sagt Brendel. Ob und wie seine Ergebnisse eines | |
| Tages zweckentfremdet werden, könne er als Forscher zum jetzigen Zeitpunkt | |
| kaum beeinflussen. KI und Machine Learning sind für Brendel eine | |
| Basistechnologie, ähnlich wie ein Motor: „Damit kann ein Krankenwagen | |
| genauso fahren wie ein Panzer.“ Die Folgen solch grundlegender Forschung in | |
| zehn oder zwanzig Jahren könne man heute noch nicht absehen, sagt er. | |
| Um die Forschenden im Cyber Valley anzuregen, sich mit den | |
| gesellschaftlichen Folgen ihrer Arbeit auseinanderzusetzen, wurde vor drei | |
| Jahren extra ein Gremium geschaffen: Das Public Advisory Board, einberufen | |
| vom baden-württembergischen Wissenschaftsministerium. Der Beirat bewertet | |
| die eingereichten Forschungsanträge. | |
| ## „Wir sind keine Forschungspolizei“ | |
| Bevor die Anträge genehmigt werden, landen sie im Postfach von Regina | |
| Ammicht Quinn. Die Ethik-Professorin der Uni Tübingen ist Sprecherin des | |
| neunköpfigen Gremiums. Gleich zu Beginn des Videogesprächs stellt die | |
| 65-Jährige klar: „Wir sind keine Forschungspolizei.“ In dem ehrenamtlichen | |
| Beirat sitzen Ethiker:innen, ein Lehramtsstudent, eine Tech-Aktivistin und | |
| eine Grünen-Gemeinderätin aus Tübingen. Fast 60 Anträge haben sie in drei | |
| Jahren gelesen und in den meisten Fällen bei den Forschenden nachgehakt: In | |
| welchem Feld sollte die Forschung am besten angewendet werden? Wo auf | |
| keinen Fall? | |
| Unter den 21 finanzierten Projekten finden sich ein intelligenter | |
| Lernassistent für Schüler:innen oder künstliche Organe, die Berührungen | |
| spüren können und Mediziner:innen in der Ausbildung helfen sollen. | |
| Welche Anträge abgelehnt wurden oder zu großen Bedenken im Ethik-Beirat | |
| führten, will das Cyber Valley aber nicht sagen. | |
| Interessant ist ein anderes Projekt. Hier hatte der Ethik-Beirat nach | |
| taz-Informationen Sorgen – und dennoch wurde es gefördert. Denn die finale | |
| Entscheidung über Fördergelder liegt beim Fund-Board des Cyber Valleys. | |
| Jeweils sechs Vertreter:innen aus Wissenschaft und Industrie sitzen | |
| darin. Der Ethik-Beirat hat dabei kein Stimm- oder Vetrorecht, sondern eine | |
| rein beratende Funktion. In dem Projekt ging es um autonome Drohnen, die | |
| Bewegungsmuster von Wildtieren in der Natur erfassen. Der Ethik-Beirat | |
| äußerte Bedenken, weil mit der Technik theoretisch auch Menschen aus der | |
| Luft präzise und automatisiert überwacht werden könnten. | |
| Ist der Ethik-Beirat nicht mehr als ein nettes Aushängeschild? „Unsere | |
| Wirkung auf das gesamte Ökosystem war bisher schwach“, sagt Ammicht Quinn. | |
| Von Anfang an habe die Öffentlichkeit den Einfluss des Ethik-Beirats | |
| überschätzt. Im KI-Bereich würden extrem kluge junge Leute arbeiten, die | |
| auch politisch interessiert seien. „Aber oft ist ihnen in der alltäglichen | |
| Arbeit nicht wirklich klar, dass ihre eigene Forschung auch politisch ist | |
| und ethische Fragen aufwirft“, sagt Ammicht Quinn. | |
| ## Nicht alle Tübinger:innen wollten das Cyber Valley | |
| Viele Tübinger:innen sind sich dieses Zusammenhangs offenbar bewusst. | |
| Kundgebungen wurden abgehalten, ein Hörsaal besetzt, Diskussionsrunden | |
| veranstaltet. Nicht alle freuten sich auf das Cyber Valley. Ammicht Quinn | |
| sagt, die anfänglichen Proteste hätten zur Bildung des Ethik-Beirats | |
| beigetragen. | |
| Mehrere Jahre protestierte das von Studierenden gegründete [5][Bündnis | |
| #NoCyberValley] gegen die Initiative, allen voran gegen die Ansiedlung von | |
| Amazon in Tübingen. Sie befürchteten nicht nur eine Explosion der Mieten, | |
| sondern sahen auch die Unabhängigkeit der Forschung in Gefahr. Ein Beispiel | |
| nannten die Gegner:innen immer wieder: Vier Jahre lang arbeitete | |
| Matthias Bethge, Neurowissenschaftler am KI-Zentrum der Uni im Cyber | |
| Valley, an einem Projekt, das von der Forschungsbehörde IARPA der | |
| US-Geheimdienste in Auftrag gegeben wurde. Bethge forschte an | |
| neurowissenschaftlichen Modellen, die mit Hilfe von Algorithmen die | |
| Funktionsweise des Gehirns darstellen. | |
| Ein Großteil der damaligen Kritik richtete sich gegen ein Forschungszentrum | |
| von Amazon, das mittlerweile fertig gebaut wurde. Es steht in unmittelbarer | |
| Nachbarschaft des Cyber Valleys. Praktisch ist das insbesondere für einen | |
| Mann: Max-Planck-Direktor Bernhard Schölkopf, ein Star im Cyber Valley. In | |
| unter fünf Minuten kann er von seinem Arbeitsplatz zum Amazon-Gebäude | |
| spazieren, sein zweiter Arbeitsplatz. Seit 2017 forscht Schölkopf dort | |
| ebenfalls an künstlicher Intelligenz. Gleiches galt bis 2021 auch für | |
| Michael Black, der ebenfalls zu den renommiertesten | |
| Wissenschaftler:innen im Cyber Valley zählt. Das weltweite Programm | |
| von Amazon richtet sich explizit an akademische Führungskräfte und soll | |
| „die Zusammenarbeit zwischen akademischer und industrieller Forschung | |
| fördern“, schreibt der Konzern. | |
| Wegen solcher Verbindungen sahen einige Tübinger:innen die | |
| Wissenschaftsfreiheit in Gefahr. Dabei sind Drittmittel aus Industrie und | |
| Wirtschaft in der deutschen Forschungslandschaft nichts Ungewöhnliches. Das | |
| Protestbündnis gegen das Cyber Valley befürchtet trotzdem, dass die | |
| Unternehmen Einfluss auf die wissenschaftliche Arbeit nähmen und einen | |
| exklusiven Zugang zu den Ergebnissen hätten. Im Cyber Valley wird das | |
| konsequent verneint: Alle Resultate der Forschung, die mit öffentlichen | |
| Mitteln finanziert wurde, würden auch öffentlich publiziert. Die | |
| Kooperationsverträge zwischen den sieben Geldgebern aus der Industrie und | |
| der Forschungsinitiative hingegen bleiben geheim. | |
| Nach Amazon will nun Bosch ein eigenes Forschungszentrum in Tübingen bauen. | |
| Der Technikkonzern finanziert, genauso wie Mercedes-Benz, bereits einen | |
| Lehrstuhl im Cyber Valley. | |
| Keine 100 Meter entfernt vom goldbraunen Amazon-Neubau sitzt Philipp Hennig | |
| in seinem Büro im KI-Zentrum der Uni Tübingen. Der 42-Jährige hat eine | |
| ruhige Stimme und ist geübt darin, komplexe Sachverhalte für Fachfremde zu | |
| übersetzen. Er ist Professor für Methoden des maschinellen Lernens und hat | |
| die Proteste gegen das Cyber Valley vor drei Jahren unmittelbar zu spüren | |
| bekommen. Drei Wochen lang besetzten Studierende den Hörsaal, in dem Hennig | |
| normalerweise in seinen Vorlesungen erklärt, wie Algorithmen so trainiert | |
| werden können, dass sie Fehler in ihren Entscheidungen besser erkennen. | |
| Hennig wurde zu einer Figur, die das Cyber Valley auf Podiumsdiskussionen | |
| beharrlich gegen Kritik verteidigt hat. | |
| ## Forschung mit Forschung kontrollieren | |
| Nicht nur wegen der anfänglichen Proteste ist Hennig überzeugt, dass die | |
| Sensibilität für ethische Fragen im Cyber Valley ausgeprägter sei als an | |
| anderen Standorten. Ein Beleg dafür sei, dass sich immer mehr Institutionen | |
| in Tübingen mit KI-Ethik beschäftigten. An der Uni gibt es eine | |
| Arbeitsgruppe Ethik und Philosophie der KI, und die Volkswagenstiftung | |
| fördert ein neues Zentrum zur Analyse der gesellschaftlichen KI-Debatte. Am | |
| Max-Planck-Institut für Intelligente Systeme erforscht eine Gruppe, wie | |
| Algorithmen diskriminierungsfreie Entscheidungen treffen können. Und mit | |
| Moritz Hardt von der Universität Berkeley in Kalifornien wurde Anfang 2022 | |
| ein Forscher angestellt, der Informatik als Sozialwissenschaft bezeichnet. | |
| Hennig selbst hat ein Seminar zu algorithmischer Fairness gegeben und | |
| spricht in seiner Vorlesung über gesellschaftliche Verantwortung. Was | |
| bedeutet es für einen Algorithmus, fair zu sein? Als Beispiel nennt er die | |
| Vergabe eines Kredits. Man könne etwa verlangen, dass die Entscheidungen | |
| des Algorithmus unabhängig vom Geschlecht der Kreditnehmer:innen sein | |
| sollen. Oder, dass der Algorithmus für Männer und Frauen gleich zuverlässig | |
| sei, also gleich häufig Fehler macht. Es sei aber mathematisch bewiesen, | |
| dass beides gleichzeitig nicht möglich ist. Solche Fragen gehören laut | |
| Hennig inzwischen zu den Inhalten der Grundvorlesungen in KI. | |
| Noch mehr Raum für Diskussionen solcher Probleme soll es im deutschlandweit | |
| ersten Masterstudiengang für Machine Learning geben. Neue Seminare zu den | |
| sozialen Folgen von immer mehr intelligenten Maschinen sind geplant. „Wir | |
| sind hier so etwas wie die letzte Station außerhalb der Industrie für die | |
| Leute, die später dort arbeiten“, sagt Hennig. Die Studierenden sollen für | |
| die Relevanz der KI-Ethik sensibilisiert werden, bevor sie nach ihrem | |
| Abschluss womöglich anfangen, nebenan bei Amazon zu arbeiten. | |
| 9 Jan 2023 | |
| ## LINKS | |
| [1] /Kuenstliche-Intelligenz/!5880554 | |
| [2] /Winfried-Kretschmann-ueber-2022/!5901542 | |
| [3] /Stellenstreichungen-im-Silicon-Valley/!5892248 | |
| [4] /Reaktionen-auf-COP27/!5893633 | |
| [5] https://nocybervalley.de/?page_id=26 | |
| ## AUTOREN | |
| Aaron Wörz | |
| ## TAGS | |
| Zukunft | |
| GNS | |
| wochentaz | |
| Schwerpunkt Künstliche Intelligenz | |
| Forschungsförderung | |
| Bildungschancen | |
| Datenschutz | |
| IG | |
| ## ARTIKEL ZUM THEMA | |
| Künstliche Intelligenz von ChatGPT: Gedichtanalyse, Goethe, Enter | |
| Der Chatbot ChatGPT könnte viele Hausaufgaben erledigen. Kommt da was auf | |
| die Schulen zu? In den Ministerien ist man erstaunlich gelassen. | |
| Foto-App „Lensa“: Nicht so schön, wie es scheint | |
| Die Fotobearbeitungs-App Lensa kommt ganz unschuldig daher. Doch sie macht | |
| immer wiederkehrende schwere Fehler im Maschinenlernen sichtbar. | |
| Kolumne einer künstlichen Intelligenz: Wie schreibt eine Robo-Autor*in? | |
| Die taz veröffentlicht die erste Kolumne einer nicht-menschlichen Autor*in. | |
| Wie funktioniert das? Die wichtigsten Fragen zur künstlichen Intelligenz. |