Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig
> Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren
> Bericht vor. Konkreter wird ein anderer Report.
Bild: Die KI immer dabei: eine Übersetzungs-App soll verständlich machen, was…
Berlin taz | Was die [1][Enquetekommission „Künstliche Intelligenz“] gut
zwei Jahre nach ihrem Start vorgelegt hat, ist ein Rundumschlag. Die
Gruppe, die jeweils zur Hälfte aus Bundestagsmitgliedern und aus externen
Expert:innen zusammengesetzt war, beleuchtet das Thema künstliche
Intelligenz (KI) unter anderem im Kontext von Gesundheit, Datenschutz,
Diskrimierung und Nachhaltigkeit. „KI ist die nächste Stufe einer durch
technologischen Fortschritt getriebenen Digitalisierung“, so beschreiben
die Autor:innen [2][in dem Abschlussbericht die Bedeutung der eigenen
Arbeit, die sie am Mittwoch an Bundestagspräsident Wolfgang Schäuble (CDU)
übergaben.]
Der Bericht liest sich vor allem wie eine Bestandsaufnahme dessen, was im
Bereich KI möglich ist. Doch wenn es um konkrete Konsequenzen etwa in
Sachen Regulierung geht, bleibt das Papier meist vage im Wünschenswerten.
Beispiel Gesundheit: Die Autor:innen empfehlen, dass eine Datenfreigabe für
die Forschung „abgestuft, freiwillig und widerrufbar“ sein sollte. Oder
dass, „wo möglich, offene Standards“ genutzt werden sollen. Und das gehört
schon zu den konkreteren Empfehlungen in dem Bereich.
Ursache dafür könnte sein, dass stets ein „breiter Konsens“ gesucht wurde,
wie es einige Projektgruppen des Berichts betonen. Ein weiteres Symptom,
wie schwierig die Debatte war, sind die Sondervoten: Jede
Bundestagsfraktion verfasste eines. Immerhin konnte man sich darauf
einigen, dass eine „menschenzentrierte KI“ Leitbild sein soll.
Währenddessen hat der aktuelle [3][Automating-Society-Report], den die
Organisation AlgorithmWatch und die Bertelsmann Stiftung ebenfalls am
Mittwoch vorstellten, eine Bestandsaufnahme gemacht. Das Ergebnis: Der
Einsatz von KI-Systemen und solchen, die automatisiert Entscheidungen
treffen, hat in Deutschland und Europa in den vergangenen zwei Jahren stark
zugenommen.
## Europaweite Regeln fehlen
Für Deutschland führt der Report unter anderem das Beispiel Predictive
Policing an. Eine Software sagt dabei auf Basis von Verbrechen in der
Vergangenheit voraus, wo demnächst eines verübt werden könnte. Die Polizei
reagiert beispielsweise, indem sie an dem Ort aus der Vorhersage stärker
kontrolliert. Derartige Software wird unter anderem in Bayern und
Baden-Württemberg eingesetzt.
Sarah Fischer, Expertin für algorithmische Entscheidungsfindung bei der
Bertelsmann Stiftung, kritisiert, dass ein einheitlicher Rechtsrahmen in
Europa fehle. So mangele es unter anderem an Regeln zu Transparenz und
Aufsicht solcher Systeme. „Wir sehen viele gute Absichten, die dann oft
schlecht umgesetzt werden“, sagt sie. Doch die EU ist derzeit noch in der
Findungsphase. Im Februar hatte sie ein „Weißbuch zur künstlichen
Intelligenz“ veröffentlicht – jedoch ohne konkrete Vorschläge für einen
Regelungsrahmen.
Die Autor:innen des Reports fordern unter anderem öffentlich einsehbare
Register für Systeme, die automatische Entscheidungen treffen. Darin
müssten unter anderem das Ziel und das verwendete Modell erklärt und
Trainingsdaten öffentlich gemacht werden. Vorteil einer derartigen Regelung
wäre nicht nur ein deutlich größeres Maß an Transparenz bei automatisierter
Entscheidungsfindung. Es würde auch dazu beitragen, dass die Mechanismen
dieser Systeme für eine breitere Öffentlichkeit verstehbar und damit
diskutierbar gemacht würden.
28 Oct 2020
## LINKS
[1] https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki
[2] https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki#url=L2Rva3V…
[3] https://automatingsociety.algorithmwatch.org/
## AUTOREN
Svenja Bergt
## TAGS
Algorithmen
Schwerpunkt Künstliche Intelligenz
Software
Verbraucherschutz
Diagnose
Alexa
Ethik
Soziale Medien
Digitalisierung
Schwerpunkt Rassismus
## ARTIKEL ZUM THEMA
Kritik von Verbraucherzentrale: KI zu lasch reguliert
Die Verbraucherzentrale kritisiert den Umgang der Bundesregierung mit
Künstlicher Intelligenz. Für ein Ampelbündnis birgt das Streitpotenzial.
Künstliche Intelligenz gegen Pandemie: Wie KI Corona erkennt
Im Kampf gegen die Coronapandemie wird auch auf künstliche Intelligenz
gesetzt. So sollen Infizierte anhand der Sprache oder am Husten erkennbar
sein.
Debatte um Künstliche Intelligenz: KI für alle
Regulierungen müssen sicherstellen, dass vom KI-Einsatz nicht nur ein paar
Unternehmen profitieren, sondern die ganze Gesellschaft.
Künstliche Intelligenz im Alltag: Längst unter uns
Anwendungen künstlicher Intelligenz sind keine Science-Fiction, sondern
längst Alltag. Vier Beispiele aus ganz unterschiedlichen Bereichen.
Künstliche Intelligenz: KI außer Kontrolle
Enquetekommission streitet über die Regulierung selbstlernender Maschinen:
Braucht man eine Behörde oder nur mehr Transparenz?
KI-Einsatz in Deutschland: Firmen kaum künstlich intelligent
Eine Umfrage zeigt: Viele Firmen sind skeptisch, was den Nutzen künstlicher
Intelligenz angeht. Sie fordern verbindliche Regeln.
Unfälle mit künstlicher Intelligenz: Ein rechtlicher Flickenteppich
Künstliche Intelligenz ist nicht perfekt. Der tödliche Unfall durch ein
Roboterauto oder rassistische Diskriminierung erfordern strengere
Regulierung.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.