# taz.de -- Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig | |
> Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren | |
> Bericht vor. Konkreter wird ein anderer Report. | |
Bild: Die KI immer dabei: eine Übersetzungs-App soll verständlich machen, was… | |
Berlin taz | Was die [1][Enquetekommission „Künstliche Intelligenz“] gut | |
zwei Jahre nach ihrem Start vorgelegt hat, ist ein Rundumschlag. Die | |
Gruppe, die jeweils zur Hälfte aus Bundestagsmitgliedern und aus externen | |
Expert:innen zusammengesetzt war, beleuchtet das Thema künstliche | |
Intelligenz (KI) unter anderem im Kontext von Gesundheit, Datenschutz, | |
Diskrimierung und Nachhaltigkeit. „KI ist die nächste Stufe einer durch | |
technologischen Fortschritt getriebenen Digitalisierung“, so beschreiben | |
die Autor:innen [2][in dem Abschlussbericht die Bedeutung der eigenen | |
Arbeit, die sie am Mittwoch an Bundestagspräsident Wolfgang Schäuble (CDU) | |
übergaben.] | |
Der Bericht liest sich vor allem wie eine Bestandsaufnahme dessen, was im | |
Bereich KI möglich ist. Doch wenn es um konkrete Konsequenzen etwa in | |
Sachen Regulierung geht, bleibt das Papier meist vage im Wünschenswerten. | |
Beispiel Gesundheit: Die Autor:innen empfehlen, dass eine Datenfreigabe für | |
die Forschung „abgestuft, freiwillig und widerrufbar“ sein sollte. Oder | |
dass, „wo möglich, offene Standards“ genutzt werden sollen. Und das gehört | |
schon zu den konkreteren Empfehlungen in dem Bereich. | |
Ursache dafür könnte sein, dass stets ein „breiter Konsens“ gesucht wurde, | |
wie es einige Projektgruppen des Berichts betonen. Ein weiteres Symptom, | |
wie schwierig die Debatte war, sind die Sondervoten: Jede | |
Bundestagsfraktion verfasste eines. Immerhin konnte man sich darauf | |
einigen, dass eine „menschenzentrierte KI“ Leitbild sein soll. | |
Währenddessen hat der aktuelle [3][Automating-Society-Report], den die | |
Organisation AlgorithmWatch und die Bertelsmann Stiftung ebenfalls am | |
Mittwoch vorstellten, eine Bestandsaufnahme gemacht. Das Ergebnis: Der | |
Einsatz von KI-Systemen und solchen, die automatisiert Entscheidungen | |
treffen, hat in Deutschland und Europa in den vergangenen zwei Jahren stark | |
zugenommen. | |
## Europaweite Regeln fehlen | |
Für Deutschland führt der Report unter anderem das Beispiel Predictive | |
Policing an. Eine Software sagt dabei auf Basis von Verbrechen in der | |
Vergangenheit voraus, wo demnächst eines verübt werden könnte. Die Polizei | |
reagiert beispielsweise, indem sie an dem Ort aus der Vorhersage stärker | |
kontrolliert. Derartige Software wird unter anderem in Bayern und | |
Baden-Württemberg eingesetzt. | |
Sarah Fischer, Expertin für algorithmische Entscheidungsfindung bei der | |
Bertelsmann Stiftung, kritisiert, dass ein einheitlicher Rechtsrahmen in | |
Europa fehle. So mangele es unter anderem an Regeln zu Transparenz und | |
Aufsicht solcher Systeme. „Wir sehen viele gute Absichten, die dann oft | |
schlecht umgesetzt werden“, sagt sie. Doch die EU ist derzeit noch in der | |
Findungsphase. Im Februar hatte sie ein „Weißbuch zur künstlichen | |
Intelligenz“ veröffentlicht – jedoch ohne konkrete Vorschläge für einen | |
Regelungsrahmen. | |
Die Autor:innen des Reports fordern unter anderem öffentlich einsehbare | |
Register für Systeme, die automatische Entscheidungen treffen. Darin | |
müssten unter anderem das Ziel und das verwendete Modell erklärt und | |
Trainingsdaten öffentlich gemacht werden. Vorteil einer derartigen Regelung | |
wäre nicht nur ein deutlich größeres Maß an Transparenz bei automatisierter | |
Entscheidungsfindung. Es würde auch dazu beitragen, dass die Mechanismen | |
dieser Systeme für eine breitere Öffentlichkeit verstehbar und damit | |
diskutierbar gemacht würden. | |
28 Oct 2020 | |
## LINKS | |
[1] https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki | |
[2] https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki#url=L2Rva3V… | |
[3] https://automatingsociety.algorithmwatch.org/ | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Algorithmen | |
Schwerpunkt Künstliche Intelligenz | |
Software | |
Verbraucherschutz | |
Diagnose | |
Alexa | |
Ethik | |
Soziale Medien | |
Digitalisierung | |
Schwerpunkt Rassismus | |
## ARTIKEL ZUM THEMA | |
Kritik von Verbraucherzentrale: KI zu lasch reguliert | |
Die Verbraucherzentrale kritisiert den Umgang der Bundesregierung mit | |
Künstlicher Intelligenz. Für ein Ampelbündnis birgt das Streitpotenzial. | |
Künstliche Intelligenz gegen Pandemie: Wie KI Corona erkennt | |
Im Kampf gegen die Coronapandemie wird auch auf künstliche Intelligenz | |
gesetzt. So sollen Infizierte anhand der Sprache oder am Husten erkennbar | |
sein. | |
Debatte um Künstliche Intelligenz: KI für alle | |
Regulierungen müssen sicherstellen, dass vom KI-Einsatz nicht nur ein paar | |
Unternehmen profitieren, sondern die ganze Gesellschaft. | |
Künstliche Intelligenz im Alltag: Längst unter uns | |
Anwendungen künstlicher Intelligenz sind keine Science-Fiction, sondern | |
längst Alltag. Vier Beispiele aus ganz unterschiedlichen Bereichen. | |
Künstliche Intelligenz: KI außer Kontrolle | |
Enquetekommission streitet über die Regulierung selbstlernender Maschinen: | |
Braucht man eine Behörde oder nur mehr Transparenz? | |
KI-Einsatz in Deutschland: Firmen kaum künstlich intelligent | |
Eine Umfrage zeigt: Viele Firmen sind skeptisch, was den Nutzen künstlicher | |
Intelligenz angeht. Sie fordern verbindliche Regeln. | |
Unfälle mit künstlicher Intelligenz: Ein rechtlicher Flickenteppich | |
Künstliche Intelligenz ist nicht perfekt. Der tödliche Unfall durch ein | |
Roboterauto oder rassistische Diskriminierung erfordern strengere | |
Regulierung. |