| # taz.de -- Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig | |
| > Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren | |
| > Bericht vor. Konkreter wird ein anderer Report. | |
| Bild: Die KI immer dabei: eine Übersetzungs-App soll verständlich machen, was… | |
| Berlin taz | Was die [1][Enquetekommission „Künstliche Intelligenz“] gut | |
| zwei Jahre nach ihrem Start vorgelegt hat, ist ein Rundumschlag. Die | |
| Gruppe, die jeweils zur Hälfte aus Bundestagsmitgliedern und aus externen | |
| Expert:innen zusammengesetzt war, beleuchtet das Thema künstliche | |
| Intelligenz (KI) unter anderem im Kontext von Gesundheit, Datenschutz, | |
| Diskrimierung und Nachhaltigkeit. „KI ist die nächste Stufe einer durch | |
| technologischen Fortschritt getriebenen Digitalisierung“, so beschreiben | |
| die Autor:innen [2][in dem Abschlussbericht die Bedeutung der eigenen | |
| Arbeit, die sie am Mittwoch an Bundestagspräsident Wolfgang Schäuble (CDU) | |
| übergaben.] | |
| Der Bericht liest sich vor allem wie eine Bestandsaufnahme dessen, was im | |
| Bereich KI möglich ist. Doch wenn es um konkrete Konsequenzen etwa in | |
| Sachen Regulierung geht, bleibt das Papier meist vage im Wünschenswerten. | |
| Beispiel Gesundheit: Die Autor:innen empfehlen, dass eine Datenfreigabe für | |
| die Forschung „abgestuft, freiwillig und widerrufbar“ sein sollte. Oder | |
| dass, „wo möglich, offene Standards“ genutzt werden sollen. Und das gehört | |
| schon zu den konkreteren Empfehlungen in dem Bereich. | |
| Ursache dafür könnte sein, dass stets ein „breiter Konsens“ gesucht wurde, | |
| wie es einige Projektgruppen des Berichts betonen. Ein weiteres Symptom, | |
| wie schwierig die Debatte war, sind die Sondervoten: Jede | |
| Bundestagsfraktion verfasste eines. Immerhin konnte man sich darauf | |
| einigen, dass eine „menschenzentrierte KI“ Leitbild sein soll. | |
| Währenddessen hat der aktuelle [3][Automating-Society-Report], den die | |
| Organisation AlgorithmWatch und die Bertelsmann Stiftung ebenfalls am | |
| Mittwoch vorstellten, eine Bestandsaufnahme gemacht. Das Ergebnis: Der | |
| Einsatz von KI-Systemen und solchen, die automatisiert Entscheidungen | |
| treffen, hat in Deutschland und Europa in den vergangenen zwei Jahren stark | |
| zugenommen. | |
| ## Europaweite Regeln fehlen | |
| Für Deutschland führt der Report unter anderem das Beispiel Predictive | |
| Policing an. Eine Software sagt dabei auf Basis von Verbrechen in der | |
| Vergangenheit voraus, wo demnächst eines verübt werden könnte. Die Polizei | |
| reagiert beispielsweise, indem sie an dem Ort aus der Vorhersage stärker | |
| kontrolliert. Derartige Software wird unter anderem in Bayern und | |
| Baden-Württemberg eingesetzt. | |
| Sarah Fischer, Expertin für algorithmische Entscheidungsfindung bei der | |
| Bertelsmann Stiftung, kritisiert, dass ein einheitlicher Rechtsrahmen in | |
| Europa fehle. So mangele es unter anderem an Regeln zu Transparenz und | |
| Aufsicht solcher Systeme. „Wir sehen viele gute Absichten, die dann oft | |
| schlecht umgesetzt werden“, sagt sie. Doch die EU ist derzeit noch in der | |
| Findungsphase. Im Februar hatte sie ein „Weißbuch zur künstlichen | |
| Intelligenz“ veröffentlicht – jedoch ohne konkrete Vorschläge für einen | |
| Regelungsrahmen. | |
| Die Autor:innen des Reports fordern unter anderem öffentlich einsehbare | |
| Register für Systeme, die automatische Entscheidungen treffen. Darin | |
| müssten unter anderem das Ziel und das verwendete Modell erklärt und | |
| Trainingsdaten öffentlich gemacht werden. Vorteil einer derartigen Regelung | |
| wäre nicht nur ein deutlich größeres Maß an Transparenz bei automatisierter | |
| Entscheidungsfindung. Es würde auch dazu beitragen, dass die Mechanismen | |
| dieser Systeme für eine breitere Öffentlichkeit verstehbar und damit | |
| diskutierbar gemacht würden. | |
| 28 Oct 2020 | |
| ## LINKS | |
| [1] https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki | |
| [2] https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki#url=L2Rva3V… | |
| [3] https://automatingsociety.algorithmwatch.org/ | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Algorithmen | |
| Schwerpunkt Künstliche Intelligenz | |
| Software | |
| Verbraucherschutz | |
| Diagnose | |
| Alexa | |
| Ethik | |
| Soziale Medien | |
| Digitalisierung | |
| Schwerpunkt Rassismus | |
| ## ARTIKEL ZUM THEMA | |
| Kritik von Verbraucherzentrale: KI zu lasch reguliert | |
| Die Verbraucherzentrale kritisiert den Umgang der Bundesregierung mit | |
| Künstlicher Intelligenz. Für ein Ampelbündnis birgt das Streitpotenzial. | |
| Künstliche Intelligenz gegen Pandemie: Wie KI Corona erkennt | |
| Im Kampf gegen die Coronapandemie wird auch auf künstliche Intelligenz | |
| gesetzt. So sollen Infizierte anhand der Sprache oder am Husten erkennbar | |
| sein. | |
| Debatte um Künstliche Intelligenz: KI für alle | |
| Regulierungen müssen sicherstellen, dass vom KI-Einsatz nicht nur ein paar | |
| Unternehmen profitieren, sondern die ganze Gesellschaft. | |
| Künstliche Intelligenz im Alltag: Längst unter uns | |
| Anwendungen künstlicher Intelligenz sind keine Science-Fiction, sondern | |
| längst Alltag. Vier Beispiele aus ganz unterschiedlichen Bereichen. | |
| Künstliche Intelligenz: KI außer Kontrolle | |
| Enquetekommission streitet über die Regulierung selbstlernender Maschinen: | |
| Braucht man eine Behörde oder nur mehr Transparenz? | |
| KI-Einsatz in Deutschland: Firmen kaum künstlich intelligent | |
| Eine Umfrage zeigt: Viele Firmen sind skeptisch, was den Nutzen künstlicher | |
| Intelligenz angeht. Sie fordern verbindliche Regeln. | |
| Unfälle mit künstlicher Intelligenz: Ein rechtlicher Flickenteppich | |
| Künstliche Intelligenz ist nicht perfekt. Der tödliche Unfall durch ein | |
| Roboterauto oder rassistische Diskriminierung erfordern strengere | |
| Regulierung. |