| # taz.de -- Kommentar Sperrungen bei Twitter: Twitter unterläuft die Gewaltent… | |
| > Das soziale Netzwerk sperrte jüngst viele Konten. Die fehleranfälligen | |
| > Verfahren sind ein schon länger bestehendes Problem. | |
| Bild: Der Twitter-Vogel sieht so süß aus. Das täuscht | |
| Anfang Mai teilte die Initiative „Deutsche Wohnen und Co. enteignen“ auf | |
| Twitter ein Foto, das ein manipuliertes SPD-Wahlplakat im Berliner | |
| Straßenland zeigte. Es handelte sich um einen offensichtlich satirischen | |
| Kommentar auf die SPD-Wohnungspolitik: Unter dem Wahlslogan „Berlin bleibt | |
| bezahlbar“ war der ursprüngliche Text mit „Hahahahahaha. War nur Spaß! | |
| Anzug und Immobilienwirtschaft stehen uns besser als Latzhose und sozialer | |
| Wohnungsbau“ ersetzt worden. Auch der Hashtag #dwenteignen war auf dem | |
| manipulierten Plakat angeführt und verwies auf die Urheber*innen des | |
| Eingriffs. | |
| Twitter sperrte prompt den Account der Initiative. „Du darfst keine Inhalte | |
| veröffentlichen, in denen falsche Informationen zu Wahlen oder zur | |
| Wahlregistrierung bereitgestellt werden“, so die Begründung. Die gleiche | |
| Verwarnung bekam wenige Tage zuvor die Berliner SPD-Staatssekretärin Sawsan | |
| Chebli. | |
| Sie hatte auf eine von der AfD und rechten Medien verbreitete Falschmeldung | |
| reagiert, Mohammed sei 2018 der beliebteste Vorname bei Neugeborenen in | |
| Berlin gewesen. Als Antwort auf die damit verbundene Hetzkampagne gegen | |
| eine vermeintliche Islamisierung Deutschlands hatte Chebli eigene | |
| Familienmitglieder mit dem Namen „Mohammed“ aufgelistet und hinzugefügt: | |
| „Wir werden schon dafür sorgen, dass dieser Name nie verschwindet!“. | |
| [1][Seither mehren sich die Vorfälle.] Ein weiterer SPDler, Sven Kohlhuber, | |
| wurde aufgrund eines AfD-kritischen Tweets gesperrt. [2][Dasselbe | |
| passierte] der Jüdischen Allgemeinen. Dass die Sperrungen eine | |
| beunruhigende Systematik aufweisen, lassen von User*innen initiierte | |
| Sammlungen unter dem Hashtag #twittersperrt vermuten: Ein AfD-freundlicher | |
| Meldemob scheint gezielt die Beiträge politischer Gegner*innen für Verstöße | |
| gegen Twitters Richtlinien zu melden – und damit Erfolg zu haben. | |
| ## Twitter seit US-Wahl 2016 unter Druck | |
| Die Verfahren, die Twitter zur Beurteilung manipulativer Inhalte verwendet, | |
| sind offenbar selbst hochgradig manipulations- und fehleranfällig. Auch die | |
| Vorladung des Konzerns in den Digitalausschuss des Bundestages am Mittwoch | |
| konnte diesen Eindruck nicht widerlegen. Nur in zwei Punkten hat er | |
| Gewissheit gebracht: Twitter erklärte, Satire gezielt zu sperren, und gab | |
| auch bekannt, dass in Deutschland aktuell zehnmal mehr Beiträge gelöscht | |
| werden würden als in anderen europäischen Ländern. | |
| Warum zensiert Twitter überhaupt? Seit den US-Präsidentschaftswahlen im | |
| Jahr 2016 stehen soziale Medien unter großem öffentlichen Druck, die | |
| Verbreitung von Fake News im Zusammenhang mit politischen Wahlen zu | |
| unterbinden. Die Vorwürfe trafen zunächst Facebook, haben mittlerweile aber | |
| zu einer grundsätzlichen Debatte über die Regulierung großer | |
| Internetkonzerne geführt. | |
| Verschiedene Einzelmaßnahmen in dieser Richtung wurden bereits beschlossen. | |
| So führte 2014 ein Urteil des Europäischen Gerichtshofs in einem Prozess | |
| gegen Google zur Einführung eines „Rechts auf Vergessenwerden“, welches der | |
| Plattform die Löschung einzelner Suchresultate auferlegt, wenn diese gegen | |
| Persönlichkeitsrechte verstoßen. | |
| 2017 wurde in Deutschland das umstrittene Netzwerkdurchsetzungsgesetz | |
| beschlossen, welches Plattformbetreiber zur wirksamen Bekämpfung von | |
| strafbaren Inhalten wie Hasskommentaren und Fehlinformation verpflichten | |
| möchte und den Konzernen mit hohen Bußgeldern droht. Im März 2019 beschloss | |
| das EU-Parlament die ebenfalls kontroverse Copyright-Reform, welche | |
| Plattformen dazu verpflichtet, alle Nutzer*innen-Beiträge auf Verstöße | |
| gegen Copyright-Verletzungen zu filtern. | |
| ## Nach geheimen Kriterien | |
| Tatsächlich ist eine behutsame Regulierung großer IT-Konzerne dringend | |
| nötig. Doch alle bisher ergriffenen Maßnahmen haben einen gravierenden | |
| Konstruktionsfehler gemeinsam: Sie delegieren die Entscheidungsgewalt über | |
| die Frage, ob ein Inhalt geltendes Recht verletzt oder falsche | |
| Informationen enthält, an die Plattformen selbst. | |
| Nicht eine öffentliche Stelle und transparente Abläufe, sondern | |
| automatische Computersysteme und Content-Moderator*innen treffen nach | |
| geheimen Kriterien diese Entscheidungen – ohne öffentliche | |
| Rechenschaftspflicht. Bei komplexen politischen Debatten wie der Entlarvung | |
| von Fake News ist jedoch die Frage, ob ein Beitrag eine simple | |
| Meinungsäußerung, Satire oder Manipulation ist, nicht nur extrem sensibel, | |
| sondern selbst mitunter eine politische Fragestellung. | |
| Darüber entscheiden dann Content-Moderator*innen, die höchstwahrscheinlich | |
| juristische Laien sind, wenige Sekunden Zeit zur Beurteilung eines | |
| einzelnen Beitrags haben und überdies – wie im Digitalausschuss am Mittwoch | |
| bekannt wurde – in der Regel nicht in Deutschland sitzen. | |
| Die Entscheidungsverfahren, die von Tech-Plattformen aktuell eingesetzt | |
| werden, sind trotz der Verschaltung von künstlicher Intelligenz, | |
| Nutzer*innen-Meldungen und Content Moderation extrem fehler- und | |
| manipulationsanfällig. Der springende Punkt ist jedoch: Der Ärger über | |
| problematische Sperrungen ist falsch kanalisiert, wenn er nur in | |
| Forderungen nach besseren Filtermechanismen übersetzt wird. | |
| ## Demokratische Gewaltenteilung wird unterlaufen | |
| Denn die Fehleranfälligkeit ist keine momentane Unzulänglichkeit, sondern | |
| ein inhärentes Problem: Filterverfahren werden bei komplexen Debatten und | |
| „heiklen Themen“ stets mit Unsicherheit entscheiden. In einer Situation des | |
| wachsenden öffentlichen Drucks und drohender Bußgelder sind die Plattformen | |
| dazu gezwungen, auf Nummer sicher zu gehen und im Zweifelsfall einen | |
| unklaren Inhalt einfach zu löschen. | |
| Es wäre somit keine Lösung des Problems, wenn Twitter seine Filtertechniken | |
| und Prüfmechanismen verbessern würde, wie es viele Stimmen jetzt fordern. | |
| Denn egal, wie „perfekt“ diese Verfahren sind, das eigentliche Problem | |
| besteht darin, dass hier die demokratische Gewaltenteilung unterlaufen | |
| wird: Die Plattform legt selbst die Regeln und Kriterien darüber fest, was | |
| ein valider Debattenbeitrag ist. | |
| Zugleich urteilt sie über Verletzungen der Regeln und setzt entsprechende | |
| Sanktionen durch. Jede Regulierungsmaßnahme, die Gesetze schafft, deren | |
| Durchsetzung dann an die Plattformen selbst delegiert wird, verschärft das | |
| Problem der Intransparenz und Abhängigkeit von ihnen. Mit einem solchen | |
| „Outsourcing“ der Rechtsdurchsetzung an private Akteure sägt der | |
| Rechtsstaat am eigenen Ast. | |
| Twitter, Facebook & Co. haben längst die Funktion einer öffentlichen | |
| Kommunikationsinfrastruktur. Deshalb ist es auch die Aufgabe der | |
| Öffentlichkeit, das geltende Recht in digitalen Räumen durchzusetzen. Eine | |
| progressive Lösung zur effektiven Regulierung von Social-Media-Plattformen | |
| wäre deshalb die Einrichtung einer transparent operierenden, unabhängigen, | |
| demokratisch kontrollierten Stelle, die für den digitalen Raum solche | |
| Entscheidungen trifft. | |
| ## Kampf gegen Hetze, Hass und Beleidigung | |
| Dagegen haben die bisherigen Regulierungsmaßnahmen den Plattformen im | |
| Effekt mehr Macht zugespielt, anstatt ihre schädlichen Wirkungen zu | |
| begrenzen. Denn sie laufen darauf hinaus, ein privates „Hausrecht“ der | |
| Plattformbetreiber zu stärken mit „Türstehern“, die den Zutritt zu diesen | |
| eigentlich öffentlichen Räumen nach unklarem Prinzip begrenzen. | |
| Um dem entgegenzuwirken, müsste für soziale Medien eine Rechtskategorie | |
| „öffentliche digitale Infrastruktur“ eingeführt werden, die bewirkt, dass | |
| dort rechtsstaatliche, transparente und demokratisch kontrollierbare | |
| Verfahren der Streitschlichtung angewandt werden – im Kampf gegen Hetze, | |
| Hass und Beleidigung sowie gegen Fake News und Manipulation. | |
| Das würde die sozialen Medien weder verstaatlichen noch enteignen. Aber | |
| das, was dort erlaubt und verboten ist, würde in die Verantwortung der | |
| Allgemeinheit fallen. Andernfalls übereignen wir Unternehmen die Kontrolle | |
| über das Herzstück der Demokratie – die politische Meinungsbildung in einem | |
| pluralen, dissensfähigen Diskurs. | |
| 17 May 2019 | |
| ## LINKS | |
| [1] /Twittersperrt-vor-der-Europawahl/!5592945 | |
| [2] /Angebliche-Falschinformationen/!5594774 | |
| ## AUTOREN | |
| Jorinde Schulz | |
| Rainer Mühlhoff | |
| ## TAGS | |
| Twitter / X | |
| Social Media | |
| Fake News | |
| Twitter / X | |
| Twitter / X | |
| BVB | |
| ## ARTIKEL ZUM THEMA | |
| #Twittersperrt vor der Europawahl: Satire verboten | |
| Twitter äußert sich im Bundestag zu Accountsperrungen und verteidigt die | |
| Löschung von Satire. Eine rechte Kampagne scheint naheliegend. | |
| Angebliche Falschinformationen: Twitter blockt schon wieder | |
| Der Kurznachrichtendienst sperrt erneut Konten wegen „irreführender | |
| Informationen zu Wahlen“. Betroffen ist auch die „Jüdische Allgemeine“. | |
| Angebliche BVB-Plakate gegen Nazis: #EchteLiebeStattRechteTriebe | |
| In Dortmund tauchen Plakate mit markigen Zitaten von BVB-Spielern und | |
| Trainer Favre gegen Nazis in Dortmund auf. Was steckt dahinter? |