| # taz.de -- Big Data bei den US-Wahlen: Das Silicon Valley weiß, wen du wählst | |
| > Clinton und Trump durchleuchten ihre WählerInnen – mit Algorithmen. Das | |
| > zerstöre die Demokratie, sagt die Mathematikerin Cathy O’Neil. | |
| Bild: „Trump sucks“ twittern, Selfie mit Hillary facebooken – landet alle… | |
| NEW YORK taz | Wer in den Vereinigten Staaten eine Wahl gewinnen will, muss | |
| alles über die Wählerinnen und Wähler des Landes wissen: Wo sie wohnen, | |
| welche Hautfarbe sie haben, ob sie gläubig sind, was sie arbeiten und | |
| welche Jobs sie vorher hatten, welche Bücher sie lesen, welche Filme sie | |
| schauen, ob sie für oder gegen Homoehe sind, Sojaschnitzel oder lieber | |
| frittierte Hühner essen, dick oder dünn sind, Grundbesitz haben oder Miete | |
| zahlen, eine Hypothek oder Löcher in den Zähnen oder Warzen am Arsch haben | |
| … Einfach alles. Über jeden Einzelnen. Und das Gleiche über alle ihr | |
| Freunde, Bekannten, Schulfreunde, Familienmitglieder und Arbeitskollegen. | |
| Egal, ob Hillary Clinton oder Donald Trump: Beide Wahlkämpfer nutzen die | |
| gesamte Macht der Datenberge. Sonst hätten sie keine Chance. Die Konsequenz | |
| ist verheerend: Wer regieren will, muss grundlegende demokratische Ideale | |
| zerstören, etwa die Idee der freien Bürger, die unbeobachtet eine geheime | |
| Wahl treffen. Die Öffentlichkeit ist längst abgestumpft und daran gewöhnt. | |
| Dieser Text ist geprägt von einem Gespräch mit der US-Autorin, | |
| Mathematikerin und Aktivistin Cathy O’Neil in deren Wohnung in der Nähe der | |
| Columbia University in New York. Sie hat eine reale Dystopie über die Macht | |
| der Algorithmen geschrieben – jene in Programmen codierten mathematischen | |
| Modelle, die unsere Facebook-Timeline und Google-Trefferliste bestücken, | |
| unsere Kreditwürdigkeit berechnen oder, vor allem in den USA, die Polizei | |
| in bestimmte Viertel dirigieren, Richtern beim Verhängen des Strafmaßes | |
| beraten, Jobbewerber aussortieren oder Wechselwähler identifizieren. | |
| „Weapons of Math Destruction“ heißt O’Neils Buch. Ein Wortspiel, das in … | |
| deutschen Übersetzung etwas schwerfällig klingt, in etwa | |
| „Mathevernichtungswaffen“ statt Massenvernichtungswaffen. FürO’Neil | |
| verbessern diese Programme die Gesellschaft nicht. Sie verstärken | |
| Rassismus, vertiefen soziale Probleme und höhlen die Demokratie aus. „Die | |
| Leute denken, die Demokratie ist am Leben, nur weil zwei Parteien mit | |
| unterschiedlichen Interessen zur Wahl stehen. Die Annahme ist ziemlicher | |
| Bullshit“, sagt sie in ihrem Wohnzimmer etwas außer Atem – die U-Bahn war | |
| verstopft, trotz Algorithmen, die den Verkehr optimieren sollen. | |
| ## Damit die Polizei dort häufiger patrouilliert | |
| O’Neil hat ihre eigene Geschichte mit Algorithmen. Sie hat ihren Doktor in | |
| Mathematik in Harvard gemacht, am MIT geforscht und dann für den Hedgefonds | |
| D. E. Shaw Programme entwickelt, die an den Finanzmärkten | |
| Investmententscheidungen treffen sollten. Den Kollaps der Märkte 2008 haben | |
| weder ihre noch andere Programme erkannt, in keinem der Institute. O’Neil | |
| erkannte das Grundproblem: Algorithmen durchforsten Datenberge nach | |
| Mustern, die sich wiederholen. Sie prognostizierten ständig steigende | |
| Immobilienpreise, weil das die Muster der Vergangenheit waren. Auf eine | |
| Gesellschaft übertragen heißt das, sie kodifizieren die herrschenden | |
| Verhältnisse. | |
| Ein Beispiel ist das in den USA beliebte „predictive policing“ – | |
| vorausschauende Polizeiarbeit. Dabei identifizieren Programme Gegenden mit | |
| hoher Kriminalität, damit die Polizei dort häufiger patrouilliert. | |
| Eigentlich keine schlechte Idee. | |
| Die Folge ist allerdings, dass ein weißer Junge, der mit 16 in einem guten | |
| Viertel einen Joint raucht, einfach nur einen Joint raucht. Raucht ein | |
| gleichaltriger Latino oder Schwarzer in einem ärmeren Viertel einen Joint, | |
| ist die Wahrscheinlichkeit, dabei von der Polizei entdeckt zu werden, | |
| wesentlich höher. Es folgt vielleicht ein Eintrag im Polizeiregister wegen | |
| Drogenbesitzes und Ärger in der Schule. Damit sinkt die Chance auf einen | |
| Job oder ein gutes College. Schließlich sind auch dort Algorithmen im | |
| Einsatz, die Daten sind allgegenwärtig. Der Junge aus schlechtem Viertel | |
| mit Vorstrafe bekommt wahrscheinlich eine schlechtere Bewertung als der aus | |
| gutem Hause. Statt die Welt zu verbessern, zementieren die Algorithmen die | |
| sozialen Verhältnisse. Sie verstärken Rassismus und die Benachteiligung | |
| bestimmter Bevölkerungsschichten. | |
| Seit dem Crash 2008 hat O’Neil über die Algorithmisierung der Welt | |
| nachgedacht. Und stieß auf viel gravierendere Auswüchse als die viel | |
| diskutierten Filterblasen: Soziale Medien zeigen ihren Usern Inhalte an, | |
| die diese mögen – also verstärken sich die immer gleichen Ansichten. Wer | |
| Trump gut findet, bei dem tauchen in der Timeline eben Texte darüber auf, | |
| wie schlimm Clintons E-Mail-Affäre ist. Wer Clinton gut findet, der findet | |
| Texte über Trumps sexuelle Übergriffe. Eine Debatte findet nicht statt. | |
| ## Die Bürger sind komplett durchleuchtet | |
| Die Wahlkampfteams verstärken das Problem noch zusätzlich. Welches Ausmaß | |
| ihre Datenwut angenommen hat, beschreibt Alexander Nix, Chef des New Yorker | |
| Unternehmens Cambridge Analytica, in einem Interview mit der Zeitschrift | |
| Wirtschaftswoche. Die Firma kauft ganz legal bei Datenanbietern | |
| Informationen aus sozialen Netzwerken, TV-Boxen und öffentlichen Registern | |
| und hat, so freut sich der Chef, Profile von 200 Millionen Amerikanern, die | |
| jeweils 4.000 bis 5.000 Informationen enthalten. Diese Daten verkauft sie | |
| an Trump – nur zum Beispiel, denn bei Clinton sieht das nicht anders aus. | |
| Damit sind die Bürger komplett durchleuchtet. Perfektioniert hat die | |
| Methode das Team von Barack Obama vor der Wahl 2012. Die Tools dazu, so | |
| schreibt O’Neil, entwickelten Computerwissenschaftler, die zuvor | |
| beispielsweise Supermarktkunden anhand von Kaufgewohnheiten eingeteilt | |
| hatten. Sie führten Tausende Interviews mit WählerInnen, um deren Wünsche | |
| und Ängste zu verstehen und sie in Kategorien einzuteilen – linksliberaler | |
| Öko, rechtskonservativer Waffennarr. Jeder hinterlässt spezifische Spuren | |
| im Netz, klickt auf bestimmte Seiten, wohnt in bestimmten Gegenden, | |
| bestellt bestimmte Bücher bei Amazon. Das macht den einen zum potenziellen | |
| Spender, während ein anderer selbst als Wähler nicht mehr interessiert, | |
| weil er ohnehin fest in Händen des politischen Gegners ist. | |
| In den USA hat sich bereits eine ganze Datenindustrie entwickelt. Besonders | |
| wertvoll sind für diese die Profile von Wechselwählern in umkämpften | |
| Staaten wie Florida, Ohio oder Nevada. Wähler, die ohnehin entschieden | |
| sind, sind dagegen wertlos – außer als Spender. | |
| „Wir können uns die Wählerschaft wie die Finanzmärkte vorstellen: Mit | |
| Informationen fallen oder steigen ihre Werte. In diesem neuen Politikmarkt | |
| repräsentiert jeder von uns eine Aktie, deren Wert fluktuiert. Jede | |
| Kampagne muss entscheiden, in wen sie investiert“, schreibt O’Neil. Es | |
| scheint, als entschieden nicht 218 Millionen Amerikaner – sondern nur die | |
| Unentschlossenen, die über knappe Ausgänge etwa in Florida entscheiden. | |
| Grundsätzlich war das früher nicht anders. Aber heute wissen beide Parteien | |
| vor der Wahl, wer unentschlossen ist. Die Wahlschlacht schrumpft auf einen | |
| von Algorithmen vorhergesagten Personenkreis. | |
| ## Im Netz präsentiert sich Trump gezielt anders | |
| Damit ändert sich der Wahlkampf und das, was wir unter demokratischer | |
| Öffentlichkeit verstehen – sie fragmentiert und schafft sich ab. So kann | |
| sich ein Kandidat öffentlich zahm und präsidial geben, so wie es Donald | |
| Trump in der letzten Woche vor der Wahl versucht. Gleichzeitig können die | |
| Wahlkampfteams Wechselwählern in sozialen Netzwerken gezielt einen ganz | |
| anderen Kandidaten präsentieren. | |
| Das passiert täglich und das erkläre auch, warum Teile der Wählerschaft | |
| diskutieren, als lebten sie in Paralleluniversen. Laut Umfragen glaubten | |
| noch 2015 43 Prozent der Republikaner, Barack Obama sei ein Muslim. „Wir | |
| wissen schlicht nicht, welche politischen Botschaften unsere Nachbarn | |
| bekommen, also wird es immer schwerer zu verstehen, warum sie glauben, was | |
| sie glauben“, sagtO’Neil. | |
| War es früher nicht genauso? Es gab immer explizit rechte und explizit | |
| linke Publikationen. O’Neil zählt das Argument nicht. Natürlich haben | |
| Medien eine enorme Macht – die auch oft genug angeprangert worden ist. Doch | |
| wenn sie Kandidaten empfehlen oder kaputtschreiben, dann ist das Teil eines | |
| öffentlichen Prozesses. Redakteure müssen sich für ihre Argumentation | |
| verantworten, andere Medien reagieren darauf. Ihre Parteilichkeit ist | |
| offensichtlich. | |
| Dagegen halten die meisten WählerInnen das, was sie auf Facebook sehen oder | |
| was ihnen Google anzeigt, für objektiv. Den wenigsten ist bewusst, dass | |
| dahinter Programme stecken, die von ihren Herstellern gezielt darauf | |
| getrimmt sind, den Usern das zu zeigen, was sie ohnehin denken. Oder dass | |
| die verschiedenen Wahlteams ihre Vorlieben haargenau kennen und ihnen das | |
| präsentieren, was sie sowieso hören wollen. | |
| Also mehr Bildung, mehr Aufklärung? „Wenn ich Sie mit einem entlassen will, | |
| dann damit: Wir können nicht von den Menschen verlangen, dass sie von | |
| selbst aus ihrer Blase rauskommen. Das ist ein systemisches Problem. Es | |
| betrifft arme Leute am meisten, weil sie am wenigsten Zeit haben“, sagt | |
| O’Neil. Sie vergleicht die heutigen Zeitbudgets mit denen zu Beginn der | |
| Industrialisierung. Als vielversprechende neue Technologien zu Ausbeutung | |
| von ArbeiterInnen in Minen und Fabriken führten – bis der Staat Regeln | |
| setzte. „Wir müssen Fairness und Verantwortlichkeit in das Zeitalter der | |
| Daten bringen.“ | |
| 8 Nov 2016 | |
| ## AUTOREN | |
| Ingo Arzt | |
| ## TAGS | |
| Schwerpunkt USA unter Donald Trump | |
| Schwerpunkt Überwachung | |
| Hillary Clinton | |
| Donald Trump | |
| Algorithmen | |
| Schwerpunkt Meta | |
| Einbruch | |
| US-Wahl 2024 | |
| USA | |
| Schwerpunkt USA unter Donald Trump | |
| USA | |
| Schwerpunkt USA unter Donald Trump | |
| Email-Affäre | |
| Schwerpunkt USA unter Donald Trump | |
| ## ARTIKEL ZUM THEMA | |
| Big Data und US-Präsidentschaftswahl: Facebook sperrt Datenanalysefirma | |
| Präsident Donald Trump hatte die Dienste von Cambridge Analytica bei der | |
| Wahl 2016 genutzt. Facebook sagt, die Firma hätte Auflagen des Netzwerks | |
| verletzt. | |
| Verbrechens-Vorhersage mit Software: „Die Polizei ist skeptisch“ | |
| Predictive Policing versucht zu prognostizieren, wo und wann Einbrüche | |
| begangen werden. Die Analyse kann auch auf andere Delikte ausgeweitet | |
| werden. | |
| Big Data und die US-Präsidentschaftswahl: Die waren es! | |
| Die Datenanalysten sind schuld, dass Trump jetzt Präsident ist? Sagen wir | |
| so: Es ist komplizierter – aber nicht viel weniger beunruhigend. | |
| taz-Liveticker zur US-Wahl 2016: Es ist ein Trump | |
| Es ist passiert: Donald Trump wird der 45. Präsident der USA. Während | |
| europäische Rechtspopulisten jubeln, äußern viele Politiker Besorgnis. | |
| Vorbereitungen auf einen Sieg Trumps: German Angst vor dem Milliardär | |
| Was passiert in Berlin, wenn Trump neuer US-Präsident wird? Die | |
| Bundesregierung gibt sich bedeckt. Bisher gab es so gut wie keinen Kontakt | |
| zu ihm. | |
| Kurt Wagner über „Flotus“ und die USA: „Die werden nicht verschwinden“ | |
| US-Songwriter Kurt Wagner und seine Band Lambchop machen auf ihrem neuen | |
| Album Elektroexperimente. Wie politisch ist die Platte? | |
| Kolumne Dumme weiße Männer: Taugenichts im Karrierefahrstuhl | |
| Immer wieder bewirbt sich eine Witzfigur um das Amt des US-Präsidenten. | |
| Doch nur wenn sie ein weißer Mann ist, wird ihr Anspruch ernst genommen. | |
| FBI entlastet Clinton in E-Mail-Affäre: Gutes Timing für Hillary | |
| FBI-Direktor James Comey konnte bei der Demokratin keine strafbaren | |
| Handlungen feststellen. Trump spricht von einem manipulierten System. | |
| Ungleiches Wahlrecht in den USA: Qual der Wahl | |
| Nicht nur Donald Trump – auch die OSZE kritisiert den Wahlprozess. Fast | |
| sechs Millionen US-Amerikaner_innen dürfen nicht an die Urne. |