# taz.de -- Big Data bei den US-Wahlen: Das Silicon Valley weiß, wen du wählst | |
> Clinton und Trump durchleuchten ihre WählerInnen – mit Algorithmen. Das | |
> zerstöre die Demokratie, sagt die Mathematikerin Cathy O’Neil. | |
Bild: „Trump sucks“ twittern, Selfie mit Hillary facebooken – landet alle… | |
NEW YORK taz | Wer in den Vereinigten Staaten eine Wahl gewinnen will, muss | |
alles über die Wählerinnen und Wähler des Landes wissen: Wo sie wohnen, | |
welche Hautfarbe sie haben, ob sie gläubig sind, was sie arbeiten und | |
welche Jobs sie vorher hatten, welche Bücher sie lesen, welche Filme sie | |
schauen, ob sie für oder gegen Homoehe sind, Sojaschnitzel oder lieber | |
frittierte Hühner essen, dick oder dünn sind, Grundbesitz haben oder Miete | |
zahlen, eine Hypothek oder Löcher in den Zähnen oder Warzen am Arsch haben | |
… Einfach alles. Über jeden Einzelnen. Und das Gleiche über alle ihr | |
Freunde, Bekannten, Schulfreunde, Familienmitglieder und Arbeitskollegen. | |
Egal, ob Hillary Clinton oder Donald Trump: Beide Wahlkämpfer nutzen die | |
gesamte Macht der Datenberge. Sonst hätten sie keine Chance. Die Konsequenz | |
ist verheerend: Wer regieren will, muss grundlegende demokratische Ideale | |
zerstören, etwa die Idee der freien Bürger, die unbeobachtet eine geheime | |
Wahl treffen. Die Öffentlichkeit ist längst abgestumpft und daran gewöhnt. | |
Dieser Text ist geprägt von einem Gespräch mit der US-Autorin, | |
Mathematikerin und Aktivistin Cathy O’Neil in deren Wohnung in der Nähe der | |
Columbia University in New York. Sie hat eine reale Dystopie über die Macht | |
der Algorithmen geschrieben – jene in Programmen codierten mathematischen | |
Modelle, die unsere Facebook-Timeline und Google-Trefferliste bestücken, | |
unsere Kreditwürdigkeit berechnen oder, vor allem in den USA, die Polizei | |
in bestimmte Viertel dirigieren, Richtern beim Verhängen des Strafmaßes | |
beraten, Jobbewerber aussortieren oder Wechselwähler identifizieren. | |
„Weapons of Math Destruction“ heißt O’Neils Buch. Ein Wortspiel, das in … | |
deutschen Übersetzung etwas schwerfällig klingt, in etwa | |
„Mathevernichtungswaffen“ statt Massenvernichtungswaffen. FürO’Neil | |
verbessern diese Programme die Gesellschaft nicht. Sie verstärken | |
Rassismus, vertiefen soziale Probleme und höhlen die Demokratie aus. „Die | |
Leute denken, die Demokratie ist am Leben, nur weil zwei Parteien mit | |
unterschiedlichen Interessen zur Wahl stehen. Die Annahme ist ziemlicher | |
Bullshit“, sagt sie in ihrem Wohnzimmer etwas außer Atem – die U-Bahn war | |
verstopft, trotz Algorithmen, die den Verkehr optimieren sollen. | |
## Damit die Polizei dort häufiger patrouilliert | |
O’Neil hat ihre eigene Geschichte mit Algorithmen. Sie hat ihren Doktor in | |
Mathematik in Harvard gemacht, am MIT geforscht und dann für den Hedgefonds | |
D. E. Shaw Programme entwickelt, die an den Finanzmärkten | |
Investmententscheidungen treffen sollten. Den Kollaps der Märkte 2008 haben | |
weder ihre noch andere Programme erkannt, in keinem der Institute. O’Neil | |
erkannte das Grundproblem: Algorithmen durchforsten Datenberge nach | |
Mustern, die sich wiederholen. Sie prognostizierten ständig steigende | |
Immobilienpreise, weil das die Muster der Vergangenheit waren. Auf eine | |
Gesellschaft übertragen heißt das, sie kodifizieren die herrschenden | |
Verhältnisse. | |
Ein Beispiel ist das in den USA beliebte „predictive policing“ – | |
vorausschauende Polizeiarbeit. Dabei identifizieren Programme Gegenden mit | |
hoher Kriminalität, damit die Polizei dort häufiger patrouilliert. | |
Eigentlich keine schlechte Idee. | |
Die Folge ist allerdings, dass ein weißer Junge, der mit 16 in einem guten | |
Viertel einen Joint raucht, einfach nur einen Joint raucht. Raucht ein | |
gleichaltriger Latino oder Schwarzer in einem ärmeren Viertel einen Joint, | |
ist die Wahrscheinlichkeit, dabei von der Polizei entdeckt zu werden, | |
wesentlich höher. Es folgt vielleicht ein Eintrag im Polizeiregister wegen | |
Drogenbesitzes und Ärger in der Schule. Damit sinkt die Chance auf einen | |
Job oder ein gutes College. Schließlich sind auch dort Algorithmen im | |
Einsatz, die Daten sind allgegenwärtig. Der Junge aus schlechtem Viertel | |
mit Vorstrafe bekommt wahrscheinlich eine schlechtere Bewertung als der aus | |
gutem Hause. Statt die Welt zu verbessern, zementieren die Algorithmen die | |
sozialen Verhältnisse. Sie verstärken Rassismus und die Benachteiligung | |
bestimmter Bevölkerungsschichten. | |
Seit dem Crash 2008 hat O’Neil über die Algorithmisierung der Welt | |
nachgedacht. Und stieß auf viel gravierendere Auswüchse als die viel | |
diskutierten Filterblasen: Soziale Medien zeigen ihren Usern Inhalte an, | |
die diese mögen – also verstärken sich die immer gleichen Ansichten. Wer | |
Trump gut findet, bei dem tauchen in der Timeline eben Texte darüber auf, | |
wie schlimm Clintons E-Mail-Affäre ist. Wer Clinton gut findet, der findet | |
Texte über Trumps sexuelle Übergriffe. Eine Debatte findet nicht statt. | |
## Die Bürger sind komplett durchleuchtet | |
Die Wahlkampfteams verstärken das Problem noch zusätzlich. Welches Ausmaß | |
ihre Datenwut angenommen hat, beschreibt Alexander Nix, Chef des New Yorker | |
Unternehmens Cambridge Analytica, in einem Interview mit der Zeitschrift | |
Wirtschaftswoche. Die Firma kauft ganz legal bei Datenanbietern | |
Informationen aus sozialen Netzwerken, TV-Boxen und öffentlichen Registern | |
und hat, so freut sich der Chef, Profile von 200 Millionen Amerikanern, die | |
jeweils 4.000 bis 5.000 Informationen enthalten. Diese Daten verkauft sie | |
an Trump – nur zum Beispiel, denn bei Clinton sieht das nicht anders aus. | |
Damit sind die Bürger komplett durchleuchtet. Perfektioniert hat die | |
Methode das Team von Barack Obama vor der Wahl 2012. Die Tools dazu, so | |
schreibt O’Neil, entwickelten Computerwissenschaftler, die zuvor | |
beispielsweise Supermarktkunden anhand von Kaufgewohnheiten eingeteilt | |
hatten. Sie führten Tausende Interviews mit WählerInnen, um deren Wünsche | |
und Ängste zu verstehen und sie in Kategorien einzuteilen – linksliberaler | |
Öko, rechtskonservativer Waffennarr. Jeder hinterlässt spezifische Spuren | |
im Netz, klickt auf bestimmte Seiten, wohnt in bestimmten Gegenden, | |
bestellt bestimmte Bücher bei Amazon. Das macht den einen zum potenziellen | |
Spender, während ein anderer selbst als Wähler nicht mehr interessiert, | |
weil er ohnehin fest in Händen des politischen Gegners ist. | |
In den USA hat sich bereits eine ganze Datenindustrie entwickelt. Besonders | |
wertvoll sind für diese die Profile von Wechselwählern in umkämpften | |
Staaten wie Florida, Ohio oder Nevada. Wähler, die ohnehin entschieden | |
sind, sind dagegen wertlos – außer als Spender. | |
„Wir können uns die Wählerschaft wie die Finanzmärkte vorstellen: Mit | |
Informationen fallen oder steigen ihre Werte. In diesem neuen Politikmarkt | |
repräsentiert jeder von uns eine Aktie, deren Wert fluktuiert. Jede | |
Kampagne muss entscheiden, in wen sie investiert“, schreibt O’Neil. Es | |
scheint, als entschieden nicht 218 Millionen Amerikaner – sondern nur die | |
Unentschlossenen, die über knappe Ausgänge etwa in Florida entscheiden. | |
Grundsätzlich war das früher nicht anders. Aber heute wissen beide Parteien | |
vor der Wahl, wer unentschlossen ist. Die Wahlschlacht schrumpft auf einen | |
von Algorithmen vorhergesagten Personenkreis. | |
## Im Netz präsentiert sich Trump gezielt anders | |
Damit ändert sich der Wahlkampf und das, was wir unter demokratischer | |
Öffentlichkeit verstehen – sie fragmentiert und schafft sich ab. So kann | |
sich ein Kandidat öffentlich zahm und präsidial geben, so wie es Donald | |
Trump in der letzten Woche vor der Wahl versucht. Gleichzeitig können die | |
Wahlkampfteams Wechselwählern in sozialen Netzwerken gezielt einen ganz | |
anderen Kandidaten präsentieren. | |
Das passiert täglich und das erkläre auch, warum Teile der Wählerschaft | |
diskutieren, als lebten sie in Paralleluniversen. Laut Umfragen glaubten | |
noch 2015 43 Prozent der Republikaner, Barack Obama sei ein Muslim. „Wir | |
wissen schlicht nicht, welche politischen Botschaften unsere Nachbarn | |
bekommen, also wird es immer schwerer zu verstehen, warum sie glauben, was | |
sie glauben“, sagtO’Neil. | |
War es früher nicht genauso? Es gab immer explizit rechte und explizit | |
linke Publikationen. O’Neil zählt das Argument nicht. Natürlich haben | |
Medien eine enorme Macht – die auch oft genug angeprangert worden ist. Doch | |
wenn sie Kandidaten empfehlen oder kaputtschreiben, dann ist das Teil eines | |
öffentlichen Prozesses. Redakteure müssen sich für ihre Argumentation | |
verantworten, andere Medien reagieren darauf. Ihre Parteilichkeit ist | |
offensichtlich. | |
Dagegen halten die meisten WählerInnen das, was sie auf Facebook sehen oder | |
was ihnen Google anzeigt, für objektiv. Den wenigsten ist bewusst, dass | |
dahinter Programme stecken, die von ihren Herstellern gezielt darauf | |
getrimmt sind, den Usern das zu zeigen, was sie ohnehin denken. Oder dass | |
die verschiedenen Wahlteams ihre Vorlieben haargenau kennen und ihnen das | |
präsentieren, was sie sowieso hören wollen. | |
Also mehr Bildung, mehr Aufklärung? „Wenn ich Sie mit einem entlassen will, | |
dann damit: Wir können nicht von den Menschen verlangen, dass sie von | |
selbst aus ihrer Blase rauskommen. Das ist ein systemisches Problem. Es | |
betrifft arme Leute am meisten, weil sie am wenigsten Zeit haben“, sagt | |
O’Neil. Sie vergleicht die heutigen Zeitbudgets mit denen zu Beginn der | |
Industrialisierung. Als vielversprechende neue Technologien zu Ausbeutung | |
von ArbeiterInnen in Minen und Fabriken führten – bis der Staat Regeln | |
setzte. „Wir müssen Fairness und Verantwortlichkeit in das Zeitalter der | |
Daten bringen.“ | |
8 Nov 2016 | |
## AUTOREN | |
Ingo Arzt | |
## TAGS | |
Schwerpunkt USA unter Donald Trump | |
Schwerpunkt Überwachung | |
Hillary Clinton | |
Donald Trump | |
Algorithmen | |
Schwerpunkt Facebook | |
Einbruch | |
US-Wahlkampf 2020 | |
USA | |
Schwerpunkt USA unter Donald Trump | |
USA | |
Schwerpunkt USA unter Donald Trump | |
Email-Affäre | |
Schwerpunkt USA unter Donald Trump | |
## ARTIKEL ZUM THEMA | |
Big Data und US-Präsidentschaftswahl: Facebook sperrt Datenanalysefirma | |
Präsident Donald Trump hatte die Dienste von Cambridge Analytica bei der | |
Wahl 2016 genutzt. Facebook sagt, die Firma hätte Auflagen des Netzwerks | |
verletzt. | |
Verbrechens-Vorhersage mit Software: „Die Polizei ist skeptisch“ | |
Predictive Policing versucht zu prognostizieren, wo und wann Einbrüche | |
begangen werden. Die Analyse kann auch auf andere Delikte ausgeweitet | |
werden. | |
Big Data und die US-Präsidentschaftswahl: Die waren es! | |
Die Datenanalysten sind schuld, dass Trump jetzt Präsident ist? Sagen wir | |
so: Es ist komplizierter – aber nicht viel weniger beunruhigend. | |
taz-Liveticker zur US-Wahl 2016: Es ist ein Trump | |
Es ist passiert: Donald Trump wird der 45. Präsident der USA. Während | |
europäische Rechtspopulisten jubeln, äußern viele Politiker Besorgnis. | |
Vorbereitungen auf einen Sieg Trumps: German Angst vor dem Milliardär | |
Was passiert in Berlin, wenn Trump neuer US-Präsident wird? Die | |
Bundesregierung gibt sich bedeckt. Bisher gab es so gut wie keinen Kontakt | |
zu ihm. | |
Kurt Wagner über „Flotus“ und die USA: „Die werden nicht verschwinden“ | |
US-Songwriter Kurt Wagner und seine Band Lambchop machen auf ihrem neuen | |
Album Elektroexperimente. Wie politisch ist die Platte? | |
Kolumne Dumme weiße Männer: Taugenichts im Karrierefahrstuhl | |
Immer wieder bewirbt sich eine Witzfigur um das Amt des US-Präsidenten. | |
Doch nur wenn sie ein weißer Mann ist, wird ihr Anspruch ernst genommen. | |
FBI entlastet Clinton in E-Mail-Affäre: Gutes Timing für Hillary | |
FBI-Direktor James Comey konnte bei der Demokratin keine strafbaren | |
Handlungen feststellen. Trump spricht von einem manipulierten System. | |
Ungleiches Wahlrecht in den USA: Qual der Wahl | |
Nicht nur Donald Trump – auch die OSZE kritisiert den Wahlprozess. Fast | |
sechs Millionen US-Amerikaner_innen dürfen nicht an die Urne. |