darpa_big_data

Nein, Big Data manipuliert uns nicht alle zu Trump-Wählern

Mit unseren Facebook-Likes werden wir zu rechten Wählern manipuliert, behauptet ein Artikel des Schweizer „Magazin“. Das ist Humbug.

Die Psychometrie verändert die Wahlwerbung, nicht die Menschen.

Drei Wochen nach dem Wahlsieg Donald Trumps fragen wir uns immer noch: “Wie konnte das nur passieren?” Jeder Erklärungsansatz darüber, was wir vor der Wahl übersehen haben, ist derzeit willkommen. Dazu bietet nun die Schweizer Zeitschrift “Das Magazin” eine besonders erschreckende Storyline: Es sind unsere Facebook-Daten, die uns zu manipulierbaren Subjekte gemacht haben. Das Brexit- und das Trump-Lager wussten das clever auszunutzen und haben sich anhand einer geklauten Analyse-Methode den Sieg erkauft.

Zukunftsangst, Datenapokalypse, und ein bisschen Verschwörung: Der Artikel “Ich habe nur gezeigt, dass es die Bombe gibt” des Schweizer “Magazin” (Nr. 48 vom 3. Dezember 2016) war wohl der spannendste, zumindest in meiner Timeline am häufigsten geteilte Longread des vergangenen Wochenendes. Darin erzählt ein Psychometriker (ein Datenforscher aus der Psychologie), wie seine Methode geklaut wurde, und mit welchen verheerenden Folgen. Mit Big Data werde Wahlkampf betrieben, eine Firma namens Cambridge Analytica habe mit der “Bombe”, die Kosinski entwickelt haben will, bereits zwei riesige Wahlschlachten gewonnen und werde sie bald wohl auch auf dem europäischen Kontinent anwenden.

Dafür nutze die Firma unsere Daten, genauer: unsere Likes. Mit dem Durchscannen von Facebook-Profilen lassen sich Menschen nach verschiedenen psychologischen Mustern einordnen, so die zugrunde liegende These. Danach könne die Wahlwerbung entsprechend persönlich auf die Nutzer ausgerichtet werden.

“70 Likes reichen, um die Menschenkenntnis eines Freundes zu überbieten, 150 um die der Eltern, mit 300 Likes kann die Maschine das Verhalten einer Person eindeutiger vorhersagen als deren Partner” erklärt der Forscher Michal Kosinski, der die Methode entwickelte, aber damit nicht reich geworden ist. “Und mit noch mehr Likes lässt sich sogar übertreffen, was Menschen von sich selber zu wissen glauben”.

Der Front National soll schon Interesse haben – aber nicht Marine Le Pen

Brisant klingt außerdem, dass kein geringerer als Steve Bannon (“Dunkelheit ist gut”) im Aufsichtsrat besagter Firma sitzt. Steve Bannon ist bekanntlich der Chef des rechten Newsportals Breitbart, das mit Desinformations-Kampagnen ebenfalls eine große Rolle im US-Wahlkampf spielte. Im Sommer wechselte er in das Wahlkampf-Team von Donald Trump und ist nun sein designierter Chef-Stratege.

Und erschreckend ist auch die Aussicht auf kommende Wahlen: Die Firma suche schon Kunden in Europa, erklärt der Artikel, und Marion Maréchal-Le Pen (also NICHT Marine Le Pen, die Chefin der französischen Rechtsaußen-Partei Front National, sondern deren 26 alte Nichte und innerparteiliche Konkurrentin) habe bereits angefragt. (In einer früheren Version des “Magazin”-Artikel stand da der Name “Marion Le Pen”: Diese Person gibt es nicht.)

Die OCEAN-Methode ist an sich schon fraglich

Zur psychologischen Einordnung der Facebook-Nutzer legt Cambridge Analytica das sogenannte OCEAN-Modell zugrunde. Nach diesem Modell gibt es fünf Charaktermerkmale, die für jede Person individuell gemessen werden. Die “Big Five” lauten: Neurotizismus, Extraversion, Offenheit für Erfahrungen, Gewissenhaftigkeit und Verträglichkeit (auf englisch ergeben sie die Abkürzung OCEAN). Sie werden durch Fragen ermittelt wie “Gehen Sie gerne ins Museum?” oder “Sind Sie leicht aus der Fassung zu bringen?”

Michal Kosinski will schon 2012 nachgewiesen haben, dass mit den Likes eines Facebook-Profils die OCEAN-Werte eines Menschen ähnlich gut vorhersagen lassen wie wenn er den zugrunde liegenden Fragebogen ausgefüllt hätte. Dieses Wissen sei Gold wert, denn damit lasse sich im Wahlkampf ein viel genaueres Zielmarketing betreiben als etwa mit Plakaten am Straßenrand: Die Gefühle jedes Zielobjekts können dann individuell angesprochen werden. Mitunter können die Wahlbotschaften etwa mit verschiedenen Farben unterlegt werden, so dass sie jeden Charakter genau auf seine Vorlieben ansprechen.

Jeder kann den Praxis-Test machen: Er taugt nichts

Doch den einfachen Praxistest hält die Theorie zumindest in meinem Fall nicht stand. Der Artikel weist selbst weist auf das Analyse-Tool von Kosinski, applymagicsauce.com, hin. Dort kann jeder, der keine Angst hat, seine Facebook-Likes preiszugeben, selbst ausprobieren, zu welchen Schlüssen die Maschine kommt.

Natürlich hat jede statistische Erhebung ihre Fehlerquote, die wird einkalkuliert und z.B. in Umfragen sogar angegeben. Eine fehlerhafte Stichprobe von eins reicht nicht aus, um eine Methode komplett zu widerlegen. Doch die Ergebnisse anhand von 72 meiner wahrscheinlich über 1000 Likes waren so falsch, dass sie mich sehr skeptisch gemacht haben. Und wenn sie nicht falsch waren, dann wären sie sehr leicht auch durch einen flüchtigen Blick auf andere Daten, auch auf Facebook, herauszufinden gewesen. Doch nicht nur das: Hätte die Maschine mich psychologisch korrekt eingeordnet, frage ich mich immer noch, was sie damit anzustellen in der Lage wäre.

Die Maschine sagte korrekt vorher, dass ich a) männlich und b) heterosexuell bin. Das war’s dann aber fast auch. Zu meiner Religion, die mit einem Blick auf mein Facebook-Profil oder in meine Freundesliste mit ziemlich hoher Wahrscheinlichkeit erkennen lässt, sagt die Maschine: “Die Vorhersage (…) lautet, dass du ein Christ bist – aber wahrscheinlich kein Katholik, Mormone oder Lutheraner”: falsch. Und politisch? Ein bisschen von allem, außer Sozialist und Marxist. Ob die Maschine überhaupt weiß, was ein Like für die Partei Die Linke bedeutet oder ob der Test nur für englischsprachige Seiten anwendbar ist, weiß ich nicht. Ich habe jedenfalls ALLE im Bundestag vertretenen Parteien geliket und noch ein paar mehr.

Nach welchen Kriterien die 72 Likes ausgesucht wurden, weiß ich nicht. Mit aller Wahrscheinlichkeit ist das Ergebnis aber dadurch verwässert, dass ich a) sehr viele Seiten like und b) nicht nur das like, was ich auch tatsächlich MAG. Wie ironisch: Die Big-Data-Maschine lässt sich also wohl durch große Datenmengen verwirren, ist nicht Big genug. Und: Sie besitzt keinen Humor. Sie weiß nicht, wie ein Like für die Satireseite “Gott” zu interpretieren ist.

Wer die Beatles liket, soll weniger intelligent sein, wer Seinfeld mag, ist unglücklich

Auffällig oft zog die Maschine Schlüsse aus der Tatsache, dass ich irgendwann im Laufe meiner neunjährigen Facebook-Präsenz folgende Seiten geliket habe: – Seinfeld (“Dieses Like lässt dich weniger zufrieden mit dem Leben und weniger christlich erscheinen”) – Die Beatles (“Dieses Like lässt dich weniger intelligent, schneller gestresst und etwas emotional erscheinen”); – Foxnews (“Dieses Like lässt dich weniger intelligent, eher traditionell und eher konservativ erscheinen”) und CNN (“dieses Like lässt dich liberal und künstlerisch erscheinen”), und… Gott. Ich habe gleich zwei Unterhaltungsseiten mit diesem Titel geliket: Einmal erscheine ich dadurch katholischer, einmal christlicher aber “anders” als den großen Kirchen zugehörig. Beides falsch.

Vor allem aber kam die Maschine auf ganz andere Ergebnisse als die Auswertung des OCEAN-Fragebogens, den ich manuell hier ausgefüllt habe (den ich ebenfalls in Frage stelle, sowie dessen Verwertbarkeit): Dort kam vor allem heraus, dass ich dazu tendiere, neurotisch zu sein. Bei der Facebook-Auswertung hieß es dagegen: “Du bist lockerer und entspannter als 81% der Bevölkerung”. Auch bei den anderen Kriterien kamen stark unterschiedliche Ergebnisse raus (bei der Facebook-Maschine war ich in den meisten Belangen Durchschnitt).

Vor allem sagte mir die Maschine: “Wir sagen voraus, dass du durchschnittlich intelligent bist. Vielleicht bist du intelligenter, aber das ändert nichts an unserer Prognose” – ein Ergebnis, das ich besonders vehement bestreite.

Und was bringt das der Wahlwerbung?

Doch selbst wenn die Auswertung meiner Likes mich korrekt einordnen würde — was würde es den Wahlkämpfern bringen? Ich meine: Insgesamt dürften sich die Kampagnen dank neuer Methoden verändern, aber nicht zugunsten einer bestimmten Partei.

Im Artikel des “Magazin” wird erzählt, dass die Wahlkampfhelfer eine App besaßen, mit der sie vor jedem Haus wussten, welche Sorte Wähler darin wohnt. Dies ersparte ihnen vor allem die Mühe, anzuklopfen, wenn der Bewohner sich sicher war, Hillary Clinton zu wählen. Geschenkt.

Außerdem soll die App ihnen Gesprächs-Leitfaden für jeden Gesprächspartner geboten haben — aber haben das Telemarketing-Unternehmen nicht auch? Reagieren sie nicht schon heute auf die Antworten der Befragten?

Erschrecken will uns der Artikel aus dem “Magazin” außerdem mit der Tatsache, dass zum Beispiel Wähler im Ort Little Haiti Wahlwerbung auf Facebook erhalten haben, die die angeblich schlechte Arbeit von Hillary Clinton in Bezug auf das Erdbeben in Haiti hervorgehoben hat. Das mag schockierend klingen – aber wo ist der Zusammenhang zu Big Data? Das hätten herkömmliche Wahlplakate in Little Haiti auch vermocht.

Das menschliche Verhalten kann man schlecht voraussagen, und Online-Marketing funktioniert nur bedingt

Es mag sein, dass das Brexit-Lager und Donald Trump einen leichten technologischen Vorteil gegenüber ihren politischen Gegnern hatten. Dieser Drops ist tatsächlich gelutscht. Aber bis zur Bundestagswahl 2017 dürften dann bereits alle Parteien auf dem neuesten Stand sein oder sich mit zumindest ähnlichen Marketing-Methoden versuchen. Dies würde heißen: Am Straßenrand hängt weiter Wahlwerbung für alle Parteien, in meinem Newsfeed tauchen aber nur Parteien auf, die sich eine Chance ausrechnen, von mir gewählt zu werden.

Und mit welchem Erfolg? Mit dem gleichen Erfolg wie jede andere personalisierte Werbung, und die ist anno 2016 immer noch so lala. Werbung für Schuhe taucht bei mir immer dann auf, wenn ich mir gerade ein Paar online bestellt habe. Und die Werbung “Finde eine Frau auf www.muslima.com” taucht bei mir aus völlig unerfindlichen Gründen und trotz überdeutlicher Hinweise darauf, dass ich dort nicht suche, immer mal wieder auf.

Vielleicht gibt es ja eine Partei, die meint, mehr Frauen zu erreichen, wenn sie ihre Wahlwerbung für alle, die Glitzernagellack mögen, plötzlich mit rosa funkelnden Sternen hinterlegt. Ich jedenfalls fürchte mich wenig davor.


Tagged: , ,



Redakteur für Politik und Wirtschaft bei BILD seit September 2015. Davor ganz woanders unterwegs.


Mit freundlicher Unterstützung von johannesdultz.com