Forschermeinung
Welchen Einfluss haben soziale Medien auf die US-Wahl?
Wissenschaftlerinnen und Wissenschaftler verschiedener Länder haben den Effekt von Fake News und Werbung in den sozialen Medien auf den Ausgang von politischen Entscheidungen untersucht. Dabei sind neben realen Personen automatisierte Accounts (Bots) ein zentrales Problem, die über eine hohe Zahl an künstlich generierten Followern eine große Reichweite für ihre Botschaften erzielen. Das Thema war insbesondere nach den vergangenen US-Wahlen und der Abstimmung über den Brexit in Großbritannien in den Fokus gerückt.
"In meiner gemeinsamen Untersuchung mit Sven-Oliver Proksch haben wir festgestellt, dass radikal-rechte Politiker die größten Nutznießer von 'böswilligen Bots' waren. In vielen Ländern Europas wurden sie eingesetzt, um die Zahl der Twitter-Follower zu steigern", schrieb der Politikwissenschaftler Dr. Bruno Castanho Silva von der Universität Köln auf der Hochschulseite.
Für wahlentscheidend hält er über soziale Medien verbreitete Fake News jedoch nicht. "Es gibt kaum Anzeichen dafür, dass Manipulationen durch Social-Media-Plattformen die amerikanischen Wahlen 2016 beeinflusst haben oder dass sie das Ergebnis von 2020 bestimmen könnten", meint Silva. Zwar könnten Fehlinformationen das Verhalten beeinflussen – "zum Beispiel, ob man den Empfehlungen der Gesundheitsbehörden in Bezug auf Coronaschutz folgt oder nicht", über die Stimmabgabe entschieden sie alleine jedoch nicht.
80 Prozent von Fake News erreicht ein Prozent der Nutzer
Auch US-amerikanische Forscher gehen davon aus, dass die Effekte nicht so groß sind wie befürchtet. Eine im Magazin "Science" veröffentlichte Studie von 2019 kam zu dem Ergebnis, dass 80 Prozent der über Twitter verbreiteten Fake News innerhalb einem Prozent der Twitter-User zirkulierte. Eine in den "Proceedings of the National Academy of Sciences" (PNAS) veröffentlichte Studie fand keinen Beweis dafür, dass Personen, die mit den russischen "Troll"-Accounts der US-Wahl 2016 ihre bestehende Meinung änderten.
Den politischen Kommunikationsforscher Deen Freelon von der University of North Carolina besorgen vor allem die sogenannten "second order effects" von Fake News: eine Kultur von Paranoia und Misstrauen. "Wenn Menschen in den sozialen Medien nicht erkennen können, was wahr ist und was nicht, verschlechtert das die Qualität der gesellschaftspolitischen Diskussionen."
Zusammen mit 16 anderen Forscherinnen und Forschern ist Freelon in ein Kooperationsprojekt mit Facebook eingebunden. Die Wissenschaftler wollen anhand von Nutzerdaten nachvollziehen, wie sich deren Verhalten auf der Plattform auf ihre Wahlentscheidung auswirkt. Ergebnisse sollen zum Ende des Jahres vorliegen. Es handelt sich dabei um freiwillig zur Verfügung gestellte Nutzerdaten, was Einfluss auf das Ergebnis haben kann.
"Die einflussreichste Falschinformation im diesjährigen US-Wahl ist die Behauptung, dass die Briefwahl manipuliert werden könnte – und leider ist es der US-Präsident selbst, der am stärksten zur Verbreitung dieser Falschinformation beigetragen hat", sagte Professor Joshua Tucker gegenüber "Forschung & Lehre". Der stellvertretende Geschäftsführer am NYU Center for Social Media and Politics ist ebenfalls an der Studie mit Facebook beteiligt. Zwar hätten den Vorwurf auch andere verbrietet, doch habe Trump schlicht die größte Reichweite, um so eine Aussage in die Welt zu tragen.
Fake News: Unterschiede zwischen Twitter und Facebook
Social-Media-Anbieter verkündeten nach der Wahl 2016 entschiedener gegen Falschnachrichten vorzugehen. Gänzlich eindämmen konnten Social-Media-Anbieter Fake News auf ihren Portalen nicht – und wollten das teils auch nicht. Ende Mai 2020 versah Twitter einen Tweet von Trump etwa mit einem Warnhinweis. Der US-Präsident hatte fälschlicherweise behauptet, dass Kalifornien Briefwahlunterlagen an alle Personen im Bundesstaat versende, "unabhängig davon, wer sie sind oder wie sie dorthin gelangt sind", zitierte die Bundeszentrale für politische Bildung (bpb). Twitter verlinkte den Tweet mit einordnenden Angaben aus Forschung und Presse. Facebook wurde bei demselben Beitrag auf seiner Plattform nicht aktiv.
Nachdem die Plattform auch bei einem von Twitter als "gewaltverherrlichenden" Posting Trumps zu den Demonstrationen gegen die Tötung des Afro-Amerikaners George Floyd bei einer Polizeikontrolle nicht aktiv wurde, stand Facebook auch in den eigenen Reihen in der Kritik. Bei Beiträgen zur US-Wahl wird seitdem auf ein "Voting Information Center" verlinkt, in dem Facebook über die US-Wahl informiert.
Sollte einer der Kandidaten sich vor dem offiziellen Wahlergebnis zum Sieger erklären, wollen Twitter und Facebook laut eigenen Angaben gegenüber Medien das entsprechende Posting einordnen, löschen oder die Verbreitung der Information in anderer Form einschränken.
Das Vorgehen beruht auf dem Geschäftsmodell von Plattformen wie Facebook, das auf "algorithmisch personalisierten Nachrichtenkanälen" aufbaut, wie die bpb mit Verweis auf die Kommunikationsforschung schreibt. Dahiner steht, dass Personen nur Informationen erhalten, die ihrer und der Meinung ihres Netzwerks entsprechen. So geraten Menschen mit zunehmender Nutzung immer stärker in sogenannte "Filterblasen".
Das betrifft auch gezielt platzierte Werbung, die sich auch Parteien zunutze machen. Während Twitter und etwa die Video-Plattform Tiktok entschieden haben, keine Werbung für politische Inhalte mehr zu schalten, ist das bei Facebook und damit auch Instagram als Tochterunternehmen weiter möglich. Facebook will lediglich mehr Transparenz über den Urheber von Werbung schaffen und inhaltlich als rechtswidrig erachtete Werbung im Einzelfall löschen.
Trump schaltete laut der digitalen Wirtschaftsplattform "t3n" beispielsweise alleine in der Woche zwischen dem 8. und 14. Oktober Werbung auf Facebook in Höhe von fünf Millionen US-Dollar, bei Biden waren es sogar 6,5 Millionen US-Dollar. Insgesamt deuteten Hochrechnungen darauf hin, dass sich das Budget für Facebook-Werbung nicht nur fast verdoppelt hat, sondern fast ein Zehntel der gesamten Wahlkampfausgaben betrage.
kas