Social-Media-Icons und Handy
mauritius images/Stockbroker RF

Fraunhofer
Neue Software zur Erkennung von "Fake News" entwickelt

Mit einem selbstlernenden Tool wollen Forscher mehr Transparenz bei falschen Nachrichten im Netz schaffen. Der Fokus liegt auf der Analyse von Tweets.

03.02.2019

Im Netz verbreiten sich falsche Nachrichten rasend schnell. Internetnutzer schauen nicht auf die Quelle oder setzen sich nicht mit dieser auseinander und teilen die Beiträge in sozialen Netzwerken. Ein Tool des Fraunhofer-Instituts für Kommunikation, Informationsverarbeitung und Ergonomie FKIE soll mehr Transparenz in der Informationsfülle schaffen, indem es Social-Media-Beiträge automatisiert auswertet. Dabei analysiert es laut Forscherteam nicht nur Texte, sondern auch Metadaten und bereitet die Ergebnisse im Anschluss grafisch auf.

Die Wissenschaftler fokussieren sich auf Twitter und Webseiten. "In den Tweets werden die Links veröffentlicht, unter denen die eigentlichen Fake-News zu finden sind", sagte Professor Ulrich Schade, dessen Forschungsgruppe das Tool am FKIE entwickelt hat. Die sozialen Medien lieferten sozusagen den Trigger. "Die eigentlichen Falschmeldungen finden sich häufig auf Webseiten, die denen von Nachrichtenagenturen nachempfunden und nur schwer von den Originalen zu unterscheiden sind. Oftmals liegen ihnen DPA-Meldungen zugrunde, die sprachlich verändert wurden."

Im ersten Schritt erstellen Schade und sein Team Bibliotheken mit seriösen Beispielbeiträgen sowie mit Texten, die Nutzer als Fake-News klassifizieren. Mithilfe dieser Lernsets wird das System trainiert. Dabei sucht das Tool automatisiert nach bestimmten Merkmalen in den Texten und den Metadaten ("Machine-Learning"). "Das ist sehr aufwändig, da man die diversen Algorithmen mit unterschiedlichen Kombinationen von Merkmalen durchrechnen lassen muss", sagte Linguist und Mathematiker Schade.

Heatmaps zeigen Entstehung von Fake-News-Kampagnen

Hinweise auf falsche Nachrichten könnten auf semantischer Ebene zum Beispiel Formulierungen und Wortkombinationen sein, die sich weder im alltäglichen Sprachgebrauch noch in der journalistischen Berichterstattung finden, oder auch sprachliche Fehler. Dies sei insbesondere dann der Fall, wenn der Autor für die Formulierung der Falschnachricht nicht seine eigentliche Muttersprache verwende. Dann deuten etwa falsche Gedankenstriche, Orthografie-, Deklinations- oder Satzbaufehler darauf hin, dass eine Meldung eine falsche Nachricht sein könnte. Unangemessene Ausdrücke oder umständliche Formulierungen könnten ein weiteres Indiz sein.

Die untersuchten Metadaten spielten eine wichtige Rolle, wenn es darum geht, richtige von falschen Meldungen zu unterscheiden: Wie häufig wird gepostet, wann wird ein Tweet abgesetzt und um welche Uhrzeit. Aufschlussreich sei der Zeitpunkt eines Posts. Er könne darauf hinweisen, aus welchem Land und welcher Zeitzone der Sender Meldungen absetze. Eine hohe Sendefrequenz deute auf Bots hin, was die Wahrscheinlichkeit einer Falschnachricht erhöhe. Die Social Bots sendeten ihre Links an sehr viele Nutzer, um etwa Unsicherheit in der Bevölkerung zu verbreiten. Auch die Vernetzung der Accounts und der Follower könne für Analysten von großer Bedeutung sein.

Die Sendedaten und deren Anzahl aber auch die Netze der Follower lassen sich in Form von Heatmaps und Graphen visualisieren. Aus der Struktur der Netze und ihrer Knoten lässt sich laut Schade beispielsweise ablesen, welcher Knoten eine Fake-News in Umlauf gebracht oder eine Kampagne initiiert habe.

Auch Hate Speech lasse sich automatisiert erkennen. Beiträge, die sich als Nachrichten ausgäben, aber in Passagen Hate Speech verwendeten, verwiesen oft über Links auf Fake-News. "Hier ist es dabei wichtig, einen Klassifikator zu entwickeln, der die eindeutigen Fälle identifiziert. Dies sind beispielsweise Ausdrücke wie 'Politischer Abschaum' oder 'Nigger'", sagte Schade.

Behörden und Unternehmen nutzten die Software des Fraunhofer-Instituts bereits, um Fake-News-Kampagnen möglichst frühzeitig erkennen und darauf reagieren zu können.

kas