Multimedia
Security - Sicherheit
vorangehende Seite
end
Medienkompetenzen
Web 2.0: Medienkompetenzen Deutschland
Machine Learning: Social Media-Daten auswerten 2019
Web 2.0: Medienkompetenzen Weitere Informationen
Soziale Netzwerke Gefahren
Medienkompetenzen Broschüren
Weitere Informationen und Links
Informations- und Kommunikationstechnologie
Soziale Medien
Machine Learning: Social Media-Daten auswerten

Software für die automatisierte Erkennung von Fake News

Erfundene Nachrichten, verdrehte Fakten - Fake News verbreiten sich rasant im Netz und werden oft unbedacht geteilt, vor allem in den Sozialen Medien. Fraunhofer-Forscherinnen und -Forscher haben ein System entwickelt, das Social Media-Daten automatisiert auswertet und bewusst gestreute Falschmeldungen und Desinformationen gezielt herausfiltert. Das Tool nutzt dafür sowohl inhaltliche als auch Metadaten, wobei es die Klassifikation mit Machine Learning erworben hat und diese in Interaktion mit dem Nutzer während der Anwendung verbessert.

Falschmeldungen werden zur Stimmungsmache oder Hetze gegen einzelne oder mehrere Personen genutzt. Sie sollen die öffentliche Meinung zu bestimmten aktuellen Themen beeinflussen und manipulieren. Diese Fake News verbreiten sich rasant über das Internet, vor allem über Soziale Medien wie Facebook und Twitter. Sie zu identifizieren ist schwierig. Hier setzt ein Klassifikationstool des Fraunhofer-Instituts für Kommunikation, Informationsverarbeitung und Ergonomie FKIE an. Es wertet Informationen aus Social Media-Beiträgen automatisiert aus. Das System erschliesst grosse Datenmengen. Es bewertet nicht nur Texte, sondern bezieht auch Metadaten in die Analyse ein und bereitet die Ergebnisse grafisch auf. "Mit unserer Software fokussieren wir uns auf Twitter und Webseiten. In den Tweets werden die Links veröffentlicht, unter denen die eigentlichen Fake News zu finden sind. Die sozialen Medien liefern sozusagen den Trigger. Die eigentlichen Falschmeldungen finden sich häufig auf Webseiten, die denen von Nachrichtenagenturen nachempfunden und nur schwer von den Originalen zu unterscheiden sind. Oftmals liegen ihnen DPA-Meldungen zugrunde, die sprachlich verändert wurden", erläutert Prof. Dr. Ulrich Schade, Wisssenschaftler am Fraunhofer FKIE, dessen Forschungsgruppe das Tool entwickelt hat.

Im ersten Schritt bauen Schade und sein Team Bibliotheken mit seriösen Beispielbeiträgen auf sowie mit solchen Texten, die der Nutzer als Fake News klassifiziert. Mithilfe dieser Lernsets wird das System trainiert.

Um Falschmeldungen herauszufiltern, wenden die Forscherinnen und Forscher "Machine Learning"-Verfahren an, die automatisiert nach bestimmten Merkmalen in den Texten und den Metadaten suchen. Das können beispielsweise in einem politischen Kontext auf semantischer Ebene Formulierungen und Wortkombinationen sein, die sich weder im alltäglichen Sprachgebrauch noch in der journalistischen Berichterstattung finden wie "die aktuelle Bundeskanzlerin". Zu den Merkmalen zählen auch sprachliche Fehler. Dies ist insbesondere dann der Fall, wenn der Autor für die Formulierung der Fake News Deutsch und nicht seine eigene Muttersprache verwendet. Dann deuten etwa falsche Gedankenstriche, Orthografie-, Deklinations- oder Satzbaufehler darauf hin, dass eine Meldung eine Fake News sein könnte. Unangemessene Ausdrücke oder umständliche Formulierungen können ein weiteres Indiz sein.

"Füttern wir unser Tool mit vielen Merkmalen, so sucht sich das Verfahren selbstlernend diejenigen heraus, die funktionieren. Entscheidend ist auch, welche «Machine Learning»-Verfahren dann die besten Ergebnisse liefern. Das ist sehr aufwändig, da man die diversen Algorithmen mit unterschiedlichen Kombinationen von Merkmalen durchrechnen lassen muss", so Schade.

Metadaten liefern entscheidende Hinweise

Zu den Merkmalen zählen auch Metadaten. Diese spielen eine wichtige Rolle, wenn es darum geht, richtige von falschen Meldungen zu unterscheiden: Wie häufig wird gepostet, wann wird ein Tweet abgesetzt und um welche Uhrzeit. Aufschlussreich ist der Zeitpunkt eines Posts. Er kann darauf hinweisen, aus welchem Land und welcher Zeitzone der Sender Meldungen absetzt. Eine hohe Sendefrequenz deutet auf Bots hin, was die Wahrscheinlichkeit einer Fake News erhöht. Die Social Bots senden ihre Links an sehr viele Nutzer, um etwa Unsicherheit in der Bevölkerung zu verbreiten. Auch die Vernetzung der Accounts und Follower kann für Analysten von grosser Bedeutung sein.

Die Sendedaten und deren Anzahl aber auch die Netze der Follower lassen sich in Form von Heatmaps und Graphen visualisieren. Aus der Struktur der Netze und ihrer Knoten lässt sich beispielsweise ablesen, welcher Knoten eine Fake News in Umlauf gebracht oder eine Fake News-Kampagne initiiert hat.

Auch Hate Speech lässt sich automatisiert erkennen. Beiträge, die sich als Nachrichten ausgeben, aber in Passagen Hate Speech verwenden, verweisen gern über Links auf Fake News. "Hier ist es dabei wichtig, einen Klassifikator zu entwickeln, der die eindeutigen Fälle identifiziert. Dies sind beispielsweise Ausdrücke wie «Politischer Abschaum» oder «Nigger»", sagt der Linguist und Mathematiker.

Die Wissenschaftlerinnen und Wissenschaftler können ihr System an unterschiedliche Arten von Texten anpassen, um diese zu klassifizieren. Sowohl Behörden als auch Unternehmen nutzen das Tool, um gezielt Desinformation aufzudecken und umfassend zu bekämpfen. "Unsere Software lässt sich für jeden Kunden individuell anpassen und trainieren. Behörden kann es als Frühwarnsystem dienen", sagt Schade.

Zusatzinformation

Das von Fraunhofer FKIE entwickelte Tool zur automatisierten Erkennung sogenannter "Fake News"kann als Frühwarnsystem betrachtet werden. Es scannt Social-Media-Nachrichten und filtert Nachrichten heraus, die spezifische Merkmale aufweisen. Das System führt anschliessend jedoch keinen automatisierten Wahrheitscheck und erst recht keine Zensur durch. Die letztendliche Bewertung der als potenzielle Fake News erkannten Nachrichten obliegt den Nutzern. Ziel ist es, auffällige Nachrichten zu erkennen und frühzeitig die Aufmerksamkeit auf sie zu lenken, sodass ihre Weiterverbreitung bei Bedarf beobachtet werden kann. Es handelt sich somit um ein Vorselektions- und Alert-System, dass Nutzer bei der Auswertung und Beobachtung der Nachrichtenlage unterstützt.

Das System ist ein Klassifikationstool, das mithilfe zweier Korpora lernt: einer Menge von als Fake News eingeschätzter Nachrichten und einer gleichgewichtigen Menge valider Nachrichten zu gleichen Thematiken. Die Korpora muss ein Nutzer selbst erstellen. Durch die Gegenüberstellung lernt das System, welche Merkmale Fake News von den validen Nachrichten unterscheiden. Als mögliche Merkmale werden sowohl sprachliche Daten, etwa die Wortwahl oder der Satzbau, aber auch Metadaten in die Analyse einbezogen. So weisen beispielsweise Nachrichten, die über Social Bots verbreitet werden, häufig bestimmte Muster in den Metadaten auf. Da die Verbreitung über Bots verstärkt für die Verbreitung von Falschnachrichten eingesetzt wird, bietet ein solches Muster einen Hinweis auf Fake News. Prinzipiell müssen aber immer mehrere Merkmale zusammen auf Fake News hinweisen, um eine entsprechende Klassifikation auszulösen. Insgesamt bietet das System so ein hilfreiches Instrument zur Erkennung einer Vielzahl von Fake News.

Quelle: Text Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE, 1. Februar 2019
Bot
Bezeichnet ein Programm, das bestimmte Aktionen nach dem Empfang eines Befehls selbstständig ausführt. So genannte Malicious Bots können kompromittierte Systeme fernsteuern und zur Durchführung beliebiger Aktionen veranlassen.
Tipps zum Umgang mit Fake-News
Wahrheitsgehalt kritisch hinterfragen: Indizien für Fake-News sind ein übertriebener, emotionalisierender Charakter, Pauschalisierung, und der Versuch, Aufmerksamkeit zu generieren, Empörung auszulösen und Angst zu schüren.
Gespräche führen: Wenn man im Internet über eine Meldung stolpert, die unglaubwürdig erscheint, lohnt es sich, sich mit Freunden, Familie oder Lehrpersonen darüber auszutauschen.
Quelle überprüfen: Im Internet kann jeder etwas posten. Daher ist es wichtig, bei einer Meldung darauf zu achten, wer der Urheber ist. Hat man den Namen der Quelle noch nie gehört hat, lohnt sich eine Recherche, wer dahintersteckt und welche Absichten damit verbunden sein könnten.
In Qualitätsmedien investieren: Die Produktion von qualitativ hochwertigen News kostet Geld. Es lohnt sich, ein ausgesuchtes Medienprodukt zu abonnieren und sich so mit faktengeprüften Nachrichten einzudecken.
Fake-Profile erkennen: In sozialen Medien ist es einfach, seine Identität zu verschleiern. Ist einem die Person unbekannt, das Profil sehr neu, hat kaum «Freunde» oder «Followers» und enthält keine Angaben zur Person, könnte es ein Fake-Profil sein.
Fact-Checking-Tools nutzen!
Quelle: Zürcher Hochschule für Angewandte Wissenschaften ZHAW
Fact-Checking-Tools
Externe Links
Helfen, den Wahrheitsgehalt einer Meldung zu überprüfen:
correctiv.org
hoaxsearch.com
Auch die App «Fake News Check», oder das Fake-News-Quiz sind hilfreiche Angebote zum Umgang mit Fake-News:
swrfakefinder.de
Videos auf Manipulation hin überprüft:
deepbuster.com
Rückwärtsbildsuche: Mit der Suchmaschine kann man Bilder im Netz «rückwärtssuchen lassen». Man lädt Bilder hoch und lässt sich anzeigen, welche Berichte es dazu gibt.
tineye.com
Quelle: Link-Tipps von der Zürcher Hochschule für Angewandte Wissenschaften ZHAW
Datenschutz Sicherheit im Umgang mit Daten
Sicherheitsinformationen für das Internet

nach oben

0
Cybercrime - Internetkriminalität
Kinder- und Jugendschutz Cybermobbing, Kinderpornografie, Gewalt, neue Medien ...
Vorsicht
Cybermobbing
Soziale Netzwerke Gefahren
Jugendschutz Kinderpornografie
Medienkompetenzen Broschüren
Industrie 4.0 Vernetzung von Produkt, Maschine und Werkzeug
eEconomy in der Schweiz
Vorsicht
globe
Bilder
Videos Länder-Informationen Karten Klima
globe
Links
Externe Links
Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE
top
zurueck