Was ist Fakt, was ist Fake? Forschungsgruppe untersucht, wie Falschnachrichten entstehen

Prof. Dr. Ralph Ewerth ist Fellow der Forschungsgruppe „Multimodale Rhetorik in der Onlinemedien-Kommunikation“

Die sozialen Medien verändern die Kommunikation der Menschen genauso wie die Verbreitung von Nachrichten. So können etwa radikale Positionen, die früher im privaten Raum geäußert wurden, heute über Social Media ein weltweites Publikum erreichen. Welche Rolle Sprache, Bilder und Filme dabei spielen, untersucht die Forschungsgruppe „Multimodale Rhetorik in der Onlinemedien-Kommunikation“ des Zentrums für interdisziplinäre Forschung (ZiF) an der Universität Bielefeld. Ziel ist es unter anderem, computergestützte Analysewerkzeuge zu entwickeln, mit denen sich die Entwicklung von Nachrichten hin zu Falschnachrichten nachverfolgen lässt. Prof. Dr. Ralph Ewerth, Leiter der Forschungsgruppe „Visual Analytics“ an der TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften, ist Fellow dieser neu gegründeten Forschungsgruppe.

Wie sich auch in der COVID-19-Pandemie wieder zeigt, können Falschnachrichten und Verschwörungstheorien in sozialen Medien einfacher verbreitet werden als über die klassischen Kanäle, wo Nachrichten durch Redaktionen geprüft und aufgearbeitet werden. Ursprünglich seriöse Nachrichten können so – angereichert mit aus dem Zusammenhang gerissenen Zitaten, Bildern oder Videos – Falschnachrichten generieren, die etwa extremistische Sichtweisen befeuern. Um zu verstehen, wie diese Prozesse der Uminterpretation und Radikalisierung genau ablaufen, analysiert die internationale und interdisziplinäre Forschungsgruppe, wie Nachrichten, die in den großen Nachrichtenportalen veröffentlicht werden, im Netz rezipiert, angereichert und verändert werden.

Werkzeuge der TIB helfen beim Erkennen von Falschnachrichten

In den sozialen Medien werden in der Kommunikation häufig verschiedene Modalitäten und Informationsrepräsentationen eingesetzt, das heißt, Text, (Bewegt-)Bild, Grafiken und Ton werden gemeinsam genutzt oder miteinander verbunden. Ewerth bringt deshalb zum einen die in seiner Gruppe entwickelten maschinellen Lernverfahren („computational models“) ein, mit Hilfe derer multimodale Muster in Nachrichten erkannt werden können, zum anderen die entsprechende Software, die die Partner für ihre Fragestellungen nutzen werden. Diese können Menschen bei der Analyse einer großen Menge von Nachrichten unterstützen und Hinweise geben, ob Text und Bild in einer Nachricht die gleichen, voneinander abweichende oder sogar sich widersprechende Informationen enthalten.

„Die automatische Verifikation von Bild-Text-Bezügen kann ein wichtiges Element sein, um Menschen bei der Entdeckung oder Identifikation von Fake News in der riesigen Menge von Nachrichten im Web oder in sozialen Medien zu unterstützen. Wenn Bild und Text einer Nachrichtenmeldung widersprüchliche Informationen enthalten, zum Beispiel zum Ort des Geschehens, dann können sich Expertinnen  und Experten, aber natürlich auch Leserinnen und Leser, diese Nachricht in dieser Hinsicht analysieren und bewerten“, sagt Ewerth.

Mehr zur Forschungsgruppe „Multimodale Rhetorik in der Onlinemedien-Kommunikation“

Mehr zur Forschungsgruppe „Visual Analytics“