Navigation und Service

Logo Bundesministerium für Bildung und Forschung

Mit Forschung gegen digitale Desinformationskampagnen : Datum: , Thema: Demokratische Wahlen

Um der Verunsicherung der Menschen gerecht zu werden sowie demokratiefeindlichen Desinformationen etwas entgegenzusetzen, unterstützt das BMBF Forschende in ganz Deutschland bei der Untersuchung des Phänomens und der Entwicklung von Gegenstrategien.

Fake News
Fake News © Adobe Stock / MclittleStock

Die Corona-Pandemie ebenso wie der Brexit und auch der Umgang der vorherigen US-Regierung mit Informationen haben das Phänomen Desinformation im digitalen Raum und die Entwicklung von Gegenstrategien stärker in den Fokus der Wissenschaft gerückt. Durch die Vielfalt an Messenger-Diensten, sozialen Medien sowie Videoplattformen und Blogs hat sich zudem der Charakter und die Nutzung der Medienlandschaft verändert. War der professionelle Journalismus früher noch Torwächter, der die präsentierten Informationen vorab kritisch geprüft und eingeordnet hat, so steht er für viele Menschen heute oftmals gleichbedeutend neben anderen Informationsquellen oder wird gar durch diese ersetzt. Diese Herabstufung bis hin zur völligen Ausblendung von professioneller Informationseinordnung kann eine Gefahr für die Demokratie und freie Meinungsbildung sein.

Desinformationen als Gefahr für die demokratische Gesellschaft

Zur Desinformation genutzt werden oftmals Informationen, die aus ihrem eigentlichen Kontext gerissen oder gezielt verkürzt aufbereitet werden. Sie sollen den Eindruck erwecken, es würde sich um echte, belegbare Nachrichten handeln. Mit gezielt verbreiteten Fehldarstellungen wird einerseits durch Klicks Geld verdient. Andererseits werden Menschen mit sorgsam orchestrierter Propaganda verunsichert und manipuliert und wird dadurch die freie, demokratische Willensbildung bedroht. Diese Desinformationen – also irreführende oder manipulative Meldungen, die einer Faktenprüfung nicht standhalten – erreichen durch die einfachen digitalen Verbreitungs- und Weiterleitungsmöglichkeiten eine Vielzahl an Menschen. Oftmals ist es schwierig, auf den ersten Blick zu erkennen, ob die Nachricht wahr und die Quelle vertrauenswürdig ist. Hier setzen die Forschenden an – auch bei der Frage, ob und wie Desinformationen eine Gefahr für kommende Wahlen oder die Demokratie allgemein darstellen.

„Desinformationen können Parteien, Programme und Kandidaten diskreditieren und dadurch Wahlentscheidungen manipulieren“, so Professor Alexander Roßnagel von der Universität Kassel. „Sie unterstützen Verschwörungstheorien und fördern eine grundsätzliche politische Lagerbildung. Individuell bleibt die falsche Information besser im Gedächtnis als eine nachträglich korrigierte. Auch können Social Bots beispielsweise in Sozialen Medien vermeintliche Mehrheitsverhältnisse vortäuschen und so durch die ‚Schweigespirale‘ das öffentliche Meinungsklima beeinflussen“, erklärt der Rechtswissenschaftler Roßnagel, der sich unter anderem im BMBF-geförderten Forum Privatheit und in der Wissenschaftlichen Arbeitsgruppe des Nationalen Cyber-Sicherheitsrats engagiert.

Professor Martin Steinebach, der am Fraunhofer-Institut für Sichere Informationstechnologie (SIT) die Abteilung für Mediensicherheit und IT-Forensik leitet, sieht ähnliche Gefahren. Er hat sich im BMBF-geförderten Projekt DORIAN mit technischen Konzepten beschäftigt, die es Bürgerinnen und Bürgern leichter machen sollen, Falschnachrichten zu erkennen. „Desinformationen in sozialen Medien und Messenger-Kanälen bringen die Gefahr einer sich radikalisierenden Diskussion mit sich. Hier können sich falsche Behauptungen, deren Korrektur und dann die erneute Reaktion in einer hohen Geschwindigkeit zu einem Streit steigern, bei dem am Ende der eigentliche Gegenstand unerheblich ist und es nur noch um gesellschaftliches Misstrauen und Unzufriedenheit geht. Die Bundestagswahl wird sicher auch von der Debatte über den Umgang mit der Corona-Krise geprägt sein. Zu diesem Themenkomplex haben wir ja schon eine ganze Sammlung von Desinformationen. Besonders, wenn viele Wählende lange unentschlossen bleiben und in letzter Minute aus ihrem Bauchgefühl heraus wählen, können Desinformationen die Wahl beeinflussen.“

Die Forschung hilft beim Erkennen und Verstehen von Desinformationen

Doch was trägt die Wissenschaft dazu bei, um wirksame Strategien gegen manipulierte Informationskampagnen zu entwickeln? Der Jurist Roßnagel setzt auf einen multidisziplinären Ansatz. „Hilfreich sind Erkenntnisse verschiedener Disziplinen, die gesamthaft wirksame und umsetzbare Lösungen entwickeln“, so Roßnagel, „Informatische Ansätze können Desinformationen automatisiert erkennen und deren Verbreitungswege verfolgen sowie Deep Fakes, Fake Accounts und Social Bots aufspüren. Die Medienwissenschaften untersuchen und beschreiben Charakteristika von Desinformation, erforschen psychologische Ansätze und verdeutlichen ihre Wirkungen auf Einzelne und die Gesellschaft. Zudem zeigen rechtswissenschaftliche Untersuchungen politische und rechtliche Gegenmaßnahmen auf, die eine wirksame Bekämpfung erlauben, ohne die Meinungsfreiheit zu behindern.“

Professor Martin Steinebach
Professor Martin Steinebach © Fraunhofer SIT

Fraunhofer-Forscher Steinebach unterstreicht die breite Palette an wissenschaftlichen Aspekten bei der Auseinandersetzung mit Desinformationen: „Der Beitrag der Wissenschaft reicht von technischen Werkzeugen, die beim Erkennen und Bekämpfen helfen, über Studien, die zeigen, wie Desinformation funktioniert und was sie anrichtet, bis hin zu rechtlichen Gestaltungsvorschlägen zum Umgang mit Desinformationen. Aus technischer Sicht wurde beispielsweise gezeigt, dass zur Bekämpfung einfache Werkzeuge wie eine verbesserte inverse Bildersuche in Kombination mit gut gepflegten Bilddatenbanken schon dabei helfen können, oft eingesetzte Desinformationsmethoden schnell zu erkennen.“ Techniken also, die automatisiert dabei unterstützen, etwa Fotos oder Videos von vermeintlichen Demonstrationen zu entlarven, die gar nichts mit der aktuellen Situation vor Ort zu tun haben – beispielsweise, weil das gezeigte Wetter nachweislich nicht mit den Gegebenheiten vor Ort übereinstimmt oder sich die Bilder an einem ganz anderen Ort abspielen. Ebenso entdecken lassen sich veränderte Bildausschnitte, die Situationen bewusst falsch darstellen – ein Mittel, dessen sich die Propaganda schon im vergangenen Jahrhundert vielfach bedient hat. Im digitalisierten Zeitalter lassen sich solche Desinformationen jedoch schneller und teils auch automatisiert erkennen. Anschließend kann dann über erkannte Desinformationen aufgeklärt und können Gegenmaßnahmen eingeleitet werden.

Privatdozent Dr.-Ing. Christian Grimme von der Universität Münster hat sich im BMBF-geförderten Vorhaben PropStop gemeinsam mit Expertinnen und Experten aus verschiedenen Disziplinen mit dem Erkennen, Nachweisen und Bekämpfen von verdeckten Propaganda-Angriffen über Online-Medien befasst. Grimme hebt hervor, dass es wichtig ist, sich nicht nur mit der Mikroebene, also einzelnen Manipulationstechnologien wie Social Bots, zu befassen. Vielmehr müsse man die Desinformationsstrategien dahinter aufdecken und verstehen lernen. „Den Menschen muss bewusst sein, dass es solche Strategien gibt und dass sie mit Hilfe von sozialen Medien und anderen Verbreitungskanälen vergleichsweise einfach umzusetzen sind. Wenn man dieses Bewusstsein hat, dann ist schon eine gewisse Sensibilisierung erreicht, mit der vor allem das kritische Hinterfragen von Informationen einhergeht“, so der Informatiker Grimme.

Forschende der Universität Münster sind aktuell dabei, Software zu entwickeln, die Desinformationskampagnen erkennen kann. Dazu müssen viele Daten aus den sozialen Medien ausgewertet werden. Die ausgewerteten Daten zeigen, wie sich Informationen in den sozialen Medien verbreiten. Teil der aktuell noch manuellen Analyse ist dann zu erkennen, ob es ungewöhnliche Ausschläge gibt – beispielsweise, wenn in sehr kurzer zeitlicher Abfolge ein Thema ohne erkennbaren Anlass an vielen Stellen gleichzeitig aufkommt. Dies ist dann ein Ausschlag in der Betrachtungsskala, den sich die Forschenden genauer anschauen. Denn es ist verdächtig, wenn viele Nutzerprofile in den sozialen Medien plötzlich gleichzeitig ein Thema bearbeiten, ohne dass es einen erkennbaren Anlass dafür gibt. Dabei entstehen Muster einer ganz speziellen Form. Diese Muster und auch andere Erkennungsmerkmale von Desinformation gilt es künftig automatisiert durch maschinelles Lernen und andere Techniken zu erkennen. Nur dann kann schnell genug darauf reagiert werden.

„Diesen Prozess muss man sich wie einen Lernprozess vorstellen. Das System muss das Erkennen von bestimmten Mustern erlernen. Dafür braucht es natürlich noch eine Zeit lang den menschlichen Analysten. Für den Computer ist dann aber irgendwann klar, dass bestimmte Muster oder andere Merkmale auffällig sind. Eine bessere Zuverlässigkeit solcher Mustererkennung ist Gegenstand aktueller und künftiger Forschung“, erklärt Grimme.

Wie man sich vor Desinformationen schützen kann

Am hilfreichsten gegen Desinformationskampagnen sind aufgeklärte und sensibilisierte Bürgerinnen und Bürger, damit sie selbstbestimmt auch in Wahlzeiten reflektiert entscheiden können. Ein ganz zentraler Punkt für den Juristen Roßnagel: „Einzelne sollten reißerischen, skandalisierenden Nachrichten misstrauen und deren Quellen nachspüren. Hilfreich ist insbesondere die eigene Filterblase zu verlassen und sich auch andere Informationen aus weiteren Quellen zu besorgen. Diese gilt es dann mit den verdächtigen Inhalten und vermeintlichen Desinformationen zu vergleichen. Vor erkannten Desinformationen sollten sie andere warnen, ohne die Desinformation selbst zu wiederholen und sie damit im Gedächtnis zu verstärken. Sie sollten Desinformation der verantwortlichen Plattform melden. Bei Verdacht auf strafbare Inhalte sollten sie Strafverfolgungsbehörden informieren.“