Ein völlig neuer Blick auf digitale Propaganda

Gerade in Krisenzeiten haben Fake News und Propaganda im Internet Hochkonjunktur – so auch bei Corona. Die Forschung konzentrierte sich dabei vor allem auf Social Bots. Christian Grimme erklärt im Interview, warum das nur die halbe Wahrheit ist.

Gerade aus den sozialen Medien werden wir mit einer Fülle an Informationen versorgt. Aber was davon stimmt, und was ist Propaganda?
Gerade aus den sozialen Medien werden wir mit einer Fülle an Informationen versorgt. Aber was davon stimmt, und was ist Propaganda? © pixabay

Herr Grimme, in Krisenzeiten boomen Verschwörungstheorien und Fake News im Internet. Haben Sie das bei Corona auch festgestellt?

Ja, das lässt sich nachweisen. Allerdings ist durch die Kontaktbeschränkungen auch das generelle Aufkommen in den sozialen Medien höher als sonst, sodass man nicht bei jeder Ballung von Meinungen gleich von Propaganda sprechen kann. Für uns ergibt sich daraus aber ein ganz praktisches Problem: Die Datenmengen in den sozialen Medien sind momentan so groß, dass wir Probleme habe, diese zu analysieren.

Sie beschäftigen sich rund um die Uhr mit Internet-Propaganda. Können Sie inzwischen selbst zwischen einem Bot und einem echten Menschen unterscheiden?

Nein, aber das ist auch nicht das Ziel. Ich muss dazu sagen, dass sich unser Projekt im Laufe der Zeit verändert hat. Als wir angefangen haben, lag unser Fokus tatsächlich zunächst auf den sogenannten Bots, also Techniken, die in den sozialen Medien gezielt Meinungen oder Fake News verbreiten. Der Schwerpunkt lag also klar auf den technischen Aspekten.

Christian Grimme untersucht den Einfluss von Menschen und Bots auf die Meinungsbildung in der Gesellschaft. © Christian Grimme

Was hat sich dann verändert?

Wir haben festgestellt, dass diese Sichtweise etwas verkürzt ist. Denn es ist tatsächlich nicht so, dass einige wenige automatische Accounts dazu in der Lage sind, eine ganze Gesellschaft zu manipulieren. Da hängt noch viel mehr dran. Denken Sie an die Menschen, die solche Bots betreiben. Sie geben der Technik ja vor, was sie verbreiten soll. Das denken sich die Bots ja nicht selbst aus. Und die Menschen geben natürlich auch vor, wie verbreitet werden soll. Es gibt also eine menschliche Strategie dahinter. Also müssen wir auch dringend die menschliche Seite miteinbeziehen, wenn wir die Mechanismen im Netz verstehen wollen.

Sie meinen, jeder Bot hat eine menschliche Seite?

Ja, ganz klar. Die Frage ist eigentlich nicht so sehr, welcher Kommentar stammt von einem Bot und welcher von einem echten Nutzer. Sondern: Wie werden Bots als Werkzeug eingesetzt, und auch von wem.

Wie sind sie vorgegangen?

Zunächst haben wir versucht zu verstehen, wie Social Bots funktionieren und wie man sie einsetzen kann. Dafür haben wir sogar selber welche gebaut. Natürlich ohne irgendwelche Wahlen zu beeinflussen (lacht). Aufgrund dieser Erfahrungen haben wir versucht, Detektionsverfahren zu entwerfen…

…also Software, die Bots erkennt.

Richtig. Aber wir mussten feststellen, dass alle Verfahren, die sich auf einzelne Accounts konzentriert haben, sehr unzuverlässig waren. Dann haben wir die Perspektive verändert und haben den Fokus verschoben. Von den einzelnen Accounts zu den Gemeinsamkeiten, die all diese Accounts in ihrem Verhalten aufweisen. Oder anders gesagt: Wir haben verstärkt nach Kampagnen und Trends Ausschau gehalten.

Woran erkennen Sie die?

Es gibt Themen, die im Netz sehr schnell an Zustimmung gewinnen. Das kann ein Hinweis darauf sein, dass es entweder wirklich wichtige Themen sind, oder dass einige davon eher künstlich und koordiniert erzeugt wurden. Wenn sie künstlich erzeugt werden, dann wird oft Automatisierung eingesetzt und die ist auffällig, wenn man Gruppen von Accounts beobachtet. Diese verhalten sich dann nämlich sehr ähnlich. Automatisierung ist ja als Hilfsmittel gedacht, damit man nicht alle Posts in sozialen Netzwerken selbst schreiben und absetzen muss. Also gibt es Muster, Regeln – einen Algorithmus – zur Erzeugung und Verbreitung. Diese Muster kann man erkennen. Aber natürlich geschieht das nicht nur über Bots. Wir haben rund um die letzte Bundestagswahl gesehen, dass sich beim sogenannten Kanzlerduell im Fernsehen fast 400 Leute auf Twitter zusammengetan und beschlossen haben, dort die Deutungshoheit zu erlangen. Das waren in dem Fall alles menschlich gesteuerte Accounts. Aber: Sie alle haben sich ähnlich verhalten, deshalb ist uns die Gruppe sofort aufgefallen.

Was passiert mit ihren Ergebnissen? Wer profitiert davon?

Alle Akteure, die im politischen Umfeld unterwegs sind und natürlich die Öffentlichkeit. Zum Beispiel Journalisten: diese sind bei ihren Recherchen häufig auf soziale Netzwerke angewiesen und unter Zeitdruck oft nicht in der Lage, Stimmungen richtig einzuschätzen. Wir könnten also Reporter gezielt vor einem verfälschten Meinungsbild warnen.

Warum ist das wichtig?

Wir wissen von Partnern aus dem Journalismus, dass sich Reporter teilweise bis zu 50 Prozent ihrer Informationen und Inspirationen für Geschichten aus den sozialen Medien holen. Sind dort viele falsche Geschichten unterwegs, bedeutet das, dass dadurch auch Menschen mit Internet-Kampagnen in Kontakt kommen, die eigentlich glauben, damit gar nichts zu tun zu haben; Menschen zum Beispiel, die gerne behaupten was in ihrer Zeitung stehe, könne ja nicht durch Social Media Kampagnen beeinflusst werden. Auf diesem Weg sind sie aber doch betroffen – oft ohne es zu merken.

Die Beobachtung von Trends und Meinungen klingt, hart gesagt, ein wenig nach Zensur. Denn die ethische Debatte um solche Kampagnen dreht sich ja gerade um den Einsatz von Technik zur Steuerung von Meinungen. Kampagnen hat es aber immer schon gegeben, die ganze Politik ist doch voll davon. Müssen wir das nicht am Ende einfach aushalten?

Das ist ein ganz wichtiger Punkt und bei unsere Arbeit immer zu beachten. Unser Projekt trägt unter anderem das Wort „Bekämpfung“ im Titel. Viele Teile der Propaganda, über die wir hier reden, fallen natürlich eindeutig unter die freie Meinungsäußerung. Wenn wir den Titel unseres Projekts umsetzen würden, würden wir vielleicht tatsächlich zensieren. Denn selbst bei einem Bot kann man sagen: Er verbreitet die Meinung eines Menschen oder einer Gruppe – nur auf einer technischen Plattform. Es ist eine Gratwanderung. Deshalb haben wir uns auch von dem Begriff der „Bekämpfung“ zurückgezogen. Wir dürfen und wollen nicht zensieren, das ist auch nicht unsere Aufgabe. Aber wir wollen der Gesellschaft helfen zu verstehen, wie solche Kampagnen funktionieren und Transparenz schaffen. Wenn ich weiß, dass ein Thema verdächtig schnell und koordiniert entsteht, habe ich als Bürger – und insbesondere auch als Journalist – dann ein blinkendes Warnlämpchen im Hinterkopf, dass mit sagt: Vorsicht, vielleicht ist dies eine Kampagne. Denk nochmal drüber nach.