"Am Ende herrscht überall im Netz eine aggressive Stimmung"

Der Politikwissenschaftler Simon Hegelich darüber, wie Social Bots im Internet politische Debatten und Trends beeinflussen, falsche Nachrichten verbreiten - und warum sie trotzdem leicht zu erkennen sind. Ein Interview mit bmbf.de

Social Bots tarnen sich immer besser. © Thinkstock

Herr Professor Hegelich, in sozialen Netzwerken sind immer mehr Roboter unterwegs, sogenannte Social Bots. Was ist das eigentlich genau?

Social Bots sind Fake-Accounts in den sozialen Netzwerken, die vorgeben, ein echter Mensch zu sein. Es handelt sich also nicht einfach um automatisierte Accounts, sondern solche mit einer Verschleierungstaktik.

Prof. Dr. Simon Hegelich verbindet in seiner Forschung Politikwissenschaft und Computerwissenschaft zu Political Data Science. Er lehrt an der Hochschule für Politik München. Allen Internetnutzern rät er: "Das Wichtigste ist, selber zu denken." © Privat

Wie verbreitet ist dieses Phänomen?

Da sich die Social Bots immer besser tarnen, ist es schwer, das Ausmaß genau zu erfassen. Fest steht aber: Jede politische Debatte und generell jeder Trend in den sozialen Netzwerken ist von Social Bots beeinflusst. Das Ausmaß unterscheidet sich allerdings stark zwischen den Plattformen. Und auch die Ziele der Bots sind sehr unterschiedlich: Die meisten posten einfach Werbelinks, die sie mit Stichworten versehen, die gerade häufig gesucht werden. Es gibt aber auch Bots, die gezielt für die Verbreitung von Verschwörungstheorien oder auch von Schadsoftware eingesetzt werden.

Wie gefährlich ist das?

Zunächst muss man immer vor Panikmache warnen: Die Nutzer im Netz sind nicht dumm. Niemand wird seine politische Meinung radikal ändern, nur weil ein Bot im Netz etwas gepostet hat. Die Gefahren sind etwas subtiler: Bots verzerren Trends und können dadurch zum Beispiel Politiker und Journalisten dazu bringen, die Bedeutung von Themen falsch einzuschätzen. Außerdem können Bots das Klima in Online-Diskussionen verändern, so dass am Ende überall eine aggressive Stimmung herrscht.

Können Sie Beispiele nennen?  

In unserem Projekt haben wir zunächst ein großes Botnetz auf Twitter untersucht, dass im Ukrainekonflikt sehr geschickt Propaganda ukrainischer Nationalisten verbreitet. Derzeit konzentrieren wir uns auf die Flüchtlingsdebatte auf Facebook. Dort stellen wir Beeinflussungen durch hyperaktive Nutzer fest, sowohl automatisiert als auch von Hand. Ein Beispiel ist auch der  amerikanischen Wahlkampf: Dort gab es viele Bots auf beiden Seiten. Es lässt sich nicht ausschließen, dass die Kombination von Social Bots mit anderen Formen der Manipulation in den sozialen Medien, zum Beispiel Fake-News, einen Einfluss auf das Wahlergebnis hatte. Die gegenwärtige amerikanische Regierung darauf zu reduzieren, wäre aber sicherlich völlig falsch.

ITAFORUM am 5./6. Oktober 2017

„Social Media Forensics“ ist eines der 25 derzeit im Rahmen der Innovations- und Technikanalyse (ITA) des Bundesforschungsministeriums geförderten Projekte. Es wird über einen Zeitraum von zwei Jahren mit rund 200.000 Euro gefördert. Förderbeginn war im August 2015. Auf dem ITAFORUM 2017 am 5. und 6. Oktober 2017 in Berlin werden die Ergebnisse aller 25 ITA-Projekte vorgestellt.

Ihr Projekt „Social Media Forensics“ (SoMeFo) wird vom Bundesforschungsministerium entschieden gefördert.  Was haben Sie noch herausgefunden?

Wir kennen jetzt die unterschiedlichen Strategien der Botnetze sehr gut, und wir wissen, welche Art von Bot welche Spuren hinterlässt. In Bezug auf die Flüchtlingsdebatte können wir daher zum Beispiel empirisch belegen, dass sie durch hyperaktive Nutzer massiv verzerrt wird: das heißt, flüchtlingskritische Inhalte werden systematisch geliked und es werden massenhaft Kommentare gegen Flüchtlinge auf Facebook gepostet - und zwar alle von einer kleinen Zahl von Nutzern. Dadurch entsteht in den sozialen Netzwerken der Eindruck, Parteien und Bewegungen, die den Zuzug von Flüchtlingen ablehnen, seien besonders populär, was sie in Wirklichkeit aber nicht sind. Um es klar zu sagen: Wir haben uns dafür die Facebook-Seiten aller Parteien und auch extrem viele Pro-Flüchtlingsseiten angeschaut, aber diese Verzerrungen finden wir so nur in dem politischen Lager, das den Zuzug von Flüchtlingen ablehnt. Wer dahinter steckt und was das letzten Endes bewirkt, ist allerdings offen.

Flüchtlingskritische Inhalte werden systematisch geliked und es werden massenhaft Kommentare gegen Flüchtlinge auf Facebook gepostet - und zwar alle von einer kleinen Zahl von Nutzern.

Simon Hegelich

Wie genau spüren Sie Bots eigentlich auf?

Wir verwenden einen Kombination von unterschiedlichen Methoden: Tatsächlich muss man sehr viele Nachrichten mit rein politikwissenschaftlichen Methoden analysieren, um überhaupt das Thema, aber auch die Eigenarten der Kommunikation zu verstehen. Da die Anzahl der zu analysierenden Daten aber händisch nicht zu bewältigen ist, programmieren wir „Machine-Learning- Skripte“: Per Computer werden Muster in den Daten gefunden, die zum Beispiel Bots von echten Menschen unterscheiden. Ein weiterer Ansatz ist klassische deskriptive Statistik, um beispielsweise zu erkennen, wieviel Nachrichten ein normaler Nutzer verfasst und was statistisch auffällig ist.

Sie haben die Fake-News schon erwähnt. Wie verbinden die sich mit dem Phänomen der Social Bots?

Das automatisierte Posten von Nachrichten finde ich eigentlich eine sehr nützliche Erfindung. Problematisch ist es halt, wenn diese Roboter ihre Existenz verschleiern. In Bezug auf Fake-News gibt es zwei unterschiedliche Bereiche, in denen Bots eingesetzt werden: Manche Webseiten posten falsche oder überspitzte Nachrichten, um Werbeeinnahmen zu generieren. Bots eignen sich sehr gut, um die Reichweite dieser Seiten zu erhöhen. Bots werden aber auch anders eingesetzt: Gerade im amerikanischen Wahlkampf haben wir gesehen, dass in den sozialen Netzwerken viele Verschwörungstheorien gesponnen wurden, also Fake-News produziert wurden, die dann zum Teil zu strategisch wichtigen Zeiten - direkt vor der Wahl oder  nach den TV-Duellen - massenhaft mit Bots verbreitet wurden.

Was raten Sie normalen Usern?

Das wichtigste ist: Selber Denken. Dabei sollte man sich klar machen, dass zwei Mechanismen, auf die wir alle uns immer mehr oder weniger verlassen haben, nicht mehr greifen: Erstens ist Quantität kein Hinweis mehr für Qualität. Auch Dinge, die ich tausendfach höre, können verkehrt sein. Zweitens sind Informationen, die eigentlich unabhängig erscheinen, in Wirklichkeit häufig miteinander vernetzt. Wenn ich zum Beispiel als Journalist zwei unabhängige Quellen prüfe, sind die vermutlich gar nicht unabhängig, weil sie sich vielleicht schon längst über die sozialen Medien ausgetauscht haben.

Achtsam sein allein hilft?

Ja, in Bezug auf Bots sollte man einfach seltsame Dinge ernstnehmen. Die meisten Manipulationen in den Netzen sind ziemlich primitiv und daher auch gut als solche zu erkennen. Wieso sind es zum Beispiel häufig ausgerechnet attraktive junge Frauen und Männer, die in kürzester Zeit hunderte von Meldungen auf Twitter geschrieben haben und tausenden anderer Nutzer folgen?

Nutzen Sie eigentlich selbst soziale Medien?

Soziale Medien sind eine tolle Erfindung und von ihrem disruptiven Potential in meinen Augen mit der Erfindung des Buchdruckes zu vergleichen. Ich nutze Twitter und poste auf meinem Blog https://politicaldatascience.com. An Snapchat muss ich mich noch gewöhnen, aber ein großes Potential steckt auch in Messengern wie Telegram.