Cookie Consent
Diese Seite verwendet Cookies, um die Nutzererfahrung zu verbessern. Indem Sie auf Zustimmen klicken, erlauben Sie den Einsatz von Cookies. Mit Klick auf Ablehnen, werden die Cookies deaktiviert. Mehr Details finden Sie in unserer Datenschutzerklärung.
Social Bots – Detection and Impact on Social and Political Events
Tuesday, March 31, 2020

Social Bots – Welchen Einfluss haben sie auf Gesellschaft und Politik?

Im ersten Teil des Blogposts haben wir uns mit der Definition von Social Bots auseinandergesetzt und erklärt, wie die Bots auf Social-Media-Kanälen eingesetzt werden.

Im zweiten Teil zeigen wir nun auf, in welchen Situationen Bots Einfluss auf unsere Gesellschaft und Politik genommen haben, ob tatsächlich Handlungsbedarf von offizieller Seite aus besteht und wie Sie die sozialen Trolle entlarven können.

Beispiele für Social Bots und Fake News bei politischen und gesellschaftlichen Debatten

Der Einfluss von Bots im US-Wahlkampf

Beim US-Wahlkampf sind Social Bots längst etabliert. 2016 stellten sich bei Analysen mit dem Tool Twitter Audit zeitweise je mindestens 30 % der Twitter-Follower beider Präsidentschaftskandidaten als Bots heraus. In dem sozialen Netzwerk kamen während der TV-Debatten mit einer Anzahl von 3,8 Millionen ein Fünftel aller Beiträge zum Thema von mindestens 400 000 automatisierten Accounts.

Laut einer Studie der University of Oxford war es sogar ein Drittel aller Tweets zum Thema, die von Social Bots stammten. Davon waren 80 % eindeutig pro-Trump zu verstehen (mit Hashtags wie #MakeAmericaGreatAgain, #CrookedHillary); und nur 20 % pro-Clinton (mit Hashtags wie #ImWithHer, #NeverTrump). Überhaupt wurde jeder dritte Tweet zugunsten Trumps von einem Social Bot gepostet; zugunsten Clintons war es hingegen nur jeder vierte. Auch wurde nach dem ersten TV-Duell der Hashtag #TrumpWon zum Trending Topic auf Twitter, obwohl nach Einschätzung vieler Zuschauer und der Medien Clinton deutlich vorne gelegen hatte. Alles in allem liegt der Verdacht nahe, dass im US-Wahlkampf versucht wurde, mit Social Bots die politische Meinungsbildung zum Vorteil von Trump zu manipulieren. Im Frühjahr 2020 liegt der Anteil der Fake-Accounts, die Donald J. Trump folgen, bei 21 %. Auch für den kommenden Wahlkampf wird erwartet, dass Bots versuchen, die Stimmung zu lenken. Unter anderem auch, indem sie Einfluss auf bekannte, reale Influencer nehmen.

Das Brexit-Botnet

Auch bei der Brexit-Debatte mischten Social Bots auf Facebook, Twitter & Co. mit. Es konnte festgestellt werden, dass bei den Kampagnen beider Lager, Leave und Remain, die Social Bots wohl gleichermaßen eine zwar untergeordnete, aber strategische Rolle spielten. Tatsächlich wurden auf Twitter die Hashtags der Befürworter, wie etwa #Brexit, insgesamt viermal so häufig benutzt wie die der Gegner, etwa #StrongerIn. Das bedeutet, dass auch die Anzahl der automatisierten Tweets aufseiten der Brexit-Befürworter erheblich höher war.

Zweifelsohne könnte man argumentieren, dass das Referendum durch die auf Twitter vorherrschende Meinung zugunsten von Leave beeinflusst worden ist. Allerdings ging der Trend außerhalb der sozialen Netzwerke laut Umfragen hin zu einem knappen Sieg für Remain. Außerdem stimmten jüngere Bürger mit hohem Bildungsniveau, also gerade jene, die viel auf Twitter unterwegs sind, überwiegend gegen den Brexit. Wenn also Social Bots bestimmte Hashtags bevorzugt verwenden und sich das auf die Trending Topics auf Twitter auswirkt, muss nicht immer politisch motivierte Manipulation dahinterstecken. Es könnten beispielsweise Unternehmen die prominenten Hashtags dazu benutzt habe, die eigene Sichtbarkeit im Internet zu verbessern.

Der Einsatz von Troll-Fabriken im Ukraine-Konflikt

Im Rahmen des Ukraine-Konflikts wurde ebenfalls mit Social Bots in den Sozialen Netzwerken Stimmungsmache betrieben. Auf der einen Seite werden sie zur Verbreitung von Propaganda des „Rechten Sektors“ eingesetzt, einer teils militanten nationalistischen ukrainischen Gruppierung. Eine Armee von ca. 15 000 automatisierten Twitter-Accounts veröffentlicht im Durchschnitt 60 000 Beiträge pro Tag, deren Zielgruppe hauptsächlich junge Männer sind. Die Tweets drehen sich etwa um Fußball, sexistische Witze oder Webseiten zum illegalen Download amerikanischer Kinofilme, hier und da geschickt mit politisch-rechten Inhalten versehen. Immer wieder greifen die Bots bestimmte Hashtags auf oder erwähnen den Hashtag „Rechter Sektor“ in Verbindung mit „Maidan“ oder „Euromaidan“, also den Bürgerprotesten pro-EU (und gegen Russland).

Damit versuchen sie, zum einen die Trends auf Twitter zu beeinflussen, und zum anderen die Algorithmen dahingegen zu manipulieren, im Zusammenhang mit „Maidan“ die eigene rechtsextreme Propaganda anzuzeigen. Auch wurden Fake-News in Umlauf gebracht, dass die Separatisten von Russland Raketen erhalten hätten und planen würden, damit Kiew anzugreifen. Zudem folgen die Twitterbots gezielt ukrainischen Politikern. Dahinter steht die Strategie, durch deren große Zahl an Followern, die wiederum Beiträge liken und teilen, mehr Reichweite zu bekommen.

Auf der anderen Seite findet sich auf Facebook, Twitter & Co. auch zunehmend russische Propaganda. Längst ist bekannt, dass russische Bot-Farms auf Social-Media-Plattformen mit einer Troll-Armee die öffentliche Meinung beeinflussen. So wird falsche Information über die Situation in der Ukraine in Umlauf gebracht und versucht, die Stimmung in der Bevölkerung zu untergraben.

Fake-News: Aufklärung in Zeiten von Corona

Auch in der durch das Coronavirus ausgelösten Krise im Frühjahr 2020 finden Chatbots und Social Bots ihren Einsatz. Die Washington Post berichtet von Millionen von Tweets in denen Verschwörungstheorien oder Fake News über das Coronavirus verbreitet wurden. Die Tweets wurden von Social Bots wieder und wieder retweetet und erzielten so eine enorm hohe Reichweite. Regierungen und internationale Organisationen wie beispielsweise die Weltgesundheitsorganisation (WHO) reagieren darauf und bieten Informationssuchenden mit einem Whatsapp-Bot eine verlässliche Quelle für aktuelle Zahlen oder Krankheitssymptomen.

Fake-News: Hetze gegen Flüchtlinge

Was das Thema Fake-News und Hassrede angeht, so bezieht sich die aktuelle Debatte hauptsächlich auf Falschmeldungen und Gerüchte über angebliche, von Flüchtlingen begangene Straftaten, die in Sozialen Netzwerken verbreitet werden. In Zeiten der Flüchtlingskrise missbrauchen rechtsextreme Gruppen die große Reichweite der Netzwerke, um mit unwahren Beiträgen, etwa über Entführungen und Vergewaltigungen, gegen Flüchtlinge zu hetzen. Es ist nicht auszuschließen, dass auch Social Bots zur weiteren Verbreitung und Verstärkung der ausländerfeindlichen Propaganda eingesetzt werden. Schließlich lassen sich die Urheber von Fake-News und Hassrede nur schwer verfolgen, obwohl es sich dabei, über den Straftatbestand der Beleidigung hinaus, allemal um üble Nachrede oder sogar Verleumdung handeln könnte.

In Deutschland wurde 2017 zum ersten Mal gerichtlich dagegen vorgegangen: Ein junger syrischer Flüchtling verklagte Facebook vor dem Landgericht Würzburg, nachdem dessen harmloses Selfie mit Angela Merkel immer wieder in dem sozialen Netzwerk kursierte, zusammen mit der falschen Behauptung, er sei verantwortlich für Anschläge und anderen Straftaten. Doch das Landgericht Würzburg hat in diesem Fall entschieden, dass es sich um reine Nutzer-Inhalte handelt und Facebook solche Beiträge auch in Zukunft nicht von sich aus finden und löschen muss.

Kompetenter Umgang mit Social Bots

Nun da im Rahmen brisanter politischer Debatten Soziale Netzwerke immer öfter mit gezielter Manipulation und Propaganda in Verbindung gebracht werden, muss es im eigenen Interesse von Facebook, Twitter & Co. liegen, konsequent gegen die Probleme Social Bots, Fake-News und Hassrede vorzugehen. Die Frage ist nur, inwieweit die Plattform-Anbieter bereit sind, Maßnahmen umzusetzen und ob man sich darauf verlassen, dass Algorithmen diese Aufgabe zuverlässig übernehmen werden.

In Deutschland jedenfalls wird insbesondere im Hinblick auf anstehende Wahlen diskutiert, ob Social Bots, wie auch gezielte Falschmeldungen, tatsächlich (wahl-)entscheidend auf die politische Meinungsbildung einwirken und Gesetzgebungen und Regulierungen etwas bewirken können. CDU, SPD, Grüne, Linke und FDP jedenfalls sind sich einig, auf Social Bots im Wahlkampf definitiv zu verzichten. Die Bundeszentrale für politische Bildung widmet dem Problem Digitale Desinformation ein 150-seitiges Dossier.

Das Dossier zeigt sich eher skeptisch gegenüber einem regulatorischen Vorgehen, zumal die Auswirkungen von Social Bots bislang kaum wissenschaftlich untersucht worden sind und Social Bots, wie im Artikel weiter oben beschrieben, nicht zwangsläufig immer schlecht sind und eine Gefahr darstellen. Stattdessen plädieren sie für einen aufgeklärten Umgang mit Inhalten in sozialen Netzwerken und damit einhergehend für einen Ausbau der digitalen Strukturen für einen demokratischen Meinungsaustausch. Unter dem Stichwort „digitale Medienkompetenz“ müssen wir uns bewusstwerden, dass auch auf Facebook, Twitter & Co. gilt: „Quantität ist nicht gleich Qualität“. Die Social Bots werden immer intelligenter programmiert, also müssen auch wir intelligenter im Umgang mit ihnen werden.

Wie Sie Social Bots entlarven können

Tatsächlich sind Social Bots gar nicht so leicht zu erkennen. Die sozialen Netzwerke selbst arbeiten laufend daran, ihre Algorithmen in der Erkennung von Bots zu verbessern. Trotzdem scheitern diese immer wieder. Im Folgenden erklären wir, wie Sie Social Bots und deren Verhaltensmuster mit gesundem Menschenverstand und einigen nützlichen Tools entlarven können.

Überprüfen Sie, ob der Account über Profilbild, realistische Angaben zur Person und seriöse weitere Hintergrundinformationen verfügt. Danach nehmen Sie dessen Freunde bzw. Follower genauer unter die Lupe. Bots haben in der Regel nur wenige oder aber hauptsächlich andere Bots als Freunde bzw. Follower. Schauen Sie, ob Sie welche davon persönlich kennen. Ansonsten kann man Social Bots daran erkennen, dass sie sehr viele, stets ähnliche Beiträge posten oder Inhalte teilen, die immer von denselben Quellen stammen.

Nützliche Online-Tools, um Social Bots zu erkennen

  • Twitter Audit: Stellt fest, wie viele Follower eines Twitter-Accounts tatsächlich Menschen sind
  • Botometer: Analysiert aufgrund der Aktivitäten des Accounts, wie wahrscheinlich es ist, dass dieser ein Bot ist
  • Accountanalysis: Überprüft, wie automatisiert Twitter Accounts sind, wie viele Retweets sie veröffentlichen oder auf welche Websites sie am häufigsten verlinken
  • Social Bearing: Sucht, filtert und sortiert Tweets nach Einfluss, Engagement, Stimmung, Ort und mehr
  • Bot Sentinel: Klassifiziert Twitter-Konten, die Trollbot-Verhalten zeigen, und fügt sie einem öffentlich zugänglichen Dashboard hinzu, das jeder durchsuchen kann
  • Botcheck.me: Eine Browser-Erweiterung, die politische Propaganda-Bots auf Twitter identifiziert
  • Iffy Quotien: Identifiziert URLs auf Facebook und Twitter, von denen bekannt ist, dass sie voreingenommen sind oder häufig über falsche Informationen berichten
  • Hoaxy: Visualisiert die Verbreitung von Artikeln, Behauptungen und Fakten online, um gegen Fake-News vorzugehen

Mit diesen Informationen und Tools an der Hand können Sie sich nun in WhatsApp, Facebook, Twitter und Co. stürzen und sich selbst eine Meinung zu Social Bots bilden. Befindet sich unter Ihren Followern eventuell auch der ein oder andere Bot? Antwortet Ihnen beim nächsten Kontakt mit einem Unternehmen etwa gar kein Mensch? Und wie schaut es mit Accounts aus, die politische Diskussionen anheizen?

Gefallen Ihnen unsere Artikel?

Folgen Sie dem Beispiel unserer über 70.000 Abonnenten und -Abonnentinnen und melden Sie sich für unseren kostenlosen Newsletter an. Sie erhalten monatlich weitere Infos zu Datenschutz, Cloud-Geschichten, Sicherheitstipps und Berichte von unseren Krypto-Experten.

Mit der Eingabe Ihrer E-Mail-Adresse stimmen Sie unserer Datenschutzbestimmung zu.
Beitrag teilen