whisply logo

Verschicken Sie Dateien geschützt mit echter Ende-zu-Ende-Verschlüsselung direkt aus dem Browser mit Whisply.

Jetzt ausprobieren
Social Bots – Wie sie funktionieren, wo sie helfen und wie sie schaden können
2017 M02 24, Fri

Social Bots – Wie sie funktionieren, wo sie helfen und wie sie schaden können

Längst halten soziale Netzwerke Einzug in unseren Alltag. Wir sind fasziniert von den unbegrenzten Möglichkeiten, die sich uns dank Facebook, Twitter & Co. bieten. Wir können jederzeit und von überall aus mit unseren Freunden und Followern kommunizieren und neue Kontakte knüpfen. Dabei stehen hinter den Accounts längst nicht immer menschliche Nutzer, sondern immer häufiger Computerprogramme, sogenannte Social Bots. Nach Angaben der sozialen Netzwerke selbst sind schätzungsweise 5% aller Nutzer auf Facebook und Twitter zumindest Fake-Accounts. Einigen Experten zufolge könnten ca. 2% der Profile auf Facebook und bis zu 25% derer auf Twitter automatisiert sein.

Oft werden die Social Bots mit der gezielten Verbreitung von Fake-News und Hassrede in Verbindung gebracht. Insbesondere durch ihre Aktivitäten während brisanter politischer Debatten, ob US-Wahlkampf, Brexit, Ukrainekonflikt oder Flüchtlingskrise, stehen Social Bots im Verdacht, die öffentliche Meinungsbildung massiv zu beeinflussen. In den Medien wurden sie daher zuletzt sogar als Gefahr für die Demokratie diskutiert. Schließlich beschäftigte sich auch der Deutsche Bundestag Ende Januar intensiv mit dem Thema, um einschätzen zu können, ob und wie Social Bots gesetzgeberisch bekämpft werden müssen.

In diesem Blogpost erklären wir, was genau Social Bots sind, wie sie funktionieren, wie Sie sie entlarven können und ob tatsächlich Handlungsbedarf von offizieller Seite besteht.

Was ist eigentlich ein Bot?

Anders als der Name vielleicht vermuten lässt, ist ein Bot kein Roboter im eigentlichen Sinne, sondern zunächst einmal ein recht simples Computerprogramm, das selbstständig sich wiederholende Aufgaben abarbeitet. So nutzen Suchmaschinen sogenannte Webcrawler, die automatisch Webseiten besuchen, deren Inhalt analysieren und so die Schlagwortsuche erst ermöglichen. Es gibt Spambots, die beispielsweise darauf programmiert sind, im Internet E-Mail-Adressen zu sammeln, um anschließend unerwünschte Spam-Mails zu versenden. Und es gibt Chatbots, Programme, mit denen man sich (fast) wie mit einem Menschen unterhalten kann.

Chatbots sind immer komplexer werdende Algorithmen, die auf Regeln oder Machine Learning basieren. Daher können sie durchaus als intelligente Software angesehen werden. Sie dienen der Unterhaltung oder einer bestimmten Funktion, wie etwa der Online-Suche, dem Newsfeed oder dem Online-Kauf und Kundenservice. Jeder kennt Chatbots in Form der praktischen virtuellen Assistenten, wie Cortana von Microsoft, Siri von Apple oder auch den Google Assistant im neuen intelligenten Messenger Google Allo.

Überhaupt finden Chatbots immer häufiger innerhalb Instant Messengern Anwendung. Es ist sogar davon die Rede, dass sie eines Tages klassische Websites und Apps verdrängen werden. Der chinesische Messenger WeChat etwa bietet Unternehmen bereits seit 2013 erfolgreich einen „Official Account“, um automatisiert mit Kunden zu kommunizieren. Im letzten Jahr zog Facebook schließlich nach und veröffentlichte seine Chatbot-Plattform mit Programmierschnittstellen zum Entwickeln von Chatbots für den Messenger. Für Unternehmen eröffnen sich so neue Möglichkeiten, ihre (potentiellen) Kunden ohne großen Aufwand mit personalisierten Inhalten zu versorgen. Nutzer des Facebook Messengers können nun beispielsweise den CNN Chatbot abonnieren und bleiben mit dem persönlichen Newsfeed per private Nachricht immer aktuell informiert.

Social Bots leben auf Facebook und Twitter

Bots können also einem guten Zweck oder der Unterhaltung dienen, oder praktischerweise stumpfsinnige Arbeit abnehmen. Da sich über ein soziales Netzwerk nunmal viele Menschen innerhalb kürzester Zeit erreichen lassen, gibt es auch auf Twitter zahlreiche Bots, die aktuell auf das Wetter, Nachrichten oder neue Inhalte auf der eigenen Webseite hinweisen. (Wir bei Boxcryptor könnten beispielsweise einen Twitterbot programmieren, der Ihnen auf automatisch mitteilt, wenn es hier auf dem Blog etwas Neues gibt.) Praktisch sind auch jene Bots, die automatisch über Erdbeben in gefährdeten Gegenden twittern. Und die BBC News Labs haben für das EU-Referendum und die US-Wahlen Twitterbots entwickelt, die über den aktuellen Stand der Auszählungen informierten, indem sie automatisch Diagramme erstellten und posteten. Oder sehen Sie sich einmal die Tweets von @dscovr_epic an, allesamt eindrucksvolle Bilder unserer Erde, aufgenommen aus dem All vom DSCOVR-Satelliten der NASA und sogar mit Orts- und Zeitangaben.

Ein Social Bot ist demnach ein Bot, der in einem Sozialen Netzwerk, wie etwa Facebook oder Twitter, beheimatet ist. Oft tarnt sich das Programm als normaler menschlicher Nutzer; mit einem realistisch wirkenden Account inklusive Profilbild, Posts und Freunden bzw. Followern.

Social Bots sind darauf programmiert, automatisch Beiträge zu verfassen. Je nach „Intelligenz“ simulieren sie menschliches Verhalten in sozialen Netzwerken mehr oder weniger gut. Die einfachere Variante reagiert auf Schlüsselwörter oder Hashtags, postet dann selbstständig vorgefertigte Inhalte und versieht diesen wiederum mit prominenten Hashtags. Denkbar ist auch, dass der Bot sich automatisch mit anderen Accounts anfreundet oder ihnen folgt. Die komplexe Variante kann Inhalte in den Sozialen Netzwerken oder auf bestimmten Websites analysieren, daraus durchaus geistreiche neue Texte genieren oder sogar nahezu menschlich Unterhaltungen führen. Einige Bots täuschen auch regelmäßige Schlafenszeiten vor. Die Social Bots werden umso „intelligenter“ programmiert, je besser die Algorithmen von Facebook, Twitter & Co. in ihrer Erkennung werden.

Bei alldem gilt es zu bedenken: Ein Social Bot kommt selten allein. Erst die große Masse an automatisierten Accounts und deren gemeinsame Aktivitäten können überhaupt etwas bewegen, die politische Diskussion in den Sozialen Netzwerken entscheidend beeinflussen oder gar eine Gefahr für die Demokratie darstellen.

Social Bots sind leicht zu programmieren

Ein einfacher Social Bot ist leicht zu bauen. Diverse Anleitungen oder sogar fertigen Code gibt es frei verfügbar im Internet. Weiterführende Programmierkenntnisse benötigt man erst, wenn es um komplexere Algorithmen und Machine Learning geht. Tatsächlich kann man sich die Mühe des Programmierens je nach Einsatzgebiet des Social Bots auch ganz sparen und die Software einfach im Internet kaufen.

So oder so sieht der Bauplan meist drei Elemente vor:

  1. Mehrere Fake-Accounts des jeweiligen Sozialen Netzwerks
  2. Zugriff auf dessen Programmierschnittstellen
  3. Das eigentliche Computerprogramm, das die Social Bots dann automatisch steuert.

So sind Twitter-Accounts (von Hand oder automatisiert erstellt, oder gehackt) beispielsweise in einer Menge von 10 000 Stück für $100 online erhältlich. Wahlweise kann man für weitere $500 auch die Software für deren Steuerung käuflich erwerben. Eine solche Armee von 10 000 Twitterbots, die gegenseitig prominente Hashtags aufgreifen, kann in Deutschland schon ausreichen, um den Algorithmus für Trending Topics und damit die öffentliche Meinung im Sinne ihres Schöpfers zu manipulieren.

Missbrauch von Social Bots und Fake-News für Manipulation

Problematisch wird es also immer dann, wenn diverse Interessensgruppen, seien es Unternehmen, Politiker, Parteien, Terrororganisationen oder der Staat selbst, Social Bots in Masse dazu missbrauchen, die öffentliche Meinung zu verzerren oder gar zu manipulieren. Durch den Einsatz von Fake-Freunden oder -Followern für den eigenen Account bzw. den Account des Wettbewerbers etwa kann man die eigene Beliebtheit vortäuschen oder dem anderen schaden. Durch das massenhafte Liken, Teilen und die Verwendung prominenter Schlüsselwörter oder Hashtags durch Bots lässt sich zudem Werbung in eigener Sache machen. Eine Armee an Social Bots beeinflusst so unerkannt die Trends in den Sozialen Netzwerken, welche unter dem Stichwort Big Data wiederum immer häufiger für politische und wirtschaftliche Entscheidungen zu Rate gezogen werden.

Dies birgt die Gefahr, dass gerade extreme Positionen vermehrt Zuspruch erhalten.

Zwar ist es unwahrscheinlich, dass gemäßigte Personen plötzlich ihre politischen Überzeugungen über den Haufen werfen. Wenn allerdings durch die automatisierte Verbreitung von extremen Inhalten und Fake-News auf Facebook, Twitter & Co. der Anschein erweckt wird, dass die Mehrheit der Nutzer diese Ansichten teilt, könnten sich für solche Manipulation empfängliche Personen unbedarfterweise einfach anschließen. Da Social Bots gerade in ohnehin schon brisanten politischen Debatten ihr Unwesen treiben, haben sie durchaus das Potential, die öffentliche Meinungsbildung der Demokratie massiv zu beeinflussen.

Wir nehmen ihre Aktivitäten während US-Wahlkampf, Brexit, Ukraine-Konflikt und Flüchtlingskrise genauer unter die Lupe.

Social Bots mischen bei politischen Debatten mit

US-Wahlkampf

Beim US-Wahlkampf sind Social Bots längst etabliert. Diesmal stellten sich bei Analysen mit dem Tool Twitter Audit zeitweise je mindestens 30 % der Twitter-Follower beider Präsidentschaftskandidaten als Bots heraus. In dem sozialen Netzwerk kamen während der TV-Debatten mit einer Anzahl von 3,8 Millionen ein Fünftel aller Beiträge zum Thema von mindestens 400 000 automatisierten Accounts.

Laut einer Studie der University of Oxford war es sogar ein Drittel aller Tweets zum Thema, die von Social Bots stammten. Davon waren 80% eindeutig pro-Trump zu verstehen (mit Hashtags wie #MakeAmericaGreatAgain, #CrookedHillary); und nur 20% pro-Clinton (mit Hashtags wie #ImWithHer, #NeverTrump). Überhaupt wurde jeder dritte Tweet zugunsten Trumps von einem Social Bot gepostet; zugunsten Clintons war es hingegen nur jeder vierte. Auch wurde nach dem ersten TV-Duell der Hashtag #TrumpWon zum Trending Topic auf Twitter, obwohl nach Einschätzung vieler Zuschauer und der Medien Clinton deutlich vorne gelegen hatte.

Alles in allem liegt der Verdacht nahe, dass im US-Wahlkampf versucht wurde, mit Social Bots die politische Meinungsbildung zum Vorteil von Trump zu manipulieren.

Brexit

Auch bei der Brexit-Debatte mischten Social Bots auf Facebook, Twitter & Co. mit. Es konnte festgestellt werden, dass bei den Kampagnen beider Lager, Leave und Remain, die Social Bots wohl gleichermaßen eine zwar untergeordnete, aber strategische Rolle spielten. Tatsächlich wurden auf Twitter die Hashtags der Befürworter, wie etwa #Brexit, insgesamt viermal so häufig benutzt wie die der Gegner, etwa #StrongerIn. Das bedeutet, dass auch die Anzahl der automatisierten Tweets auf Seiten der Brexit-Befürworter erheblich höher war.

Zweifelsohne könnte man argumentieren, dass das Referendum durch die auf Twitter vorherrschende Meinung zugunsten von Leave beeinflusst worden ist. Allerdings ging der Trend außerhalb der sozialen Netzwerke laut Umfragen hin zu einem knappen Sieg für Remain. Außerdem stimmten jüngere Bürger mit hohem Bildungsniveau, also gerade jene, die viel auf Twitter unterwegs sind, überwiegend gegen den Brexit. Wenn also Social Bots bestimmte Hashtags bevorzugt verwenden und sich das auf die Trending Topics auf Twitter auswirkt, muss nicht immer politisch motivierte Manipulation dahinter stecken. Es könnten beispielsweise Unternehmen die prominenten Hashtags dazu benutzt habe, die eigene Sichtbarkeit im Internet zu verbessern.

Ukraine-Konflikt

Im Rahmen des Ukraine-Konflikts wird mit Social Bots in den Sozialen Netzwerken Stimmungsmache betrieben. Auf der einen Seite werden sie zur Verbreitung von Propaganda des „Rechten Sektors“ eingesetzt, einer teils militanten nationalistischen ukrainischen Gruppierung. Eine Armee von ca. 15 000 automatisierten Twitter-Accounts veröffentlicht im Durchschnitt 60 000 Beiträge pro Tag, deren Zielgruppe hauptsächlich junge Männer sind. Die Tweets drehen sich etwa um Fußball, sexistische Witze oder Webseiten zum illegalen Download amerikanischer Kinofilme, hier und da geschickt mit politisch-rechten Inhalten versehen. Immer wieder greifen die Bots bestimmte Hashtags auf oder erwähnen den Hashtag „Rechter Sektor“ in Verbindung mit „Maidan“ oder „Euromaidan“, also den Bürgerprotesten pro-EU (und gegen Russland).

Damit versuchen sie, zum einen die Trends auf Twitter zu beeinflussen, und zum anderen die Algorithmen dahingegen zu manipulieren, im Zusammenhang mit „Maidan“ die eigene rechtsextreme Propaganda anzuzeigen. Auch wurden Fake-News in Umlauf gebracht, dass die Separatisten von Russland Raketen erhalten hätten und planen würden, damit Kiew anzugreifen. Zudem folgen die Twitterbots gezielt ukrainischen Politikern. Dahinter steht die Strategie, durch deren große Zahl an Followern, die wiederum Beiträge liken und teilen, mehr Reichweite zu bekommen.

Auf der anderen Seite findet sich auf Facebook, Twitter & Co. auch zunehmend russische Propaganda. Längst ist bekannt, dass die russische Regierung in Online-Foren mit einer Troll-Armee die öffentliche Meinung beeinflusst. Der Verdacht liegt also nahe, dass in den sozialen Netzwerken dafür Social Bots zum Einsatz kommen. Die Inhalte zum Ukraine-Konflikt im deutschsprachigen Internet jedenfalls stellen sich als mehrheitlich russlandfreundlich heraus, was eindeutig nicht die tatsächliche Meinung der breiten Öffentlichkeit widerspiegelt.

Fake-News: Hetze gegen Flüchtlinge

Was das Thema Fake-News und Hassrede angeht, so bezieht sich die aktuelle Debatte hauptsächlich auf Falschmeldungen und Gerüchte über angebliche, von Flüchtlingen begangene Straftaten, die in Sozialen Netzwerken verbreitet werden. In Zeiten der Flüchtlingskrise missbrauchen rechtsextreme Gruppen die große Reichweite der Netzwerke, um mit unwahren Beiträgen, etwa über Entführungen und Vergewaltigungen, gegen Flüchtlinge zu hetzen. Es ist nicht auszuschließen, dass auch Social Bots zur weiteren Verbreitung und Verstärkung der ausländerfeindlichen Propaganda eingesetzt werden. Schließlich lassen sich die Urheber von Fake-News und Hassrede nur schwer verfolgen, obwohl es sich dabei, über den Straftatbestand der Beleidigung hinaus, allemal um üble Nachrede oder sogar Verleumdung handeln könnte.

In Deutschland wird nun zum ersten Mal gerichtlich dagegen vorgegangen: ein junger syrischer Flüchtling verklagte Facebook vor dem Landgericht Würzburg, nachdem dessen harmloses Selfie mit Angela Merkel immer wieder in dem sozialen Netzwerk kursierte, zusammen mit der falschen Behauptung, er sei verantwortlich für Anschläge und anderen Straftaten. Der Prozess beschäftigt sich vor allem mit der Frage, inwieweit Facebook für die Verbreitung von solchen Fake-News und Hassrede mitverantwortlich ist und diese selbsttätig zu löschen hat. Schon länger sind die Pflicht zur Gegendarstellung, sowie 500 000 Euro Bußgeld im Gespräch.

Kompetenter Umgang mit Social Bots

Nun da im Rahmen brisanter politischer Debatten Soziale Netzwerke immer öfter mit gezielter Manipulation und Propaganda in Verbindung gebracht werden, muss es im eigenen Interesse von Facebook, Twitter & Co. liegen, konsequent gegen die Probleme Social Bots, Fake-News und Hassrede vorzugehen. Die Frage ist nur, ob man sich darauf verlassen kann, dass Algorithmen diese Aufgabe zuverlässig übernehmen. In Deutschland jedenfalls ist die Diskussion darum entbrannt, ob und wie Gesetzgebung etwas bewirken kann. Insbesondere im Hinblick auf die anstehende Bundestagswahl wird die Politik zunehmend nervös: Könnten die Bots auf Facebook und Twitter, wie auch gezielte Falschmeldungen, tatsächlich (wahl-)entscheidend auf die politische Meinungsbildung einwirken?

CDU, SPD, Grüne, Linke und FDP jedenfalls sind sich einig, auf Social Bots im Wahlkampf definitiv zu verzichten. Ferner wollen die Justizminister einiger Länder das Betreiben von Social Bots als „Digitalen Hausfriedensbruch“ unter Strafe stellen, soweit diese gegen die Nutzungsbedingungen sozialer Netzwerke verstoßen. Die Grünen wiederum fordern, dass Beiträge von Social Bots grundsätzlich gekennzeichnet werden.

Der Deutsche Bundestag widmete sich schließlich Ende Januar dem Problem und führte Fachgespräche zum Thema, einmal im Ausschuss Digitale Agenda und einmal im Ausschuss für Bildung, Forschung und Technikfolgenabschätzung.

Die geladenen Experten zeigten sich eher skeptisch gegenüber einem regulatorischen Vorgehen, zumal die Auswirkungen von Social Bots noch kaum wissenschaftlich untersucht worden sind. Stattdessen plädieren sie für einen aufgeklärten Umgang mit Inhalten in Sozialen Netzwerken und damit einhergehend für einen Ausbau der digitalen Strukturen für einen demokratischen Meinungsaustausch. Unter dem Stichwort „digitale Medienkompetenz“ müssen wir uns bewusst werden, dass auch auf Facebook, Twitter & Co. gilt: „Quantität ist nicht gleich Qualität“. Die Social Bots werden immer intelligenter programmiert, also müssen auch wir intelligenter im Umgang mit ihnen werden.

Wie Sie Social Bots entlarven können

Tatsächlich sind Social Bots gar nicht so leicht zu erkennen. Die sozialen Netzwerke selbst arbeiten laufend daran, ihre Algorithmen in der Erkennung von Bots zu verbessern. Trotzdem scheitern diese immer wieder. Im Folgenden erklären wir, wie Sie Social Bots mit gesundem Menschenverstand selbst entlarven können.

Als Erstes überprüfen Sie, ob der Account über Profilbild, realistische Angaben zur Person und seriöse weitere Hintergrundinformationen verfügt. Danach nehmen Sie dessen Freunde bzw. Follower genauer unter die Lupe. Bots haben in der Regel nur wenige oder aber hauptsächlich andere Bots als Freunde bzw. Follower. Schauen Sie, ob Sie welche davon persönlich kennen. Ansonsten kann man Social Bots daran erkennen, dass sie sehr viele, stets ähnliche Beiträge posten oder Inhalte teilen, die immer von denselben Quellen stammen.

Laut der Studie der University of Oxford ist auch ein übermäßig aktiver Nutzer, der 50 oder mehr Tweets am Tag postet, ein guter Anhaltspunkt. In einigen Fällen können auch unwahrscheinlich kurze Reaktionszeiten auf bestimmte Hashtags, sowie mehrere Tweets zur fast selben Zeit auf automatisierte Accounts hinweisen. Eine weitere Möglichkeit einen Social Bot zu erkennen, ist ihn aus der Reserve zu locken: Fragen Sie ihn etwas Tiefgründiges, das nicht in den Kontext passt. Kaum ein Bot kann darauf eine schlüssige Antwort geben. Manchmal zeigen Social Bots außerdem eine kleine Grammatikschwäche.

Zu guter Letzt können Sie jederzeit die Dienste von Twitter Audit und BotOrNot in Anspruch nehmen. Twitter Audit kann feststellen, wie viele Follower eines Twitter-Accounts tatsächlich Menschen sind. BotOrNot hingegen analysiert aufgrund der Aktivitäten des Accounts, wie wahrscheinlich es ist, dass dieser ein Bot ist.

War der Artikel hilfreich?

Dann melden Sie sich doch für unseren kostenlosen Newsletter an und lesen Sie weitere unterhaltsame, informative und hilfreiche Beiträge über IT, Cybersicherheit, die Cloud und Boxcryptor.

Mit der Eingabe Ihrer E-Mail-Adresse stimmen Sie unserer Datenschutzbestimmung zu.
Beitrag teilen