Sie sind derzeit in aller Munde und vor allem auf sozialen Netzwerken im World Wide Web unterwegs. Die Rede ist von sogenannten Social Bots, die getarnt als echte Nutzer als Stimmungs- und Meinungsmacher auf Facebook, Twitter und Co. fungieren. Hinter ihnen stecken indes Computerprogramme, die von ihren Entwicklern gezielt eingesetzt werden, um Diskurse, die im Internet geführt werden, in eine bestimmte Richtung zu lenken. Angesichts der anstehenden Bundestagswahlen reagierte auch der Deutsche Bundestag jüngst auf die Gefahr aus dem Internet und initiierte ein öffentliches Fachgespräch über die Möglichkeiten und Risiken von Social Bots. Doch welche Gefahr geht wirklich von Social Bots aus? Und wie kann man sich schützen?
Inhalt
Fake-News, Fake-Accounts und nun Social Bots
Wem kann man eigentlich noch trauen? Diese Frage mögen sich viele stellen. Angesichts einer im Januar im Deutschen Bundestag abgehaltenen Diskussionsrunde zum Thema „Social Bots“ scheint es, als würde das gestörte Vertrauensverhältnis von Bürger und Medien in Zukunft wahrscheinlich weiter bröckeln.
Konkret ging es in dem öffentlichen Fachgespräch, an dem mit der Digitalen Agenda sowie dem Ausschuss für Bildung, Forschung und Technikfolgenabschätzung gleich zwei Expertengruppen teilnahmen, um die Möglichkeiten und Risiken von Social Bots im World Wide Web.
Social Bots sind Computerprogramme, die sich vorwiegend in sozialen Netzwerken wie Facebook und Twitter vorfinden lassen, aber auch im Kommentarbereich von YouTube oder Online-Magazinen zu finden sind.
Dort initiieren sie Diskussionen, indem Sie eigenständig Kommentare verfassen, Posts liken oder retweeten. Grundsätzlich orientieren sich Social Bots an bestimmten Schlagworten, die in den jeweiligen Posts oder Kommentaren zu finden sind.
Problematisch ist der Einsatz von Social Bots, weil für den Leser nicht umgehend erkennbar ist, dass es sich um eine Maschine handelt. Diese sind theoretisch bestens dafür geeignet, Diskussionen mit automatisierten Kommentaren zu fluten oder Falschmeldungen rasant zu verbreiten, da sie weitaus ausdauernder und gezielter als Menschen agieren.
Welche Technik steckt hinter Social Bots?
Social Bots zu programmieren ist relativ simpel. Anleitungen und entsprechende Programme sind im Internet häufig sogar kostenlos zu finden.
Die meisten Social Bots basieren auf einfachen Keyword-Suchen. Sie suchen in sozialen Netzwerken nach bestimmten Keywords und Hashtags. Hat ein Social Bot einen passenden Eintrag gefunden, kann er beispielsweis enen vorgefertigten Kommentar hinterlassen.
Etwas ausgereiftere Social Bots sind gar lernfähig. Sie können zum Beispiel eigenständige Kommentare verfassen, indem sie Antworten anderer User kopieren oder miteinander kombinieren und zu neuen Beiträgen zusammensetzen.
20 fachkundige Experten wurden vom Bundestag zu diesem Thema geladen. Angesichts eines bislang relativ unerforschten Themas mag dies erstaunen. Weil wir uns aber im Jahr der Bundestagswahlen befinden, ist die Sorge der deutschen Volksvertretung gewissermaßen auch begründet.
Wohl auch deswegen ist bereits vor circa einem halben Jahr eine Studie in Auftrag gegeben worden, welche die „gesellschaftliche und politische Relevanz“ von Social Bots untersuchen sollte. Für Frühjahr dieses Jahres ist die Fertigstellung des Berichts geplant, der von der Dienstleistungsgesellschaft VDI/VDEI/IT konzipiert wird.
Gefahr erkannt, Gefahr gebannt?
Die Diskussion auf Bundesebene rund um das Thema Social Bots können Interessierte übrigens in der Mediathek des Deutschen Bundestages nochmals Revue passieren lassen. Die wesentlichen Erkenntnisse der Fachtagung fassen wir im Folgenden zusammen:
- Datenproblematik: Gesicherte Erkenntnisse zum Thema Social Bots könnten derzeit noch nicht geliefert werden. Grund hierfür sind das noch sehr junge Forschungsfeld und die wenigen Datensätze, die aufgrund dessen bisher zur Verfügung stehen. Einig war man sich trotz unsicherer Datenlage, dass Social Bots im Wechselspiel von Mensch und Maschine eine politische, wirtschaftliche und gesellschaftliche Gefahr darstellen würden.
- Virtuelle Tatorte: Wichtiger Diskussionspunkt war auch die Schwierigkeit in der Nachweisbarkeit des Einsatzes von Social Bots und deren Auswirkung auf öffentlich geführte Diskussionen in sozialen Netzwerken. Dass es bereits technische Strukturen gibt, die von Unternehmen aus der Wirtschaft, aber eben auch von beispielsweise Terror-Organisationen eingesetzt werden, sei Faktum. Fraglich sei bislang aber, auf welche Weise Social Bots eine verstärkende Wirkung auf Internet-Debatten haben. Zumindest empirisch sei es aber nur schwer nachzuweisen, dass die politische Meinungsbildung durch Social Bots mehr beeinflusst wird, als es beispielsweise die klassischen Massenmedien können.
- Rechtliche Handhabung: Aufgrund der zwar bislang nicht nachzuweisenden, aber befürchteten Wirkung von Social Bots plädierten einige Politiker für eine Art Kennzeichnungspflicht, damit Menschen, die sich in sozialen Netzwerken aufhalten und beispielsweise einen Tweet lesen, auch wissen können, dass sie gerade mit einer Maschine kommunizieren. Bei der Umsetzung könnte es jedoch hapern. Immerhin könnten Social Bots auf technischer Ebene nur schwer enttarnt werden. Zudem könne eine globale Reichweite der Gerichtsbarkeit nicht garantiert werden.
Werden Social Bots bereits von der Politik eingesetzt?
Erstmalig sollen Social Bots während der Ukraine-Krise genutzt worden sein. Letztmalig hätten sie vor allem während der US-amerikanischen Präsidentschaftswahl für Aufsehen gesorgt, indem sie „Fake-News“ in sozialen Netzwerken verbreiteten, die letzten Endes auch den Wahlsieg für Donald Trump bedeutet haben sollen.
Belege hierfür bleiben allerdings aus. Trotzdem zeigt die Diskussionsrunde im Deutschen Bundestag, dass sich die Politik in Deutschland gerade vor den Bundestagswahlen 2017 Gedanken macht und verhindern möchte, dass Social Bots am 24. September 2017 einen allzu starken Einfluss auf den politischen Willensbildungsprozess nehmen.
Zumindest die Parteifunktionäre von den Grünen haben sich nun selbst in die Pflicht genommen und offiziell verkündet, während des Wahlkampfes keine automatisierten Hilfsprogramme einzusetzen. CDU, SPD, Die Linke und auch die FDP lehnen den Einsatz von Social Bots ebenfalls kategorisch ab.
Und was macht die AfD? Auch hier sagt man sich überraschend von einem Einsatz von Social Bots los. Für die Anhänger der Partei gilt dies unterdessen nicht. So deckte die Frankfurter Allgemeine Zeitung vor einigen Wochen auf, dass Unbekannte den „dreckigen Wahlkampf“ bereits eingeleitet hätten und mithilfe von Social Bots politische Meinungsmache betreiben.
So könnt Ihr Euch vor Social Bots schützen
Auch wenn Social Bots gar nicht so einfach zu erkennen sind, einige Hinweise gibt es doch. Wollt Ihr also nicht auf Fake-Accounts oder falsche Nachrichten hereinfallen, solltet Ihr Euch an den folgenden Kriterien orientieren:
- Häufig verstecken sich Social Bots hinter Profilbildern, die keinen echten Menschen, sondern lediglich Avatare zeigen.
- Auf den Fake-Profilen fehlen sehr häufig Angaben zur Person. Auch werden nur selten Nachrichten seriöser Portale geteilt. Meist verweisen Links auf private Blogs und reißerische Nachrichten.
- In der Kommunikation mit dem Social Bot ist eine detaillierte Auseinandersetzung meist nicht möglich. Häufig folgen nur Plattitüden als Antworten.
- Oftmals fallen Fake-Profile, die von Social Bots gesteuert werden, auch durch die Anzahl der Beiträge aus. Wird täglich exakt dieselbe Anzahl an Posts verrichtet oder reagieren die Profile besonders zügig auf neue Artikel, kann dies ebenfalls auf die Aktivität eines Social Bot hinweisen. Dies bestätigte jüngst eine Studie der Oxford University.
- Das Portal „Bot or Not“ der Indiana University of Bloomington hat einen Algorithmus entwickelt, der herausfinden kann, ob es sich um einen Bot handelt oder nicht. Hierzu muss einfach der jeweilige Nutzername in ein Feld angegeben werden. Das Ergebnis zeigt eine Prozentzahl an, die darstellt, mit welcher Wahrscheinlichkeit das jeweilige Profil von einem Social Bot betrieben wird. Eine 100-prozentige Gewissheit gibt es zwar auch hier nicht, eine Tendenz liefert der Algorithmus aber allemal.
Kommentar hinterlassen