Warum Social Bots unsere Demokratie gefährden

Foto: Public Domain

Sie werden mit echten Politikern verwechselt und haben die Netzdebatte um den Brexit beeinflusst. Soziale Roboter, sogenannte Bots, werden immer schlauer. Und das macht sie richtig gefährlich.

In einem Amsterdamer Kinderzimmer sitzt ein 18-jähriger Schüler und jeder, der genügend Geld hat, kann sich bei ihm ein Stückchen Meinungsmacht einkaufen. Was sich anhört wie der Plot einer überdrehten amerikanischen Vorabendserie ist Realität. Lennart V. ist Social-Bot-Programmierer. Er hat sich seit einigen Jahren auf die Programmierung von Fake-Accounts in sozialen Medien spezialisiert. Ein sehr einträgliches Geschäft, wenn man seinen Aussagen glaubt.

Der Begriff Social Bots heißt übersetzt „soziale Roboter“. Im Grunde genommen handelt es sich um kleine, aber sehr intelligente Software-Programme, die sich so verhalten, als seien sie reale menschliche Nutzer. Hierfür werden die Profilbilder meist mit real existierenden Profilfotos aus dem Internet oder belanglosen Comiczeichnungen bestückt, die Biografie sinnvoll ausgefüllt und die Bots mit anderen realen Nutzern vernetzt.

20 Prozent aller Twitter-Accounts sind Bots

Wohl jeder Nutzer kennt die gutaussehenden jungen Frauen, die einem auf Facebook eine Freundschaftsanfrage senden. Sie werden zu Tausenden programmiert. Schätzungen gehen von 100 Millionen Fake-Accounts auf allen großen Plattformen aus. Bis zu 20 Prozent aller Twitter-Accounts werden schon heute Social Bots zugeordnet. Einer Untersuchung von Professor Simon Hegelich von der Technischen Universität München zufolge sind 15 bis 40 Prozent aller Follower von Schweizer Parteien Social Bots beziehungsweise inaktive Nutzer. Bei der Sozialdemokratischen Partei (SP) sollen sich die meisten von ihnen tummeln. Auch in Twitter-Debatten machen diese sich immer wieder bemerkbar: „Es muss davon ausgegangen werden, dass auch in der Schweiz Bots in die politische Debatte im Netz eingreifen und sie verfälschen.“

Prognosen sagen zudem ein starkes Wachstum in den nächsten Jahren voraus. Und die Bots werden immer schlauer. Dank künstlicher Intelligenz können sie nicht nur die Follower- und Fanzahlen etwa politischer Accounts in die Höhe schnellen lassen oder Videoabrufzahlen manipulieren, sie posten auch selbständig eigene Inhalte und antworten auf Postings realer Nutzer. In Tweets, aber auch in Facebook- oder Youtube-Kommentaren.

In letzter Zeit wurden Chat-Bots beobachtet, die sinnvolle und durchaus längere politische Diskussionen führen können und verschiedene Argumente ausgetauscht haben, ohne dass sich der Besitzer des Bots nur eine Sekunde darum kümmern musste. Dabei geht man ihnen immer öfter auf den Leim, wie der falsche Benutzeraccount der argentinischen Ex-Präsidentin Cristina Kirchner aka @cfkresponde zeigte. Monatelang interagierte dieses Profil mit anderen Usern. Sein Antwortverhalten wurde auf Basis der öffentlichen Stellungnahmen Kirchners programmiert. Niemandem fiel auf, dass es sich dabei um einen Bot handelte.

Die Trollarmeen, die zum Beispiel im Auftrag der russischen Regierung positive Stimmung in deutschen und Schweizer Kommentarspalten machen, sind seit längerem bekannt. Dahinter stehen reale Menschen, die im Sinne der Regierung Meinungen und Stimmungen im In- und Ausland beeinflussen sollen. Das nennt man auch „Digital Diplomacy“.

Verzerrtes Stimmungsbild

Meinungsbildung findet – nicht nur bei netzaffinen – Politikern und Parteien immer stärker im Netz statt. Neben Telefonumfragen, Feedback auf dem Marktplatz oder im Bürgerbüro gehört der Online-Rückkanal als fester Bestandteil immer öfter zum politischen Trend- und Stimmungsmonitoring. Mit all seinen bekannten Schwächen: Selbstverständlich erhalten Politiker hier nur das Feedback eines Ausschnittes der Gesellschaft, aber das ist bei Telefonumfragen und Besuchen im Seniorenheim auch nicht anders. Allerdings birgt die stärkere Nutzung von Social Media für die Meinungsbildung ein größeres Einfallstor für Manipulationen.

So beobachtete Simon Hegelich unter anderem auf dem Facebook-Account der deutschen CSU, wie Social Bots versuchten, Meinungen zu beeinflussen. Unter den Beiträgen der Partei tauchten immer wieder fremdenfeindliche Kommentare auf, die Hegelich ziemlich sicher Social Bots zuordnen konnte. Oft reicht schon ein einziger manipulativer Kommentar aus, um eine Hass-Tirade anderer, „echter“ Benutzer auszulösen.

Eine sachliche Diskussion über ein kontroverses Thema wurde so unmöglich. Auch auf Twitter wurden in der Vergangenheit mit gezielt gestreuten Gerüchten oder Falschmeldungen zum Beispiel unter den Hashtags #RapeFugees und #RefugeeesNotWelcome unzählige fremdenfeindliche Tweets von Bots versendet. Hegelich vermutet, der Großteil des Twitter-Traffics kommt von Social Bots. Die Programme suchen dabei ständig nach diesen Schlagworten und veröffentlichen dazu dann automatisierte Beiträge.

Für Politiker, aber auch Medien, sind Twitter oder auch Google- und Facebook-Trends zur belastbaren Grundlage von Analysen und Nachrichten geworden. Die Berichterstattung beruft sich auf solche Stimmungen, auch wenn diese manchmal nur auf wenigen Hunderten Tweets basieren. Oder wie im Fall des Brexit, wenn ein Drittel aller Beiträge von Bots generiert wurde, wie Forscher aus Oxford herausgefunden haben.

Vier Lösungsansätze

Wie aber sollte die Politik nun mit dieser Form des öffentlichen Agenda-Settings und der Meinungsbeeinflussung umgehen? Ich sehe vier Hauptansatzpunkte:

Sensibilisierung: Wie bei allen neuen Phänomenen ist es wichtig, dass sowohl politische Entscheider als auch Beobachter um die Möglichkeiten und die Wirkungsmacht von Bots wissen. Hier muss relativ schnell eine Sensibilisierung der Akteure auf allen Ebenen erfolgen: bei Journalisten, Mandatsträgern und Mitarbeitern.

Werkzeuge: Um Bots schnell und sicher zu erkennen, haben sich schon länger spezialisierte Dienste wie Bot or Not etabliert. Auf der Basis von Spracherkennung und semantischer Kategorisierung erkennen diese Muster und können so Bots identifizieren. Da das Gros der Werkzeuge bisher nur für englische Bots funktioniert, sollten Dienstleister die Services für den deutschsprachigen Raum weiter ausbauen.

Austausch: Parteien und politische Akteure sollten sich trotz aller Konkurrenz stärker zum Thema Bots austauschen. Aktuelle Angriffe, entdeckte Bot-Armeen und auffälliges Fan- und Followerwachstum sollten zeitnah öffentlich gemacht werden und innerhalb der demokratischen Akteure sollte ein System des Austausches etabliert werden.

Netzwerke: Aus ureigenem Interesse heraus sollten auch die Plattformen selbst alles tun, um Bot-Netzwerke zu enttarnen und zu entfernen. Zudem müssen die Netzwerke mehr Aufklärungsarbeit für die Nutzer leisten und das Thema aktiver kommunizieren, denn nur mit Hilfe der Nutzer lässt sich das Problem umfassend bekämpfen.

Martin Fuchs

Martin Fuchs

Martin Fuchs berät Regierungen, Parlamente, Parteien und Verwaltungen in digitaler Kommunikation. Seit 2008 ist er Lehrbeauftragter für Public Affairs an der Universität Passau, und Dozent für Social Media und Politik an weiteren Hochschulen. Zudem ist er Gründer der Social-Media-Analyse-Plattform Pluragraph.de und bloggt über Social Media in Politik und Verwaltung unter hamburger-wahlbeobachter.de.

Foto: privat
Martin Fuchs

Letzte Artikel von Martin Fuchs (Alle anzeigen)