Maschinen bedienen Computern – Experten fürchten Schlimmstes. Foto: Fotolia/Joebakal

Maschinengesteuerte Fake-Profile überschwemmen das Internet mit gestreuten Informationen und versuchen so, Menschen zu beeinflussen. Sie werden als Social Bots bezeichnet. Wie funktionieren sie und warum sind sie gefährlich?

Stuttgart - Die Studie, die kurz vor der US-Wahl erschien, ist angesichts der Debatte um Fake-News schon in Vergessenheit geraten, obwohl sie zukunftweisend ist – wenn auch nicht im positiven Sinne: Emilio Ferrara von der University of Southern California hatte mit Kollegen 20 Millionen Tweets von September und Oktober 2016 analysiert, deren Inhalt mit der Wahl zusammenhing. 3,8 Millionen von ihnen waren laut der Analysen der Forscher von Social Bots geschrieben worden. Fast 20 Prozent aller Tweets zur US-Wahl verfassten also Maschinen und nicht Menschen.

Während nach der Wahl die Bestürzung vor allem über Falschmeldungen auf Facebook groß ist, die immerhin von Menschen verfasst worden waren, steht die Frage im Raum, inwiefern Bots angesichts ihrer schieren Masse die öffentliche Meinung stärker beeinflussen – unabhängig davon, ob sie wahre oder falsche Nachrichten verbreiten. „Social Bots manipulieren die Trends in sozialen Netzwerken, und diese Trend fließen in politische und wirtschaftliche Entscheidungsprozesse ein“, ist Simon Hegelich überzeugt. Der Professor für politische Datenwissenschaft an der Hochschule für Politik München hat ähnlich alarmierende Erkenntnisse wie sein US-Kollege gemacht: Er deckte eine Armee von 15 000 Bots auf Twitter auf, die sich mit dem Ukraine-Konflikt beschäftigten und die pro Tag 60 000 antirussische Tweets posteten. Seine These: Politiker lassen sich von diesem manipulierten Abbild von Volkes Stimme beeinflussen. Dies zeigen beispielsweise Berichte, nach denen Hillary Clinton ihren Wahlkampf von einem Algorithmus steuern ließ – der unter anderem auf Daten wie Netztrends beruhte und bekanntermaßen falsch lag.

Mensch oder Maschine? Das ist schwer zu erkennen

Dazu kommt ein weiteres Problem: Nutzer können Bots nicht ohne Weiteres erkennen. „Social Bots fangen an, menschliches Verhalten zu adaptieren, sie simulieren sogar einen menschlichen Tagesablauf mit Essens- und Schlafpausen“, sagt der Sozialwissenschaftler Andree Thieltges von der Uni Siegen. Anfangs posteten diese Accounts häufig belanglose Themen wie das Wetter und folgten anderen Nutzern, in der Hoffnung, dass diese ihnen ebenfalls folgen. So gewinnen sie Einfluss und Glaubwürdigkeit. Dank der Erfolge der künstlichen Intelligenz und der maschinellen Sprachverarbeitung können sie zunehmend sinnvolle Gespräche auf vergleichsweise hohem Niveau führen. Auch US-Forscher Ferrara berichtet von einem Selbsttest, in dem er versuchte, Accounts klar Mensch oder Maschine zuzuweisen: „Es ist unglaublich schwierig.“

Und auch auf technische Hilfe kann man in Zukunft wohl kaum hoffen: Während Hegelich die ukrainische Bot-Armee noch recht leicht identifizieren konnte, da sie großteils vom gleichen Server stammten, arbeiten Entwickler bereits an einer besseren Deckung für Bots – und sind den Erkennungsprogrammen stets einen Schritt voraus. Was also tun? Thieltges rät, mit offenen Augen durchs Netz zu gehen und sich an einen Gedanken zu gewöhnen: „Auch eine Nachricht, die millionenfach verbreitet ist, kann unwahr sein.“ Oft wird der Unterschied nicht erkannt. Thieltges sieht eine weitere Gefahr darin, dass entsprechende Falschmeldungen aus den sozialen Netzwerken in traditionelle Medien gelangen: weil Journalisten auf sie hereinfallen. „Und damit treffen sie auf Gesellschaftsschichten, die mit Social Media nichts zu tun haben.“ Manche Bots haben dabei schon die nächste Stufe erreicht: Sie tarnen sich als Fürsprecher einer Partei, ziehen deren Aussagen aber ins Absurde – so wie ein Bot im US-Wahlkampf, der rassistische Parolen von sich gab, um in die Filterblase der Trump-Anhänger zu gelangen, und dann Falschaussagen Trumps korrigierte.

Meinungen außerhalb des Internets relativieren

Andere Forscher warnen vor zu viel Alarmismus: Lorena Jaume-Palasí schätzt die Gefahr, dass Social Bots die öffentliche Meinung manipulieren, noch nicht so groß ein. „Das könnten sie nur, wenn der gesamte menschliche Interaktionskontext ausschließlich digital wäre“, sagt die Politikphilosophin der Münchner Ludwig-Maximilians-Universität. „Wir leben in einer digitalen Zeit, aber Social Media hat noch nicht alle anderen Kontexte erreicht.“ Menschen gingen zur Arbeit oder in die U-Bahn, wo sie auf andere Menschen und andere Meinungen treffen. Der sogenannte magnifizierende Effekt des Internets, dessen Gefahren Kommunikationswissenschaftler immer wieder betonen, sei nicht quantifizierbar. Sie will Social Bots auch nicht ganz verteufeln. „Wir versuchen seit je, andere Menschen von unseren Meinungen zu überzeugen“, sagt sie, „wir können nicht Neutralität verlangen und auch nicht, dass Bots abgeschafft werden.“

Wie entsehen Social Bots?

Inhalte

Bots sind Computerprogramme, die automatisch Inhalte erstellen oder weiterverteilen. Sie dienen unter anderem dazu, dass die Google-Suche funktioniert, oder senden an die Kunden der Bahn den berühmten Verspätungsalarm. Bots an sich sind also nicht gefährlich. Erst seit Bots in sozialen Netzwerken als Menschen getarnt werden, sind Experten besorgt, dass sie die öffentliche Meinung manipulieren könnten.

Accounts

Um einen Social Bot in einem sozialen Netzwerk einzusetzen, werden entweder falsche Accounts angelegt oder echte Accounts gehackt und übernommen. Die Profilbilder sind häufig Comicbilder, da diese im Netz günstig zu haben sind, oder geklaute Fotos anderer Nutzer. Um Menschen immer besser nachzuahmen, führen solche Bots häufig zunächst harmlose Gespräche oder posten Witze oder Ähnliches.

Intelligenz

Der bekannteste Fall eines Social Bots, der mittels künstlicher Intelligenz aus Interaktionen lernen sollte, war Microsofts Chatbot Tay: Dieser gab vor, eine junge Frau zu sein (es wurde jedoch kommuniziert, dass es sich um ein Computerprogramm handelte) und war anfangs nur „neugierig auf die Welt“. Doch innerhalb von 24 Stunden hatte er sich zum Nazi entwickelt, weil Nutzer entsprechende Inhalte posteten