Auch Facebook-Chef Mark Zuckerberg sorgt sich wegen der Ausbreitung von Fake-News. Foto: AP

Sogar Facebook-Chef Mark Zuckerberg zeigt sich jetzt besorgt über die Ausbreitung von Falschmeldungen und Hassreden im Internet. Forscher arbeiten daran, Computern beizubringen, unseriöse Quellen zu erkennen. Aber können sie auch Fake-News an sich identifizieren.

Stuttgart - Was tun gegen Fluten von Falschmeldungen im Netz? Die Debatte tobt seit der US-Wahl, und im Bundestagswahlkampf könnten Fake-News in sozialen Netzwerken wie Facebook und Twitter auch hierzulande ein Problem werden. Zudem mehren sich die Verfahren gegen Facebook wegen Verleumdung, Beleidigung oder Volksverhetzung.

Jetzt hat sich der Konzernchef Mark Zuckerberg Gedanken über die Rolle seiner Online-Plattform gemacht und sich dabei beunruhigt über die negativen Auswirkungen von Social Media gezeigt – wegen der Ausbreitung von Fake-News und wegen der „Filterblasen“, in denen die Nutzer feststecken und in denen immer nur ihre eigene Meinung bestätigt wird. In dem offenen Brief auf Facebook kündigte Zuckerberg mit viel Pathos an, eine globale Gemeinschaft schaffen zu wollen, „die für alle arbeitet“, außerdem will er Falschmeldungen bekämpfen und den Nutzern „diverse Standpunkte“ präsentieren. In Zusammenarbeit mit dem Recherchebüro Correctiv und mit anderen Partnern will Facebook künftig Beiträge gezielt auf ihren Wahrheitsgehalt prüfen, wenn viele Nutzer sie als Schwindel melden. Stellt sich ein Post als unwahr heraus, soll er mit einem Warnhinweis versehen werden.

Wissenschaftler arbeiten schon seit 15 Jahren an dem Thema

Das Verfahren, das Facebook anstrebt, ist aufwendig, weil Menschen die Beiträge prüfen und gegebenenfalls nachrecherchieren müssen. Da scheint die Hoffnung auf eine technische Lösung nicht unberechtigt: Wie praktisch wäre es, wenn Computer selbst die Welt von Falschmeldungen befreien könnten. „Unmöglich“, sagt Dean Pomerlau, Professor für Künstliche Intelligenz an der Carnegie Mellon University. Er hat auf Twitter unter dem Hashtag #FakenewsChallenge eine Wette ausgerufen: Wetten, ihr schafft es nicht, einen Algorithmus zu schreiben, der zwischen falschen und richtigen Behauptungen unterscheiden kann? 1000 US-Dollar setzte Pomerlau auf seine Wette, Delip Rao legte noch einmal 1000 Dollar drauf: Der Maschinenlernexperte, der das Spracherkennungssystem von Amazons digitalem Assistenten Echo mit entwickelt hat, ist in diesem Fall offensichtlich wenig überzeugt von dem Potenzial der Algorithmen.

Doch die Aktion hat den Ehrgeiz der Community geweckt: 70 Teams haben bereits angekündigt, ein entsprechendes Programm binnen sechs Monaten entwickeln zu wollen. „Natürlich werden Algorithmen Falschmeldungen erkennen können“, ist Victoria Rubin, Associate Professor an der University of Western Ontario, überzeugt, „aber nicht in den nächsten zwei Monaten.“

Unbemerkt von der Öffentlichkeit arbeitet eine kleine Gruppe von Wissenschaftlern schon seit rund 15 Jahren an dem Thema. Die Experten beschäftigten sich zum Beispiel damit, wie Gerichtsgutachter und Polizisten herausfinden können, ob ein Zeuge flunkert, und wie man gefälschte Hotelbewertungen herausfiltert. Vielleicht handle es sich um 30 bis 50 Experten weltweit, schätzt Rubin. „Aber jetzt explodiert es.“ Seitdem die Welt das Thema Falschmeldungen als Problem wahrnimmt, können sich diese Forscher vor Anfragen kaum retten.

Trainingsdaten zum Üben sind besonders wichtig

Eine wissenschaftliche Herausforderung in Bezug auf Fake-News sind die Trainingsdaten: Es braucht unzählige von Menschen als falsch und richtig markierte Meldungen, mit denen ein Algorithmus „üben“ kann. Überraschenderweise stellen sich Maschinen beim Lügenerkennen schon heute deutlich besser an als Menschen. Rubin und ihre Kollegen ließen bereits vor sieben Jahren rund 250 Probanden wahre und falsche – aber plausible – Kurzgeschichten schreiben. Anschließend sollten die Teilnehmer kennzeichnen, welche ihrer Erzählungen frei erfunden waren, und die Geschichten der anderen beurteilen.

Die Testpersonen erkannten frei Erfundenes mit einer Genauigkeit von 53 Prozent – man hätte also ebenso gut eine Münze werfen können. Der Mensch ist laut Rubin schlecht darin, Lügen zu entlarven. „Wir glauben gerne alles“, sagt Rubin, „wir suchen nicht nach Lügen.“ Ein Algorithmus hingegen fand offenbar doch Muster in den Texten, die erlogen waren: Seine Trefferquote lag bei 63 Prozent. Die Maschine ist also auch bei Weitem nicht zuverlässig – aber besser als der Mensch.

Die Forscher nutzten in den Folgejahren verschiedene andere Trainingsdaten, darunter satirische Artikel, die ebenfalls „falsche“ Behauptungen enthielten – zumindest wenn man die darin enthaltene Ironie und Satire nicht versteht, was vielen Menschen schwerfällt. Ein Algorithmus, den Rubin und ihr Team entwickelt hatten, erkannte Satire mit einer Zuverlässigkeit von 91 Prozent. „Bis vor Kurzem hieß es, Ironie, Sarkasmus und Emotionen erkennen nur Menschen“, sagt Rubin. Warum also sollte es eine menschliche Domäne bleiben, Unwahrheiten auszuspüren?

Lügen sind nicht gleich Lügen

Doch welche Muster entdecken die Maschinen? Wie überführen sie Menschen beim Schwindeln? Das haben die Forscher nur teilweise entschlüsselt – und es hängt sehr davon ab, in welcher Form die Lügen vorliegen. Im Gespräch beispielsweise drücken sich flunkernde Menschen wortreicher aus als der Durchschnitt, sie benutzen mehr Wörter, die mit Sinnen zusammenhängen wie „sehen“ oder „fühlen“, und ihre Sätze sind im Schnitt weniger komplex aufgebaut. Vorstände großer Konzerne wiederum verwenden in Reden häufiger Worte wie „fantastisch“ oder „exzellent“, wenn sie Unwahres behaupten.

Das zeigt aber auch eines: Lügen sind nicht gleich Lügen. Offensichtlich muss sehr genau definiert werden, welche Art von Unwahrheiten und welche Situationen gemeint sind, damit die Algorithmen eine Chance haben und Muster erkennen. Doch Fake-News sind nicht eindeutig definiert: mal handelt es sich um Gerüchte, mal um bewusste Lügen, mal um falsch verstandene Satire. Ein Algorithmus, der bewusste Lügen relativ gut entlarvt, scheitert dann, wenn jemand diese Lügen glaubt und in seinen eigenen Worten wiedergibt. „Das allein ist ein riesiges Problem“, sagt der ehemalige Amazon-Echo-Entwickler Rao: „Wir müssen sehr viel Zeit allein damit verbringen zu definieren, was genau Fake-News eigentlich sind.“ Und das ist vielleicht die größte Herausforderung.

Aus Rubins Sicht wird der Mensch weiterhin gebraucht, um den Kontext einzuschätzen: „Software kann unsere menschliche Unterscheidungskraft nur unterstützen, sie kann sie nicht ersetzen.“ Das kritische Denken der Leser bleibt also die zentrale Herausforderung. Und genau das müssten Kinder schon in der Schule lernen, forderte Apple-Chef Tim Cook vor ein paar Tagen im „Daily Telegraph“. Nötig sei eine internationale Kampagne, betonte er. Denn es reiche nicht, Informationen zu finden – man müsse sie auch einordnen können.