In den sozialen Medien ist der Umgangston mitunter ein rauer. Foto: AFP

Neuronale Netze filtern erfolgreich Beiträge unter der Gürtellinie in sozialen Medien wie Facebook heraus. Doch das automatische Löschen ist ein heikles Thema im Netz.

Stuttgart - Neben Falschmeldungen ist der zunehmend raue Ton im Netz ein Thema, das viele bewegt. Offensichtlich fühlen sich manche in der Anonymität so sicher, dass sie nicht nur andere Nutzer beleidigen, sondern sie auch verleumden oder gegen sie hetzen – manche Kommentare sind gar ein Fall für die Staatsanwaltschaft. Ähnlich wie bei den Falschmeldungen ist auch hier das Phänomen inzwischen so verbreitet, dass es kaum möglich ist, seiner mit rein manuellen Methoden Herr zu werden. Manche Webseiten-Betreiber schalten ihre Kommentarfunktion schlicht ab, weil sie nicht hinterherkommen, die Beiträge zu prüfen, und nicht gewährleisten können, dass zumindest jene gelöscht werden, die die Grenzen des Gesetzes überschreiten.

Computerlinguisten waren bis vor Kurzem mehrheitlich skeptisch, ob die automatische Hasserkennung eine Zukunft hat. Es gab etliche Versuche, aber sie trafen im Ergebnis oft die Falschen, nämlich genau jene, die die Hassbotschaften konterten: Die automatische Analyse basierte zu sehr auf Schlüsselwörtern, die beide Seiten benutzen. Mit dem Aufstieg des „Deep Learning“ könnte sich das ändern: Diese künstlichen, neuronalen Netze sind besonders gut darin, Satzstrukturen und Zusammenhänge zu erkennen. Yahoo präsentierte Mitte 2016 eine Studie, die als Durchbruch gesehen werden kann: Der Konzern trainierte einen Algorithmus mit mehreren Millionen von Menschen markierten Datensätzen. Sie bestanden aus Kommentaren im Netz und dem Urteil der Nutzer, ob es sich dabei um Hassrede handelt oder nicht. Das System lernte daraus, Hasskommentare zu erkennen, und ordnete schließlich 90 Prozent der neuen Kommentare richtig zu: Yahoo überprüfte das erneut mit einer menschlichen Kontrollgruppe, die der Konzern über Amazons Mechanical Turk – ein Online-Marktplatz für Gelegenheitsarbeiten – anheuerte.

Experten halten menschliche Moderation für nötig

Ist das die Basis dafür, Hatespeech künftig automatisch zu löschen? „Das darf kein Ersatz für die menschliche Moderation sein“, sagt Sebastian Köffer, aber es könne helfen: Der Wirtschaftsinformatiker der Uni Münster hat mit Studenten „Cyberhatemining.de“ entwickelt, ein System für die deutsche Sprache. Der Großteil der Forschung in diesem Bereich läuft bisher auf der Basis englischer Sprache. Die Gruppe um Köffer ließ Nutzer 12 000 Kommentare zur Flüchtlingsdebatte bewerten und trainierte damit ihren Algorithmus. 70 Prozent der Beiträge identifizierte dieser anschließend richtig. Das sei im Grunde aber nicht mehr als ein Beleg dafür, dass das Konzept funktionieren könnte, sagt Köffer – schließlich sind 30 Prozent falsch eingeordnete Kommentare immer noch eine ganze Menge. Man habe viel zu wenige Trainingsdaten und kaum repräsentative Nutzer gehabt, erklärt Köffer – auf dieser Basis seien 70 Prozent Trefferquote schon recht gut. Deshalb ist der Informatiker überzeugt, dass Computer Hasskommentare in Zukunft recht sicher entdecken können. Dennoch müsse diese Auswahl nach wie vor von Menschen überprüft werden, um sicherzugehen, dass keine Missverständnisse vorliegen und gar das Falsche gelöscht wird. Zudem seien solche Systeme anfällig für Manipulation: Mit den entsprechenden Trainingsdaten könnten sie lernen, bestimmte Meinungen herauszufiltern.

Allerdings tobt im Netz derzeit ein Shitstorm gegen jede Art des Löschens – ob von Falschmeldungen oder Hassreden. Viele Nutzer halten das für Zensur. Hat Köffer selbst keine Angst, an den netzöffentlichen Pranger gestellt zu werden? „Die Gefahr besteht schon, wenn wir etwas bekannter werden“, räumt der Wissenschaftler ein, „und ich bin selbst ein Gegner von Löschung.“ Aber er sehe aktuell keine andere Lösung. Das System, das ihm vorschwebt, sei im Zweifel transparenter und weniger beliebig als die aktuelle Praxis, bei der häufig Praktikanten in Redaktionen entscheiden müssen, welche Kommentare sie löschen und welche noch in Ordnung sind. Die Frage sei nicht, ob so ein System hundert Prozent zuverlässig ist, sagt Köffer, sondern: „Ist es besser als der aktuelle Moderationsprozess?“