Mord auf Facebook: Dieser US-Amerikaner hat seine Tat gepostet. Foto: AFP

Vergewaltigungen und Babymord vor laufender Kamera: Facebook macht derzeit Negativschlagzeilen. Generell will das Netzwerk Gewaltdarstellungen aber nicht löschen. Was ist erlaubt, was ist technisch möglich?

Stuttgart - Die beiden Mädchen, die im einen Moment noch völlig unbeschwert mit ihren kurzen Röcken in einer ihm unbekannten Stadt unterwegs sind und im nächsten Moment erschossen werden, wie auch die afrikanische Frau, die vor laufender Kamera erschlagen wird: Chan-jo Jun bekommt diese Bilder nicht mehr aus dem Kopf. Der Würzburger Rechtsanwalt für IT-Recht hat sie auf Facebook angeklickt. Was soll schon sein, ein Video über zwei Mädchen? Jetzt verfolgt ihn das viele Blut in seine Träume, und er fragt sich: Darf das sein?

Die Antwort von Facebook lautet: Ja, das darf sein. Jun hat die Bilder gemeldet, das geht ganz einfach: nur zwei Klicks. Direkt auf dem Bild erscheint der Button „Optionen“, darunter gibt es die Auswahl „Foto melden“, dann öffnet sich das Fenster „Was ist los?“, und der Nutzer kann beispielsweise anklicken „Es sollte meiner Meinung nach nicht auf Facebook sein“. Nur Facebook hat oft eine andere Meinung. Die Antwort an Jun lautete: „Diese Videos verstoßen nicht gegen unsere Gemeinschaftsrichtlinien.“ Sie werden nicht gelöscht.

Diese beiden Fälle, die der Würzburger Rechtsanwalt für IT-Recht am vergangenen Mittwoch gemeldet hat, reihen sich ein in eine ganze Reihe ähnlicher Ereignisse in jüngster Zeit. So hat an Ostern ein Amerikaner einen Mord angekündigt und einen Rentner erschossen, ein Thailänder tötete sein Baby, ein Mädchen wurde vergewaltigt – alles landete live auf Facebook und wurde teilweise erst Tage später gelöscht. Und manche Morde bleiben auch nach offizieller Prüfung online.

Was darf Facebook?

Eigentlich ist die Rechtslage relativ eindeutig: In Deutschland sind zwar Gewaltdarstellungen an sich nicht verboten, wohl aber, wenn sie Gewalt verherrlichen oder wenn sie die Menschenwürde verletzen. „Das ist der Unterschied zu den Amerikanern“, sagt Jun, „bei uns ist die Menschenwürde der Maßstab.“ Ein solches öffentlich verbreitetes Video könnte zudem die Persönlichkeitsrechte des Betroffenen verletzen – das wird aber nur auf Antrag von Betroffenen oder deren Angehörigen verfolgt.

Verbreitet ein deutscher Nutzer entsprechende Nachrichten, ist der Tatort auf deutschem Boden, damit gilt deutsches Recht. Facebook ist in diesem Fall Mittäter. Auch für diese gilt deutsches Recht, und Facebook-Manager können dafür in Deutschland belangt werden. „Mark Zuckerberg könnte man in Deutschland vorladen, aber es hat noch keiner versucht“, sagt Jun. Deutsche Gerichte geben offenbar auf, noch bevor sie es ernsthaft versuchen.

Wieso handelt Facebook oft nicht?

Der Konzern fühlt sich deutschem Recht nur bedingt verpflichtet. Immer wieder wird argumentiert, das Internet sei nun mal eine weltweite Erscheinung, die sich nicht lokal regulieren ließe. Aber das ist Quatsch. Natürlich ist es möglich, bestimmte Inhalte in bestimmten Ländern nicht zu zeigen. Jeder kennt das von Youtube, wo manche Videos hierzulande nicht verfügbar sind. Facebook bezieht sich bei solchen Entscheidungen aber nicht auf Recht und Gesetz, sondern auf seine Gemeinschaftsstandards. Darin steht, dass Gewaltdarstellungen nur dann gelöscht werden, „wenn sie zum sadistischen Vergnügen oder zum Verehren und Verherrlichen von Gewalt geteilt werden“.

Gibt es ökonomische Gründe?

Eine gewisse Doppelzüngigkeit lässt sich deutlich beobachten: Einerseits beruft sich Facebook darauf, dass es nicht möglich sei, hochgeladene Videos in Echtzeit zu kontrollieren. Andererseits tut es der Konzern aber doch: Als Jun kürzlich einen Clip von einem Musikfestival posten wollte, erschien noch während des Hochladens der Hinweis, dass dieses Video wegen der Musik im Hintergrund das Urheberrecht verletzen könnte und deshalb nicht hochgeladen werde. „Urheberrechtsverletzungen sind teuer, da ist Facebook hinterher“, sagt Jun. Offenbar ist es möglich, das automatisch zu erkennen und zu stoppen. Gewaltvideos hingehen kosten den Konzern nichts. Auch bei Hassreden und Falschmeldungen wird Facebook wohl auch aus ökonomischen Gründen selten aktiv – schließlich werden entsprechende reißerische Posts häufig geteilt: „Das sind Facebooks aktivste Nutzer, die wollen sie nicht verlieren“, sagt der Rechtsanwalt.

Was ist technisch möglich?

Die automatische Bilderkennung ist noch nicht perfekt, aber offenbar gut genug, um beispielsweise Nacktheit recht zielsicher aufzustöbern. Das tut Facebook bis zum Exzess – und trifft damit bisweilen daneben, wie das Beispiel des „Napalm-Mädchens“ im Herbst zeigte: Auf dem historischen Bild flieht ein nacktes Mädchen im Vietnamkrieg vor einem Napalmangriff. Erst nach Protesten machte Facebook die Löschung rückgängig.

Gewalt ist zwar sicher schwieriger zu erkennen als etwa nackte Brüste, denkbar wäre aber eine Software, die im Verdachtsfall Alarm schlägt und einen Film so lange sperrt, bis ein Mensch den Inhalt geprüft hat. Da solche Maßnahmen Geld kosten und Facebook rechtlich nicht verpflichtet ist, Inhalte vorausschauend zu prüfen, hat der Konzern daran kein Interesse.

Im Prozess wegen des sogenannten Merkel-Selfies, in dem Jun den Flüchtling Anas Modamani vertrat, behauptete Facebook, es sei nicht möglich, die entsprechenden Hetzbilder zu löschen. Die Richter, die immer wieder auf ihre technische Ahnungslosigkeit verwiesen, ließen das dem Konzern durchgehen – obwohl es Unfug ist: Es ist technisch kein Problem, ein bereits bekanntes Bild zu finden und zu löschen. Aber das Bild, auf dem behauptet wird, der Flüchtling habe einen Obdachlosen umgebracht, ist bis heute auf Facebook zu finden.

Politik und Gesellschaft

Wie reagiert die Politik?

Justizminister Heiko Maas hat nun das sogenannte Netzwerkdurchsetzungsgesetz auf den Weg gebracht. Darin geht es im Wesentlichen um Bußgelder: Der Betreiber eines sozialen Netzwerks muss – wenn das Gesetz beschlossen wird – rechtswidrige Inhalte innerhalb einer Frist löschen. Während einige Verbände die Meinungsfreiheit in Gefahr sehen, findet Jun das den richtigen Weg. Auch wegen des sogenannten Vollzugsdefizits – der praktischen Unmöglichkeit, deutsches Recht gegenüber Facebook durchzusetzen. „Medienanstalten haben immer wieder gesagt, dass sie gegen Facebook nicht ankommen, weil es nicht greifbar ist.“ Das neue Gesetz sieht auch eine verpflichtende Adresse im Inland vor.

Wer ist ethisch verantwortlich?

Diese Videos werden nicht von Facebook, sondern von seinen Nutzern hochgeladen. Jeder kann das machen, Facebook schließt zunächst einmal niemanden aus. Und wie es so ist an Orten, an denen sich ein gesellschaftlicher Querschnitt sammelt: Es sind immer auch Kriminelle darunter. Allerdings erreichen solche Videos – ähnlich wie reißerische Falschmeldungen – eine hohe Verbreitung. Es liegt also an jedem Einzelnen, Posts mit Gewalt oder Lügen nicht weiterzuverbreiten.

Eingriff oder Meinungsfreiheit?

Natürlich sollte nichts gezeigt werden dürfen, das eindeutig strafbar ist. Aber es gibt Zwischenformen. Wenn hier ein zu starkes Eingreifen gefordert wird, so die Sorge vieler Netzaktivisten, könnte die Meinungsfreiheit eingeschränkt werden. Facebook-Chef Mark Zuckerberg betont immer wieder, sein soziales Netzwerk sei nur eine Plattform und kein Medium, keine Redaktion und müsse sich von daher auch weder an die ethischen journalistischen Selbstverpflichtungen halten noch unterliege es den rechtlichen Standards eines Mediums.

Allerdings kuratiert Facebook seine Inhalte eben doch. Sie werden nicht in der Reihenfolge des Eingangs in die Newsfeeds der Nutzer gestellt, sondern von Algorithmen bewertet und sortiert. Das kann man durchaus als redaktionelles Eingreifen bewerten, so dass Facebook in Erwägung ziehen muss, dann auch journalistische Verantwortung zu übernehmen.