Hassrede, Gewalt & Suizid: Facebook veröffentlicht interne Richtlinien und führt Widerspruchsrecht ein

Facebook versucht sich weiter in Transparenz: Den Nutzern wird nun die Möglichkeit geboten, der Löschung ihrer Beiträge durch das soziale Netzwerk zu widersprechen. In einem Blogpost gewährt das soziale Netzwerk zudem detaillierte Einblicke in die internen Richtlinien und wie diese auf Inhalte angewendet werden.
Zuckerberg arbeitet nach den Krisen der jüngeren Vergangenheit an der Transparenz von Facebook

Facebook-Nutzer haben fortan die Möglichkeit, gegen die Löschung ihrer Beiträge Widerspruch einzulegen. Seit Dienstag, so verkündet die Facebook-Managerin Monika Bickert in einem Blogpost, könnten die Nutzer der Löschung widersprechen, „die aufgrund von Nacktheit/sexuellen Handlungen, Hassrede oder expliziten Gewaltdarstellungen entfernt wurden.“ Außerdem arbeite das Unternehmen bis Ende des Jahres daran, „weitere Arten von Verstößen“ zu implementieren. Bickert schreibt: „Außerdem sollen Einsprüche perspektivisch nicht mehr nur für entfernte Inhalte möglich sein, sondern auch für jene, die trotz Meldung auf Facebook verbleiben. Wir sind davon überzeugt, dass die Gewährung eines Mitspracherechts in diesem Prozess ein weiterer wichtiger Aspekt ist, um ein faires System zu etablieren.“

Zum Prozedere heißt es, dass Nutzer, deren Beiträge entfernt wurden, darüber informiert werden, damit sie eine zusätzliche Überprüfung anfordern können. Dies führe künftig zu einer Kontrolle durch das Facebook-Team innerhalb von 24 Stunden.

Detaillierte Erklärung der Gemeinschaftsstandards

In einem weiteren Schritt veröffentlichte der Konzern die internen Richtlinien der Gemeinschaftsstandards (hier nachzulesen), die Mitarbeiter bei der Überprüfung von Inhalten auf der Plattform anwenden. Diese besteht aus sechs Abschnitten wie „Gewalt und kriminelles Verhalten“, „Anstößiger Inhalt“ und „Achtung vor geistigem Eigentum“. In den Richtlinien wird detailliert aufgelistet, wie beispielsweise Gewalt, Terror, Menschenhandel oder Mord definiert sind. Ein Beispiel: „Ein Mord ist für uns ein Massenmord, wenn dabei vier oder mehr Personen sterben“, heißt es da unter anderem. „Eine Person, die zwei oder mehr Morde zu verschiedenen Zeitpunkten oder an verschiedenen Orten begangen hat, ist für uns ein Serienmörder.“

Außerdem bekommen Leser Einblicke in die Handhabung von Hasskommentaren, eines der drängendsten Probleme, mit dem das sozialen Netzwerk zu kämpfen hat. Die Verantwortlichen von Facebook definieren sie „als direkten Angriffe auf Personen aufgrund so genannter geschützter Merkmale: Rasse, ethnische Zugehörigkeit, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Geschlecht oder Geschlechtsidentität, Behinderung oder Krankheit. Außerdem bieten wir einen gewissen Schutz für den Einwanderungsstatus. Wir definieren Angriffe als gewalttätige oder entmenschlichende Sprache, Minderwertigkeitsaussagen oder Aufrufe, Personen auszuschließen oder zu isolieren.“

Immer wieder Kritik an der Löschpraxis

Warum Beiträge öffentlich zugänglich bleiben, obwohl sie Hasskommentare anderer Personen erhalten, erläutern die Richtlinien ebenfalls. „So kann es in einigen Fällen vorkommen, dass Worte oder Begriffe, die gegen unsere Standards verstoßen, von Personen selbstreferentiell oder als Ausdruck von Unterstützung verwendet werden.“ Die Nutzer müssten in solchen Fällen jedoch ihr Ziel eindeutig vermitteln, heißt es weiter. Auch lasse man humoristische und soziale Kommentare zu. Zum Thema Hassrede habe Facebook mit Oxford-Professor und Historiker Timothy Garton Ash zusammengearbeitet.

Aus den Gemeinschaftsstandards geht ebenfalls hervor, dass Facebook Livestreams, in denen Menschen sich selbst verletzen Schaden, nach Absprache mit Experten nicht entfernt werden, „solange geliebte Menschen und öffentliche Stellen Hilfe oder Ressourcen anbieten können.“ Nutzer könnten Informationen über Selbstverletzung und Suizid teilen, heißt es in den Gemeinschaftsstandards. Dies könne für das Thema sensibilisieren und Diskussionen anregen.

In der Vergangenheit hatte es immer wieder Kritik an der Löschpraxis es sozialen Netzwerks gegeben. Erst kürzlich hatte MEEDIA über einen Fall des Cartoonisten Martin Perscheid berichtet. Dieser machte sich in einem Cartoon über Facebooks prüde Regeln lustig und wurde daraufhin selbst zensiert. Auch andere Entscheidungen, als es beispielsweise um die Nacktheit in Kunstwerken ging, wurden kritisiert. Derartige Löschentscheidungen hat das Unternehmen erst nach öffentlicher Kritik rückgängig gemacht.

Künstliche Intelligenz und 7.500 Mitarbeiter im Einsatz

Facebook-Managerin Bickert erklärt, dass man sich aus zwei Gründen für die Veröffentlichung der internen Richtlinien entschieden habe. „Zum einen werden diese Richtlinien den Menschen dabei helfen, zu verstehen, warum wir bei Grenzfällen wie entscheiden. Zum anderen werden es diese Informationen allen, auch Experten aus den verschiedenen Bereichen, leichter machen, uns Feedback zu geben.“ Das „Community Operations Team“ bestehe derzeit aus 7.500 Personen, „40 Prozent mehr als vor einem Jahr“, erläutert Bickert. Unterstützt werden die Mitarbeiter von künstlicher Intelligenz und den Meldungen der Nutzer.

Erst Anfang der Woche hatte Facebook bekannt gegeben, dass im ersten Quartal 2018 hunderttausende Beiträge mit Bezug zu den Terrororganisationen Islamischer Staat und Al-Kaida gelöscht worden seien. Insgesamt hätten die Mitarbeiter 1,9 Millionen Beiträge von der Plattform genommen oder mit einem Warnhinweise versehen. In der Mitteilung hieß es, dass 99 Prozent der Beiträge von automatischer Software und eigenen Prüfern entdeckt worden seien, nicht von Nutzern.

Dass sich Facebook-CEO Mark Zuckerberg und sein Team derzeit in einer Transparenzoffensive befinden, verdeutlicht zudem die Ankündigung, ab Mai sogenannte „Facebook Foren: Gemeinschaftsstandards“ zu starten. Dabei handele es sich um öffentliche Veranstaltungen in Deutschland, Frankreich, Großbritannien, Indien, Singapur, den USA und anderen Ländern. Weitere Details werden im Blogpost nicht genannt.

(tb)