Kontrollrat von Meta untersucht Umgang mit Fremdenfeindlichkeit auf Plattformen
Der Kontrollrat des Meta-Konzerns nimmt den Umgang mit fremdenfeindlichen Einträgen auf den Plattformen Facebook und Instagram unter die Lupe. "Die hohe Anzahl von Beschwerden, die wir zu einwanderungsbezogenen Inhalten aus der gesamten EU erhalten, zeigt uns, dass es ernsthafte Fragen dazu gibt, wie das Unternehmen mit diesbezüglichen Themen umgeht", erklärte die Ko-Vorsitzende des Gremiums, Helle Thorning-Schmidt, am Donnerstag.
Das sogenannte Oversight Board will demnach zwei repräsentative Vorfälle näher untersuchen. Bei einem geht es um ein offenbar KI-generiertes Bild, das in einer deutschen Facebookgruppe gepostet wurde. Es zeigt eine blonde Frau mit blauen Augen vor einem Stoppschild und einer Deutschlandflagge - verbunden mit der Forderung nach einem Ende der Einwanderung von "Fachkräften für Gruppenvergewaltigung" durch grüne Politik. Das Bild wurde ein Mal gemeldet und Meta habe sich nach einer Prüfung entschieden, den Eintrag nicht zu löschen.
Beim zweiten untersuchten Fall geht es um ein Posting auf der offiziellen Seite der polnischen rechtsextremen Partei Konfederacja, das offenbar die Zustimmung der polnischen Regierung zum Migrations- und Aylspakt der EU kritisieren soll. Zu sehen ist Ministerpräsident Donald Tusk zusammen mit einem Menschen mit dunkler Hautfarbe, versehen mit dem Text: "Ich habe diese Schwarzen aus dem Migrationspakt mitgebracht." Das Bild wurde nach Angaben des Kontrollgremiums 15 Mal wegen Hassrede gemeldet, Meta ließ es jedoch ebenfalls nach einer Prüfung online.
Die beiden Bilder seien ausgewählt worden, "um die große Anzahl von Einsprüchen - insbesondere aus Europa - gegen Inhalte zu behandeln, die Einstellungen zu Einwanderungsfragen auf eine Weise teilen, die für Menschen mit Migrationshintergrund schädlich sein könnten", führte das Oversight Board aus. Besonders überprüft werden soll demnach auch die Verwendung zweideutiger und kodierter Sprache in mutmaßlichen Hasspostings.
In beiden Fällen hätten Meta-Experten die Einträge erneut geprüft, nachdem das Oversight Board sie ausgewählt hatte, und jeweils die erste Entscheidung noch einmal bekräftigt, erklärte das Gremium zudem. Es stelle sich nun die Frage, ob Meta richtig handle, wenn es Betroffene nur vor den "schwerwiegendsten Angriffen" schütze. Thorning-Schmidt erklärte, es sei "entscheidend", das richtige Gleichgewicht zwischen freier Meinungsäußerung und dem Schutz gefährdeter Gruppen zu finden.
In den kommenden Wochen werde nun zunächst die Öffentlichkeit konsultiert, erklärte das Oversight Board. Die anschließende Entscheidung des Gremiums, das von einer von Meta gegründeten Stiftung finanziert wird, ist nicht bindend. Der Konzern hat jedoch zugesagt, sich an Beschlüsse des Boards halten zu wollen.
P.Renard--JdB