(JTA) – En janvier, un utilisateur turc d’Instagram a publié une partie d’une interview de Ye, l’artiste anciennement connu sous le nom de Kanye West, faisant des déclarations faisant l’éloge d’Hitler et niant également l’Holocauste – et a rapidement fait supprimer la publication de la plateforme de médias sociaux.
Mais cela n’a pas été une réussite pour les efforts de Meta visant à empêcher les discours de haine d’Instagram, a statué le conseil de surveillance de l’entreprise. En effet, l’interview de Ye était accompagnée d’une vidéo de réaction d’un journaliste condamnant ses commentaires et partageant un lien familial avec les victimes de l’Holocauste.
Le système de détection des discours haineux de Meta n’a pas réussi à comprendre que l’utilisateur critiquait Ye et ne le soutenait pas. La société a donc supprimé le message, accusant l’utilisateur de violer ses politiques en matière de discours de haine.
Désormais, le Conseil de surveillance, un organisme indépendant chargé d’examiner les décisions de modération de contenu de Meta, affirme que le propriétaire de Facebook et d’Instagram devrait intensifier ses efforts pour distinguer les publications qui propagent la haine de celles qui visent à la combattre. Trop souvent, le conseil d’administration a expliqué dans un résumé de sa décision : les modérateurs humains et automatisés signalent les publications destinées à éduquer contre la haine et l’antisémitisme.
« De telles erreurs peuvent étouffer les discours destinés à répondre aux discours de haine, notamment Négation de l’Holocauste, ou condamnation des déclarations faisant l’éloge d’individus dangereux tels que Hitler », indique le résumé. « La protection contre le discours est essentielle pour faire progresser la liberté d’expression et constitue un outil de lutte contre les contenus préjudiciables tels que la désinformation et les discours de haine. »
Le Conseil de surveillance de Meta a déclaré que Meta n’avait pas tenu compte du contexte dans lequel l’utilisateur avait présenté les commentaires de Ye et avait supprimé le message par erreur en vertu de politiques interdisant la négation de l’Holocauste et l’éloge de personnalités telles qu’Hitler. L’utilisateur a fait appel de la suppression, en vain, mais lorsque le Conseil de surveillance a porté l’affaire à l’attention de Meta, la société a reconnu l’erreur et a rétabli le message.
Le Conseil de surveillance a décidé d’examiner l’affaire malgré la correction car il considère que le problème sous-jacent est important, a-t-il déclaré dans un résumé de son raisonnement.
Le conseil a réitéré les recommandations faites dans des cas précédents selon lesquelles Meta vérifie la fréquence à laquelle ses modérateurs de contenu et ses algorithmes suppriment de manière incorrecte les publications destinées à informer ou à contrer les discours de haine. La censure accidentelle des contenus éducatifs tourmente l’entreprise depuis des années, par exemple, lorsque Meta a interdit la négation de l’Holocauste en 2020.
Ce n’est pas la première fois que le Conseil de surveillance, créé en 2020 au milieu d’allégations selon lesquelles les plateformes de Meta contribuent à la propagation de la désinformation et de l’extrémisme, se saisit d’une affaire d’antisémitisme. Sur près de 50 cas qui sont passés par son rôle, au moins quatre ont abordé le négationnisme ou le contenu lié au nazisme.
Le cas le plus récent s’est produit le mois dernier lorsque le comité a annoncé qu’il examinerait la façon dont Meta avait traité un message déformant l’Holocauste. Dans des cas antérieurs, le conseil annulé la suppression d’un message par Meta comportant une citation attribuée à tort au propagandiste nazi Joseph Goebbels et un article comparant l’armée russe aux nazis.