Dans un événement récent, Instagram, sous la direction de sa maison mère Meta, a subi un afflux de contenus violents et explicites dans ses Reels, suscitant une vague de réactions de la part des utilisateurs. Mark Zuckerberg a reconnu l’incident, affirmant un ajustement dans la politique de modération.
Un Déferlement de Contenu Violent et Graphique sur Instagram : La Réaction de Meta
Les utilisateurs d’Instagram ont été confrontés à une vague de contenus violents et explicites dans leurs Reels avant que l’entreprise ne réagisse aux plaintes. La maison mère, Meta, a déclaré avoir résolu le problème, attribuant cela à une "erreur" plutôt qu’à sa nouvelle politique de modération plus souple.
L’Incident Selon CNBC
CNBC a rapporté avoir fait l’expérience directe du problème. Mercredi soir, aux États-Unis, plusieurs publications sur les Reels Instagram montraient des images choquantes : des corps sans vie, des blessures graphiques et des agressions violentes. Ces publications avaient tout de même l’étiquette "Contenu Sensible".
De nombreux utilisateurs d’Instagram se sont tournés vers diverses plateformes de médias sociaux pour exprimer leur inquiétude face à cette récente montée de recommandations de contenus violents et "non appropriés pour le travail". Certains ont affirmé avoir vu ces contenus malgré l’activation du contrôle de contenu sensible à son réglage de modération le plus élevé.
Excuses et Explications de Meta
Meta a présenté ses excuses pour l’incident. Un porte-parole de Meta a déclaré dans un communiqué partagé avec CNBC : "Nous avons corrigé une erreur qui a fait que certains utilisateurs ont vu du contenu dans leur fil de Reels Instagram qui n’aurait pas dû être recommandé. Nous nous excusons pour cette erreur."
La Stratégie de Modération de Contenu de Meta
Le mois dernier, le PDG de Meta, Mark Zuckerberg, a annoncé que l’entreprise réduirait les vérifications automatiques du contenu. Désormais, elle n’agira souvent qu’après avoir reçu des plaintes des utilisateurs. Il a précisé : "Jusqu’à présent, nous utilisions des systèmes automatisés pour rechercher toutes les violations de nos politiques, mais cela a entraîné trop d’erreurs et trop de contenus censurés à tort."
Mark Zuckerberg a ajouté que les systèmes continueront de se concentrer sur les violations graves et légales, comme le terrorisme, l’exploitation sexuelle des enfants, la drogue, la fraude et les arnaques. Pour les violations de moindre gravité, Meta s’appuiera dorénavant sur les signalements avant de prendre toute mesure.
"Nous rétrogradons également trop de contenus que nos systèmes prédisent comme potentiellement violant nos standards. Nous sommes en train d’éliminer la plupart de ces rétrogradations et d’exiger une plus grande certitude que le contenu enfreint réellement les normes. Nous ajusterons nos systèmes pour demander un degré de certitude beaucoup plus élevé avant qu’un contenu soit supprimé."
Cette approche vise à limiter les erreurs de modération, tout en garantissant que le contenu vraiment nuisible soit traité avec la priorité nécessaire.
Image : Meta/
Taux de Change utilisé : 1 EUR = 1.13 USD.
Mon avis :
L’incident récent sur Instagram, où des utilisateurs ont vu un afflux de contenus violents et explicites dans leurs Reels, souligne les défis posés par la modération automatisée allégée par Meta. Bien que Meta ait rapidement corrigé cette « erreur », cette situation illustre les risques potentiels de s’appuyer principalement sur les signalements d’utilisateurs pour modérer le contenu en ligne.
Les questions fréquentes :
Qu’est-ce qui a causé l’afflux de contenus violents et explicites sur Instagram ?
Un problème survenu à cause d’une erreur dans le système de recommandations d’Instagram a entraîné l’apparition de nombreux contenus violents et explicites dans les Reels des utilisateurs. Meta, la société mère, a déclaré que ce problème était dû à une "erreur" et non à un changement de politique de modération plus assouplie.
Comment Meta a-t-il réagi aux plaintes concernant le contenu inapproprié ?
Meta a reconnu le problème et a présenté ses excuses, indiquant qu’ils avaient corrigé l’erreur qui avait permis à ces contenus d’apparaître dans le flux des utilisateurs. La déclaration de l’entreprise suggère qu’ils prennent ce type d’incidents au sérieux et qu’ils s’efforcent de résoudre rapidement les problèmes lorsqu’ils se produisent.
Quels changements Meta a-t-il apportés à ses systèmes de vérification de contenu ?
Meta a décidé de réduire l’utilisation de systèmes automatiques pour vérifier les violations de leurs politiques. Ceci est dû au fait que ces systèmes entraînaient trop d’erreurs et de censures injustifiées. À l’avenir, Meta continuera d’utiliser ces systèmes pour les violations graves comme celles impliquant le terrorisme et l’exploitation des enfants, mais s’appuiera davantage sur les signalements d’utilisateurs pour d’autres types de violations.
Que dit Mark Zuckerberg au sujet des erreurs de modération de contenu ?
Mark Zuckerberg a expliqué que l’entreprise était en train de s’ajuster pour réduire le nombre de démotions injustifiées de contenu et qu’ils exigeraient un niveau de certitude plus élevé avant de supprimer un contenu. Cela vise à éviter les erreurs de modération tout en continuant à réglementer efficacement les contenus indésirables.