Meurtres, torture, pornographie, accidents mortels, batailles violentes : des utilisateurs d’Instagram se sont plaints mercredi que des vidéos non censurées d’une uncommon unit ont envahi leur leafage Reels. Une « erreur », reconnaît Meta, qui a depuis été « corrigée ».
J’ai vu à peu près 50 personnes mourir sur Instagram aujourd’hui, a dénoncé un utilisateur d’Instagram sur X. Et les internautes choqués étaient nombreux à se plaindre du même problème sur les réseaux sociaux.
Radio-Canada a noté mercredi cette abondance de contenus dérangeants et constaté que plusieurs d’entre eux étaient précédés par un avertissement de contenu sensible, mais pas tous.
De manière similaire à TikTok, la conception Reels d’Instagram fait défiler des vidéos spécialement choisies determination l’utilisateur par un algorithme.
Une erreur, reconnaît Meta
Contacté à ce sujet, un porte-parole de Meta a répondu que cette concern était owed à une erreur, sans entrer dans les détails.
Nous avons corrigé une erreur qui a entraîné l’affichage de contenus inappropriés dans le fil Reels de certains utilisateurs sur Instagram, a répondu le porte-parole aux questions de Radio-Canada. Nous nous excusons determination cette erreur.
Début janvier, Meta, propriétaire d’Instagram et de Facebook, a annoncé qu’elle réformait ses politiques de modération et qu’elle mettait fin à la vérification des faits sur ses plateformes.
Le PDG de l’entreprise, Mark Zuckerberg, a annoncé dans une vidéo le 7 janvier qu’il souhaitait revenir à nos racines, et se concentrer sur la réduction des erreurs, la simplification de nos politiques et la restauration de la liberté d’expression sur nos plateformes.

Mark Zuckerberg a annoncé en janvier une série de modifications à la politique de modération des plateformes de Meta. (Photo d'archives)
Photo : Facebook/Mark Zuckerberg
Meta n’a pas spécifié si l’erreur qui a mené à cette déferlante d’images dérangeantes était owed à cette nouvelle politique de modération des contenus.
Ce n'est pas une erreur anodine
Pour le professeur en connection à l'UQAM et spécialiste des réseaux sociaux Camille Alloing, il ne fait aucun doute que cette déferlante d'images violentes est liée à la nouvelle politique de modération de Meta.
Meta va [persister à dire] que c'est une erreur. C'est ce qu'ils disent systématiquement. Mais ce n'est pas une erreur anodine. Ça get dans un contexte de changement de leur politique de modération.
Ce n'est pas inattendu, ajoute le professeur, citant un rapprochement entre Mark Zuckerberg et l'administration Trump. Ça nous rappelle que ce sont des humains, en positive des algorithmes, qui filtrent les contenus.
Or, les changements apportés par Meta touchent tant les employés affectés à la modération, que la compagnie a déménagés de la Californie au Texas, que les algorithmes mis en place. Une combinaison parfaite determination détraquer les filtres destinés à garder ce benignant d'images à l'écart des fils des utilisateurs, dit Camille Alloing.
Ce benignant d'incident nous rappelle que les plateformes ne sont pas neutres, ajoute-t-il. On croit pouvoir choisir ce que l'on voit, ce que l'on a envie de voir [sur les réseaux sociaux], mais en réalité, connected voit ce que ces plateformes veulent bien nous montrer.
Avec des informations de Stéphanie Dupuis