Des vidéos ultraviolentes ont été diffusées jeudi 27 février « par erreur » auprès d’utilisateurs d’Instagram dans l’onglet Reels, où les contenus sont automatiquement choisis par un algorithme.
L’ampleur de ce problème reste à déterminer mais il semble avoir surtout concerné des utilisateurs situés aux Etats-Unis.
Selon le The Wall Street Journal, dont le compte d’un de ses journalistes a été concerné par le dysfonctionnement, cela incluait des vidéos de personnes renversées par des véhicules ou abattues par arme à feu. Un journaliste du New York Times a affirmé avoir visionné sur son fil une vidéo d’une personne abattue d’une balle dans la tête. Un journaliste du média spécialisé 404 Media a pu accéder au compte d’un utilisateur concerné et a, en quelques minutes, visionné une vidéo d’un homme piétiné par un éléphant, d’une pile de cadavres ou encore un homme immolé, entre autres atrocités.
« Nous présentons nos excuses »
« Nous avons corrigé une erreur qui a conduit certains utilisateurs à voir du contenu sur le fil Reels qui n’aurait pas dû être recommandé. Nous présentons nos excuses pour cette erreur », a réagi un porte-parole d’Instagram dans un communiqué diffusé auprès de plusieurs médias américains. Ce dernier n’a pas précisé l’ampleur du problème mais assuré que ce dysfonctionnement n’avait rien à voir avec la décision récente de Meta de modifier profondément la manière dont elle modère certains contenus.
Si Meta a admis une erreur de recommandation, l’entreprise ne s’est pas exprimée sur le fait d’héberger sur ses réseaux de telles vidéos. Et pour cause : une partie d’entre elles semblent conformes aux règles élaborées par le réseau social, lesquelles n’interdisent ce genre de vidéos ultraviolentes que dans certains cas précis.
L’espace des contributions est réservé aux abonnés.
Abonnez-vous pour accéder à cet espace d’échange et contribuer à la discussion.
Contribuer
Réutiliser ce contenu