l’intelligence artificielle pour essayer de protéger les athlètes du cyberharcèlement

l’intelligence artificielle pour essayer de protéger les athlètes du cyberharcèlement


Le sujet est pris très au sérieux. A trois mois des Jeux olympiques et paralympiques de Paris (du 26 juillet au 8 septembre), les autorités françaises et le Comité international olympique (CIO) veulent assurer « la sécurité mentale » des athlètes en « les protégeant du cyberharcèlement ». Les sportifs sont de plus en plus la cible de moqueries, d’insultes voire de menaces de mort sur Internet ; celles-ci se retrouvent aussi bien dans des commentaires d’articles de presse en ligne ou de posts YouTube que sur les réseaux sociaux X, Instagram, Facebook et TikTok.

« C’est tellement omniprésent et malheureusement normalisé qu’il est difficile de se faire une idée de l’ampleur du problème, assure au Monde Kirsty Burrows, responsable de l’unité pour la pratique du sport en toute sécurité au CIO. Si quelqu’un vous attaque en ligne juste avant votre compétition, vous ne vous sentirez pas en sécurité, même si votre environnement physique est sûr. Nous devons donc essayer de soutenir les athlètes en supprimant ces menaces. »

Ainsi, l’institution va utiliser une intelligence artificielle (IA) – gérée par un prestataire en lien avec les plates-formes – capable de retirer « en temps réel dans plus de trente-cinq langues et dialectes » les messages hostiles des comptes sociaux des quelque 15 000 athlètes olympiques et paralympiques, ainsi que ceux des entraîneurs et des officiels (plus de 2 000 personnes). « Ils pourront tous accéder à ce dispositif s’ils le souhaitent, nous le proposerons de facto », précise Mme Burrows.

C’est la première fois qu’un tel dispositif sera déployé tout au long des Jeux. L’objectif est de supprimer le contenu abusif avant même qu’il ne soit lu. « Nous prévoyons près d’un demi-milliard de messages sur les médias sociaux, souligne Kirsty Burrows. Si vous passez une seconde sur chacun [dans une configuration de modération 100 % humaine], cela vous prendrait seize ans pour tous les traiter. Si nous négligeons la sécurité numérique, nous manquerons à notre devoir. » Dans le cas où un sportif parviendrait à voir le commentaire avant qu’il ne soit supprimé, il y aura, par ailleurs, trois psychologues présents au village des athlètes.

« La modération, c’est un jeu du chat et de la souris »

En parallèle, le ministère des sports indique que les athlètes tricolores et internationaux qui le souhaitent peuvent se tourner vers Bodyguard, société française spécialisée dans la protection des comptes des réseaux sociaux. Déjà utilisée par la Fédération française de tennis et la Ligue de football professionnel, Bodyguard masque grâce à une IA les messages jugés toxiques – ceux-ci n’étant alors visibles que pour leur auteur –, mais aussi les émojis ou autres pictogrammes (en forme de banane pour insulter un sportif noir, par exemple). En effet, pour contourner les algorithmes qui repèrent les messages haineux, les internautes « réinventent le langage », explique Charles Cohen, fondateur et président de Bodyguard. « Ils comprennent comment fonctionnent les filtres et cherchent à les contourner », ajoute-t-il.

Il vous reste 39.51% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.