Telegram rapporte avoir supprim environ 15 millions de groupes illicites de sa plateforme de messagerie, en utilisant l’IA pour s’attaquer au problme. La nouvelle page de modration tmoigne de la volont de Telegram de faire preuve de transparence dans ses activits. Cette annonce intervient alors que l’affaire juridique de son PDG Pavel Durov est encore en cours pour manque de modrations de la plateforme.
Au cours des derniers mois, la plateforme Telegram a t soumise une pression croissante pour dbarrasser son application de tout contenu illgal. Cet examen minutieux a abouti l’arrestation du PDG Pavel Durov en France, o il fait face des accusations lies au matriel nuisible et illgal partag via l’application. L’enqute portait notamment sur le manque de modrateurs sur Telegram et que la police considrait que cette situation permettait des activits criminelles de se poursuivre sans entrave sur l’application de messagerie.
Suite cette arrestation, Telegram a modifi ses termes concernant la modration des discussions prives. Le PDG de Telegram a dclar que lapplication transmettra le numro de tlphone et l’adresse IP d’un utilisateur si les autorits lui en font la demande, ajoutant : « Nous ne laisserons pas de mauvais acteurs mettre en pril l’intgrit de notre plateforme pour prs d’un milliard d’utilisateurs.«
Bien que Pavel Durov soit toujours soumis des restrictions strictes la suite de sa premire comparution devant le tribunal, le service de messagerie instantane affirme avoir fait des progrs considrables dans la rsolution du problme de modration. La plateforme indique avoir supprim plus de 15 millions de groupes et de canaux impliqus dans des fraudes et d’autres activits illgales.
For years, our moderation team removed as many as 1M+ channels and 10M+ users every month. Their hard work stayed behind the scenes until now.
Weve launched a new page showcasing their efforts over the years: https://t.co/KH6W4OR1HM 🚫🧹
— Pavel Durov (@durov) December 12, 2024
Comment Telegram a utilis l’IA pour supprimer des millions de groupes souponns d’tre illicites
Telegram a attribu son succs « l’amlioration des outils de modration de l’IA de pointe« , dcrivant cela comme un pas en avant dans la rduction des contenus illicites. Cette mesure fait suite une campagne de rpression annonce en septembre, au cours de laquelle Pavel Durov a fait part de l’intention de l’entreprise de rpondre aux demandes du gouvernement en faveur d’une rglementation plus stricte en matire de contenu.
La nouvelle page de modration tmoigne de la volont de Telegram de faire preuve de transparence dans ses activits. Dans un message publi sur son canal Telegram, Durov a soulign que l’entreprise tait dtermine lutter contre les activits illgales. Il a rvl que l’quipe de modration a travaill avec diligence dans les coulisses au cours des derniers mois, supprimant « des millions de contenus qui violent ses conditions d’utilisation, notamment l’incitation la violence, le partage de matriel pdopornographique et le commerce de marchandises illgales« .
Durov s’est engag tenir les utilisateurs informs en temps rel des efforts de l’quipe de modration. Selon la nouvelle page de Telegram consacre la modration, la plateforme a considrablement renforc l’application de la loi depuis l’arrestation de Durov, et il est clair que l’quipe n’a pas chm. La suppression des comptes illicites est en cours depuis 2015, mais les chiffres sont stupfiants : plus de 15,4 millions de groupes et de canaux illgaux ont t bloqus rien qu’en 2024.
Cette anne, Telegram a galement intensifi sa lutte contre les contenus pdopornographiques (CSAM), en interdisant 703 809 groupes et chanes. Outre les rapports d’utilisateurs et la modration proactive, Telegram collabore avec des organisations tierces pour lutter contre les CSAM, ce qui a conduit des milliers d’interdictions instantanes.
Parmi les plus grands contributeurs ces efforts figurent l’Internet Watch Foundation, le National Center for Missing and Exploited Children, le Canadian Center for Child Protection et Stitching Offlimits.
Les efforts de modration de Telegram
L’engagement de la plateforme lutter contre la violence et la propagande terroriste n’est pas nouveau. Depuis 2016, Telegram fournit des mises jour quotidiennes sur ces initiatives, ce qui lui a valu la reconnaissance d’Europol. En collaboration avec de nombreuses organisations depuis 2022, Telegram a interdit 100 millions de contenus terroristes, dont 129 099 bloqus pour la seule anne 2024.
Pendant ce temps, l’affaire judiciaire de Durov en France est toujours en cours, et au vue des accusations, l’affaire n’est pas encore proche d’une rsolution. Lors de son arrestation, le Tribunal Judiciaire de Paris a prsent 12 lourds chefs d’accusation contre le PDG de Telegram. En gnral, les accusations portent sur le fait que Pavel Durov naurait pas pris de mesures pour rduire les utilisations criminelles de Telegram. Bien qu’il soit actuellement en libert sous caution de 5 millions d’euros, la plateforme semble donc dtermine poursuivre ses efforts de nettoyage.
Voici les informations partages par Telegram sur ces efforts de modration :
Vue d’ensemble de la modration sur Telegram
Telegram bloque des dizaines de milliers de groupes et de canaux chaque jour et supprime des millions de contenus qui violent ses conditions d’utilisation, notamment l’incitation la violence, le partage de contenus pdopornographiques et le commerce de marchandises illgales. Depuis 2015, la modration combine les signalements utilisateurs avec une surveillance proactive alimente par l’apprentissage automatique. Dbut 2024, cet effort a t renforc par des outils de modration IA de pointe.
Telegram applique une politique de tolrance zro l’gard du contenu pdopornographique (CSAM). Depuis 2018, les images publiques sont automatiquement vrifies par rapport une base de donnes de hachage des CSAM interdits par nos modrateurs au cours de la dernire dcennie. En 2024, nous avons largi cette base de donnes avec des hachages provenant d’organisations comme Internet Watch Foundation. Telegram publie des rapports de transparence quotidiens sur la suppression des contenus CSAM.
En plus de ses mesures proactives et des signalements des utilisateurs, Telegram traite des milliers de signalements sur le CSAM provenant d’organisations tierces internationales via des adresses email automatises.
Les appels la violence et la propagande terroriste n’ont pas leur place sur Telegram. Depuis 2016, Telegram publie des rapports transparents quotidiennement sur la suppression des contenus terroristes. Les efforts de Telegram en matire de lutte contre le terrorisme ont t reconnus par Europol. Depuis 2022, Telegram a considrablement intensifi ses efforts en partenariat avec des organisations telles que l’ETIDAL, le Centre mondial de lutte contre l’idologie extrmiste. Rien qu’en collaborant avec l’ETIDAL, les modrateurs de Telegram ont supprim plus de 100 millions de contenus terroristes.
Source : Telegram
Et vous ?
Pensez-vous que ces rapports de modration de Telegram sont crdibles ou pertinents ?
Quel est votre avis sur la situation ?
Voir aussi :