L’algorithme de notation utilisé par la CAF est-il discriminatoire ? Alors que le recours devant le Conseil d’Etat formé par 15 organisations a été rejoint par 10 autres associations ou syndicats, la fronde peut désormais s’appuyer sur un avis du Défenseur des droits. L’autorité indépendante estime que l’outil utilisé par la CAF « paraît produire un surcontrôle des populations les plus précaires ».
Les algorithmes utilisés par la CAF pour détecter des fraudes surveillent-ils de manière disproportionnée les plus vulnérables ? La question est posée, depuis octobre dernier, au Conseil d’État, la plus haute juridiction administrative. L’année dernière, quinze associations, dont la Quadrature du Net, Amnesty International France, la Ligue des droits de l’Homme ou encore le Syndicat des avocats de France, avaient attaqué devant la plus haute juridiction administrative un algorithme utilisé par la CAF (aujourd’hui CNAF, la Caisse nationale des allocations familiales). L’administration chargée des allocations familiales s’appuie sur cet outil pour décider quel allocataire contrôler, dans le cadre de sa lutte contre la fraude sociale.
À lire aussi : Ces associations veulent faire supprimer l’algorithme de notation de la CAF… et les autres
La bronca a, depuis, été rejointe par dix autres associations, collectifs et syndicats, a annoncé la Quadrature du Net sur son site Web, mardi 20 janvier. Parmi eux se trouvent les Féministes contre le cyberharcèlement, le Mouvement des mères isolées, European Digital Rights (EDRi), AlgorithmWatch, ou encore la CGT et Solidaires. Ce sont désormais 25 organisations françaises et européennes qui demandent l’interdiction de l’algorithme.
Un allié de taille : le Défenseur des droits
Dans leur bronca contre cet outil accusé de sur-contrôler les plus précaires, les associations, syndicats et collectifs ont trouvé un allié de taille : le Défenseur des droits, nous apprend mardi 20 janvier Mediapart. Cette autorité administrative indépendante, chargée de défendre nos droits et libertés dans plusieurs secteurs, a été sollicitée pendant la procédure.
Dans un avis d’octobre 2025 qui n’a pas été publié, mais qui a été consulté par nos confrères, le Défenseur des droits va dans le sens des associations. Pour ce dernier, cité par le média d’investigation, l’algorithme « paraît produire un surcontrôle des populations les plus précaires et donc constituer une différence de traitement fondée sur la particulière vulnérabilité économique. Une présomption de discrimination indirecte semble établie ».
Dans un rapport de 2024, la même autorité s’inquiétait déjà « des risques qu’induit “l’algorithmisation” des services publics pour les droits des usagers des services publics ». Pour rappel, le sujet est sur la table depuis fin 2022. Cette année-là, une enquête de décembre 2022 de la cellule Investigation de Radio France-Franceinfo révélait que la CNAF notait bien ses allocataires en fonction de leur risque de fraude.
À lire aussi : Fraude aux allocations familiales : la CAF utilise bien des algorithmes qui ciblent les plus précaires, selon cette association
En novembre dernier, la Quadrature du Net avait eu accès à deux versions antérieures du code source de la Caisse. L’association estimait que l’outil ciblait bien les plus précaires. Plus un allocataire percevait de faibles revenus (comme le RSA), plus il risquait de basculer dans la précarité (après une perte d’emploi, ou un changement de situation), et plus ce dernier était susceptible d’être contrôlé, nous expliquait l’association de défense des droits numériques.
À lire aussi : L’usage de l’IA par France Travail ? Globalement positif mais « perfectible », selon la Cour des comptes
Pour les associations, il s’agit d’une « discrimination opérée par cet algorithme envers des allocataires déjà fragilisés dans leurs parcours de vie ». « En assimilant précarité et soupçon de fraude, cet algorithme participe d’une politique de stigmatisation et de maltraitance institutionnelle des plus défavorisés », déploraient-elles. Un contrôle est en effet loin d’être anodin : il peut inclure, outre une visite à domicile, des demandes d’accès à des documents personnels, des voisins interrogés, et une suspension de droits.
La CAF plus transparente, mais…
De son côté, la CAF présente cet algorithme comme un simple outil d’aide à la décision. Le directeur général de la Caisse, Nicolas Grivel, avait précisé, dans une interview donnée à l’AFP deux ans plus tôt, que l’algorithme avait surtout pour objectif d’identifier les allocataires les plus susceptibles de commettre des erreurs dans leur déclaration. Il ne serait pas discriminatoire, et ne ciblerait pas forcément les personnes les plus pauvres, mais celles dont les revenus varient, expliquait-il. Un an plus tard, le même responsable avait ajouté, toujours auprès de nos confrères, que l’outil visait à identifier les allocataires les plus susceptibles de commettre des erreurs dans leur déclaration, ciblant « les indus importants et répétés ».
Et en ce mois de janvier 2026, la CNAF est allée plus loin. Dans un communiqué intitulé « Contrôles Caf : un nouvel algorithme plus transparent », l’administration explique utiliser depuis janvier 2026 « une nouvelle version de cet algorithme, revu dans un sens plus éthique et plus transparent ». La CNAF ajoute avoir créé un comité d’éthique « pour identifier les risques et les moyens de les atténuer, notamment sur les sujets sensibles liés aux libertés publiques ». Elle a également publié « le code source de l’algorithme DMDE 2026, afin de permettre aux parties prenantes de mieux comprendre la logique générale de l’outil et d’éclairer le débat », une première.
Jusqu’à présent, la Caisse d’allocations familiales refusait de donner accès à son code source, malgré les demandes répétées de certaines associations. Certaines variables « potentiellement sensibles » de l’algorithme précédent, comme « la nationalité, le genre, l’adresse ou le quartier, le comportement en ligne, et les antécédents de contrôle » « ont été explicitement exclues pour limiter les risques de discrimination », détaille la CNAF – une précision qui montre à quel point l’outil a pu utiliser des données particulièrement sensibles.
Mais pour la Quadrature du Net, « la transparence seule ne suffit pas ». Les 25 associations attendent toujours de pied ferme la décision du Conseil d’État. D’autant qu’elles demandent à la plus haute juridiction administrative française de saisir la Cour de justice de l’Union européenne (CJUE) pour demander son avis (via un renvoi préjudiciel).
À l’appui de cette demande, un arrêt de la CJUE de décembre 2023, selon lequel tout type de notation automatisée est interdit, s’il a un impact significatif sur la vie des personnes, en vertu du RGPD, le règlement européen sur les données personnelles. Dit autrement, toute prise de décision qui utilise des systèmes de notation au moyen de données personnelles est illégale. Selon la Quadrature du Net, il faudra attendre plusieurs mois pour connaître la position du Conseil d’État. La prochaine étape, l’audience publique, devrait avoir lieu au printemps prochain.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.