La Caisse nationale des allocations familiales (CNAF) note-t-elle ses bénéficiaires au mépris du droit ? Une quinzaine d’associations ont annoncé, mercredi 16 octobre, saisir le Conseil d’Etat pour lui demander de mettre fin au système mis en place par la CNAF pour orienter ses contrôles.
L’organisme social utilise, depuis 2010, des algorithmes pour tenter d’identifier les allocataires qui doivent être contrôlés prioritairement, en raison d’un plus grand risque d’erreur dans leur dossier. Une note de 0 à 10 est attribuée à chaque dossier, sur la base de données personnelles. Plus le score est élevé, plus les chances d’être contrôlé sont fortes. Mais, plutôt que de cibler des comportements suspects, ce système se fonde sur des caractéristiques personnelles des allocataires, comme l’a montré Le Monde dans une enquête publiée en 2023, qui s’appuyait notamment sur l’analyse du code informatique utilisé par la CNAF. C’est, par exemple, en étudiant l’âge des enfants, le niveau de revenus ou le nombre de déménagements récents que l’organisme juge qu’un foyer est « à risque » ou non.
Un outil accusé de discriminer les plus fragiles
Ce mode opératoire est jugé discriminatoire par les associations à l’origine de la plainte, parmi lesquelles figurent La Quadrature du Net, Amnesty International France ou encore le collectif Changer de cap. Elles ont d’abord écrit à la CNAF, en juillet, pour lui demander de renoncer à son score de risque. Faute de réponse, elles ont décidé de porter l’affaire au Conseil d’Etat. Leur requête, que Le Monde a pu consulter, est en grande partie centrée sur l’iniquité supposée de l’algorithme.
Certaines règles de calcul liées à l’âge des allocataires ou à celui des membres de leur famille, sont présentées comme directement discriminatoires. D’autres sont susceptibles d’engendrer des discriminations indirectes. C’est, par exemple, le cas du critère visant les parents isolés, ayant mécaniquement pour effet de surcontrôler les femmes, plus nombreuses à élever des enfants seules. Dès lors que les femmes, mais aussi les personnes avec de faibles revenus ou précaires, ou encore les jeunes, sont surreprésentées dans les contrôles, on peut considérer que ces dernières sont discriminées, argumentent les associations.
La CNAF s’est, quant à elle, toujours défendue de toute discrimination. Le système ne fait, selon l’organisme, que rechercher les profils les plus susceptibles de commettre des erreurs. Et, si le score de risque est ensuite utilisé pour cibler les vérifications, les contrôleurs traitent manuellement chaque cas : les allocataires dont le dossier est en règle ne sont donc pas pénalisés, estime l’administration.
Possibles entorses à la protection des données
Un argumentaire que conteste Katia Roux, chargée de plaidoyer chez Amnesty International France : « La question, c’est de savoir si cet outil respecte les droits humains ou non dans son fonctionnement. Les discriminations doivent être interdites. C’est d’autant plus important à nos yeux que des systèmes de ce type se développent dans bien d’autres administrations, en France comme dans le reste de l’Europe. »
Les associations accusent également la CNAF d’enfreindre le règlement général sur la protection des données (RGPD). D’abord, parce que la quantité de données collectées serait disproportionnée par rapport à l’objectif recherché. Le système brasse des informations sur plus de 32 millions de personnes, pour déclencher environ 90 000 contrôles sur place chaque année, selon les chiffres de la CNAF.
Le système du score de risque pourrait également être contraire à l’article 22 du RGPD, qui interdit en principe la prise de décisions individuelles entièrement automatisée sur la base de traitement de données personnelles. Or un arrêt de la Cour de justice de l’Union européenne du 7 décembre 2023 a conclu qu’un système de notation utilisé par une société allemande pour valider ou non une demande de crédit immobilier était contraire au RGPD. Pour les associations, la même logique pourrait s’appliquer au sujet du système de la CNAF.
Manque de transparence de la part de la CNAF
Jusqu’à présent, la CNAF s’est efforcée de minimiser les critiques sur son score de risque. « Nous n’avons pas à rougir ou à nous excuser de la manière dont nous utilisons ces outils », écrivait ainsi le directeur de l’organisme, Nicolas Grivel, dans un message interne diffusé en décembre 2023, dans la foulée de l’enquête du Monde.
Le Monde
Soutenez une rédaction de 550 journalistes
Accédez à tous nos contenus en illimité à partir de 7,99 €/mois pendant 1 an.
S’abonner
M. Grivel promettait également qu’une réflexion sur l’usage des algorithmes à la CNAF associant divers spécialistes rendrait « de premières conclusions d’ici au printemps 2024 ». Selon nos informations, le sujet a été abordé lors du conseil d’administration de l’organisme social au début de l’été. « L’idée, c’était surtout de justifier l’utilisation de ce système et d’évoquer des projets de consultations pour le futur. Il n’y avait pas grand-chose de concret », estime Joël Raffard, représentant de la CGT dans l’instance.
Alors que la CNAF s’est efforcée d’éviter le débat jusqu’ici, la saisine du Conseil d’Etat pourrait la contraindre à plus de transparence. Elle pourrait notamment être amenée à s’expliquer plus en détail sur le choix de tel ou tel critère de calcul de son score de risque. Les associations attendent également que l’organisme communique des statistiques précises sur la nature des publics contrôlés du fait de l’algorithme, afin de voir qui est ciblé ou non par celui-ci.