CAF


« Entre la CAF et vous, il n’y a qu’un clic ». Voilà ce que l’on pouvait lire sur une affiche de la CAF en 2022. Et le sous-titre laissait alors rêveur : « Accédez à tous les services de la CAF 24h/24 ». Face à cette promesse d’un numérique facilitant l’accès aux prestations sociales, la réalité est toute autre : celle d’une dématérialisation à outrance qui accentue les inégalités d’accès des bénéficiaires, notamment en réduisant les capacités d’accueil physique des CAF. Mais aussi celle d’une politique au service de l’exclusion et du harcèlement des plus précaires.

Pionnière au sein du système social français sur ces questions d’automatisation de la gestion et du contrôle, c’est depuis 2010 à un algorithme que la CAF laisse le soin de prédire quel·les allocataires seraient « (in)dignes » de confiance et doivent être contrôlé·es. Chargé de donner une note à chaque allocataire, censé représenter le « risque » qu’iel bénéficie indûment d’aides sociales, cet algorithme de scoring sert une politique de harcèlement institutionnel des plus précaires. Véritable outil dystopique chargé d’analyser nos comportements en quasi-temps réel à la recherche de « comportements suspects », cet algorithme attribue un « score de suspicion » à chaque allocataire. Lorsque ce score se dégrade trop, un contrôle est alors déclenché. Nous avons pu démontrer que cet algorithme vise délibérément les plus précaires. Être pauvre, bénéficier des minima sociaux, être au chômage ou vivre dans un quartier défavorisé : autant de paramètres dégradant la note d’un·e allocataire et augmentant d’autant la probabilité d’être contrôlé·e.

32 millions de vies sous surveillance

Chaque mois, cet algorithme analyse les données personnelles de plus de 32 millions de français·es vivant dans un foyer bénéficiant d’une allocation de la CAF.

Les notes sont mises à jour chaque premier du mois pour suivre au plus près le moindre changement dans nos vies. Elles sont calculées à partir d’une sélection de variables sélectionnées parmi les milliers de données détenues par la CAF sur chaque allocataire et ses proches (enfants, conjoint·e).

Si cet algorithme évolue au cours du temps, voici un exemple des données qu’il traite pour distinguer les « bon·nes » des « mauvais·es allocataires » : structure familiale (situation des enfants, naissance, séparation, mort du conjoint ou de la conjointe…), vie professionnelle (changements de salaires, perte d’emploi, chômage de longue durée) ou encore interactions avec la CAF (rendez-vous accueil, fréquence de connexion à l’espace caf.fr…).
L’intrusion de cet algorithme dans notre vie ne connaît aucune limite. Le tout avec l’aval de la CNIL qui ne voit aucun problème à ce que la CAF nous espionne numériquement afin de mieux nous trier, nous classer. Et nous contrôler.

Un ciblage délibéré et anticipé des plus précaires

Comme n’importe quel type de surveillance, celle-ci n’a pas les mêmes conséquences pour chacun·e d’entre nous. Elle reflète les inégalités structurelles de notre société. Ainsi, les « notes de suspicion » sont fortement corrélées avec la situation sociale. Les foyers « aisés » sont systématiquement mieux « notés » que les personnes en situation de précarité.

Parmi les variables impactant négativement ce score, on trouve notamment le fait de disposer de revenus faibles, d’être au chômage, de dépendre des minima sociaux, d’habiter dans un quartier défavorisé, de consacrer une partie importante de ses revenus à son loyer, de ne pas disposer de travail ou de revenus stables. Comble du cynisme, l’algorithme vise délibérément les personnes en situation de handicap. Le fait de bénéficier de l’Allocation Adulte Handicapé (AAH) tout en travaillant est un des paramètres dégradant le plus fortement la note d’un·e allocataire.

Des conséquences humaines dramatiques

Ces pratiques sont d’autant plus révoltantes que les conséquences humaines peuvent être très lourdes, comme le raconte Lucie Inland. Détresse psychologique, perte de logements, dépressions : le contrôle laisse des traces non négligeables dans la vie des contrôlé·es.

Les demandes de remboursement d’indus peuvent représenter une charge intenable pour les personnes en difficulté financière, en particulier lorsqu’elles sont dues à des erreurs ou des oublis qui couvrent une longue période. À ceci s’ajoute le fait que les trop-perçus peuvent être récupérés via des retenues sur l’ensemble des prestations sociales.

Pire, les nombreux témoignages récoltés par le Défenseur des Droits et les collectifs Stop contrôle et Changer de Cap font état de nombreuses pratiques illégales de la part de la CAF (non respect du contradictoire, difficulté de recours, suspension abusive des aides, non fourniture du rapport d’enquête, non accès aux constats) et de re-qualifications abusives de situations d’erreurs involontaires en fraude.

Mais le numérique a aussi modifié en profondeur le contrôle lui-même, désormais tourné vers l’analyse des données personnelles des allocataires. Le droit d’accès donné aux contrôleurs·ses est devenu tentaculaire. Accès aux comptes bancaires, données détenues par les fournisseurs d’énergie, les opérateurs de téléphone, les employeurs·ses, les commerçant·e·s et bien sûr les autres institutions (Pôle emploi, les Impôts, les caisses nationales de la sécurité sociale…) : le contrôle s’est transformé en une véritable mise à nu numérique.

Le contrôle devient alors une séance d’humiliation où chacun.e doit accepter de justifier le moindre détail de sa vie, comme en témoigne cet allocataire : « L’entretien […] avec l’agent de la CAF a été une humiliation. Il avait sous les yeux mes comptes bancaires et épluchait chaque ligne. Avais-je vraiment besoin d’un abonnement Internet ? À quoi avais-je dépensé ces 20 euros tirés en liquide ? ».

Un alibi technique à une politique inique

Légitimé au nom de la « lutte contre la fraude », l’algorithme a en réalité été entraîné pour prédire les indus aussi appelés trop-perçus. Or, ces derniers se concentrent sur les allocataires aux minima sociaux, les personnes en situation d’instabilité ou les familles monoparentales. Cette concentration s’explique d’abord par le fait que ces prestations sont encadrées par des règles complexes — fruit des politiques successives de « lutte contre l’assistanat » — multipliant le risque d’erreurs possibles.

Cet état de fait était connu des dirigeant·es de la CAF depuis toujours. Voici ce qu’écrivait, plusieurs années avant l’introduction de l’algorithme, un directeur de la lutte contre la fraude de la CAF : «  En réalité, ce sont les prestations sociales elles-mêmes qui génèrent le risque. […] ceci est d’autant plus vrai pour les prestations liées à la précarité (RMI, API – allocation de parents isolés), très tributaires de la situation familiale, financière et professionnelle des bénéficiaires. ». Dès lors, nul·le ne pouvait ignorer au sein de la direction de la CAF les conséquences discriminatoires de l’utilisation de l’algorithme.

Et pourtant, depuis que la contestation monte, les dirigeant·es de la CAF se réfugient derrière une pseudo neutralité. Notons par exemple un ancien directeur allant jusqu’à écrire que l’ « algorithme est neutre » et même « l’inverse d’une discrimination » puisque « nul ne peut expliquer pourquoi un dossier est ciblé ».

Lever l’opacité : le code source et son analyse technique

Devant une telle mauvaise foi, nous avons bataillé de longs mois pour obtenir le code source – la formule – de l’algorithme utilisé par la CAF. Notre but est de lever tout doute quant à la réalité des pratiques de la CAF, afin que l’évidence s’impose à toutes et tous. Et que les dirigeant·es de la CAF assument leur responsabilité dans la mise en place d’une politique de surveillance généralisée délibérément discriminatoire.

Nous avons donc publié le code source des deux versions de l’algorithme respectivement utilisées entre 2010-2014 et 2014-2018. Cette publication est accompagnée d’une analyse technique détaillée abordant notamment la construction des profils-types utilisés dans l’article le présentant, ainsi que leurs limites.

Au-delà des algorithmes de scoring

Si pour le moment nous ne nous sommes penché·es en détail que sur les questions de notation et de contrôle, la numérisation forcée au sein des CAF va bien au-delà de cet aspect :

Derniers articles

Retrouvez l’ensemble de nos publications, documentations et prises de positions sur l’utilisation par les organismes sociaux – CAF, Pôle Emploi, Assurance Maladie, Assurance Vieillesse – d’algorithmes à des fins de contrôle social sur notre page dédiée et notre gitlab.

Il…

Retrouvez l’ensemble de nos travaux sur l’utilisation par les administrations sociales d’algorithmes de notation sur notre page dédiée et notre Gitlab.
« Nous n’avons pas à rougir ou à nous excuser ». Voilà comment le directeur de la…

Après plus d’un an de mobilisation contre les pratiques de notation des allocataires de la CAF au côté des collectifs Stop Contrôles et Changer de Cap, et après avoir détaillé le fonctionnement de l’algorithme de…

Depuis bientôt un an nous luttons au sein du collectif « Stop Contrôles » afin de s’opposer aux effets de la dématérialisation et de l’utilisation du numérique par les administrations à des fins de contrôle…

← Retour au portail