« Scores de suspicion » pour prédire qui doit faire l’objet d’un contrôle, profilage psychologique des chômeur·ses, estimation de leur qualité par un « score d’employabilité », orientation automatisée des personnes au RSA, « score de fragilité » pour trier nos aîné·es… Ce sont désormais des pans entiers de l’accompagnement social qui sont automatisés. En creux, se dessine le fantasme d’une gestion algorithmique des populations.
Depuis 2021, La Quadrature du Net a entamé, aux côtés de collectifs de lutte contre la précarité, un travail de documentation et d’analyse des algorithmes de contrôle social utilisés au sein de notre système social. Ce travail a montré qu’au-delà des questions de notation, de contrôle et de surveillance, c’est toute une politique de numérisation forcée qui se met en place, au détriment du soutien aux plus défavorisé·es.
Mise en place sous couvert « d’efficacité gestionnaire » et de « lutte contre la fraude sociale », cette numérisation à outrance a des conséquences humaines dramatiques. On assiste à une précarisation accentuée des bénéficiaires des administrations sociales, à l’aggravation du non-recours aux aides sociales, à de nouvelles formes de discriminations des plus précaires, à une déshumanisation de l’accompagnement social et une dégradation des conditions d’accueil (pour les allocataires) et de travail (pour les agent·es des administrations concernées).
Une numérisation forcée aux conséquences désastreuses
Exclusion et précarisation
Les conséquences de la première vague de numérisation des administrations sociales en termes d’exclusion des personnes précaires, âgées, étrangères ou en situation de handicap font aujourd’hui consensus. Alors que la plupart des solutions proposées sont restées lettre morte (accueil multicanal, demandes d’accompagnement administratif, droit à revenir sur un consentement aux échanges numériques…), cette seconde vague de numérisation ne fera qu’accentuer les difficultés d’accès aux droits de ces publics.
Contrôle social et logiques policières
La numérisation des administrations sociales s’est accompagnée d’un déploiement inédit de dispositifs de contrôles numériques. Si les algorithmes de notation visant à détecter des « comportements suspects » en sont les exemples les plus frappants, il ne faut pas négliger l’impact sur notre vie privée des croisement de données généralisés entre administrations sociales. Ces croisements aboutissent à la création d’un véritable « double numérique » utilisable pour vérifier la moindre de nos déclarations.
Logiques gestionnaires et fantasme cybernétique
L’extension sans fin de la numérisation des administrations sociales s’inscrit dans le fantasme d’une gestion automatisée des bénéficiaires de notre système social. La « modernité » se dessine via l’approche d’un accompagnement social par l’intermédiaire de « tableau de bords ». Alertes en cas de « situation de décrochage », de « risque de dispersion », ou de « fragilité », l’analyse et la collecte de données personnelles visent à remplacer le contact humain. Sous couvert d’« efficience » et de « modernisation », c’est une attaque inédite sur le coeur du travail social qui s’opère.
Administrations algogestionnaires
CAF
En France, la CAF est la première administration à avoir développé un algorithme de notation généralisée de ses bénéficiaires, algorithme dont nous avons montré le caractère discriminatoire vis-à-vis des plus précaires. D’autres algorithmes sont probablement utilisés sur divers aspects, tels que le calcul des droits des allocataires.
France Travail
« Score de suspicion » pour évaluer l’honnêteté des chômeur·ses, « score d’employabilité » mesurant leur « attractivité », algorithmes de détection des allocataires en situation de « perte de confiance », en « besoin de redynamisation » ou à « risque de dispersion »… France Travail multiplie les expérimentations de profilage algorithmique des personnes sans emploi.
CNAM
La Caisse nationale d’assurance maladie (CNAM) est une des administrations a priori les plus en pointe sur le contrôle algorithmique. Elle a développé un véritable arsenal d’algorithmes de surveillance visant tant les assuré·es que des professionnel·les de santé.
Assurance vieillesse
La Caisse nationale d’assurance vieillesse (CNAV) gère les retraites de près de 15 millions de personnes en France. Elle n’a pas échappé aux injonctions à la « rationalisation » et à la traque numérique de nos aîné·es.
Boite à outils
Demande ton score
Vous avez récemment fait l’objet d’un contrôle CAF, Pôle Emploi, URSSAF ou de l’Assurance maladie et vous voulez comprendre sur quels critères vous avez été sélectionné·es ? Vous êtes simplement curieux·se de savoir si aux yeux de l’État et ses administrations vous êtes dignes de confiance ? Les administrations sont légalement tenues de vous communiquer les « scores de suspicion » qu’elles vous ont alloués ainsi que des explications concernant leur calcul.
Cartographier les algorithmes
Le premier pas pour lutter contre ces algorithmes est…. de savoir qu’ils existent ! La cartographie des algorithmes de contrôle social est un processus particulièrement long.
Les informations disponibles sont limitées et éparpillées à droite et à gauche. Et les dirigeant·es des principales administrations font tout ce qui est en leur pouvoir pour s’opposer à toute demande d’informations à leur sujet.
C’est pourquoi nous avons besoin de votre aide !
Nous publierons bientôt sur cette page un guide pour vous aider à vous y retrouver et quelques pistes d’actions pour nous aider à documenter les pratiques de surveillance des administrations.
Derniers articles
Depuis 2021, nous documentons via notre campagne France Contrôle les algorithmes de contrôle social utilisés au sein de nos administrations sociales. Dans ce cadre, nous avons en particulier analysé le recours aux algorithmes de notation.…
Mise à jour du 12 juillet 2024 : le directeur général de France Travail a souhaité utiliser son droit de réponse. Vous la trouverez à la suite de l’article.
« Score de suspicion » visant à évaluer l’honnêteté des…
Retrouvez l’ensemble de nos publications, documentations et prises de positions sur l’utilisation par les organismes sociaux – CAF, Pôle Emploi, Assurance Maladie, Assurance Vieillesse – d’algorithmes à des fins de contrôle social sur notre page dédiée et notre gitlab.
Il…
Retrouvez l’ensemble de nos travaux sur l’utilisation par les administrations sociales d’algorithmes de notation sur notre page dédiée et notre Gitlab.
« Nous n’avons pas à rougir ou à nous excuser ». Voilà comment le directeur de la…
Après plus d’un an de mobilisation contre les pratiques de notation des allocataires de la CAF au côté des collectifs Stop Contrôles et Changer de Cap, et après avoir détaillé le fonctionnement de l’algorithme de…
Depuis bientôt un an nous luttons au sein du collectif « Stop Contrôles » afin de s’opposer aux effets de la dématérialisation et de l’utilisation du numérique par les administrations à des fins de contrôle…