Lutter contre les algos de contrôle !

Retraité·e, étudiant·e, chômeur·se, parent, agriculteur·ice ou bénéficiaire de l’Assurance maladie : quelle que soit notre situation, nos données les plus intimes viennent nourrir des dizaines d’algorithmes dont la tâche est d’évaluer notre intégrité. Ces algorithmes nous comparent en continu à des listes de « profils-types » de suspect·e·s: chômeur·se dilettante, précaire mal-intentionné·e, mère isolée, retraité·e friand·e de voyage, handicapé·e mensonger·ère, agriculteur·rice paresseux·se ou encore malade malhonnête.

C’est à l’avènement d’une véritable version « libérale » du système de crédit social que nous assistons. Si elles diffèrent des projets de régimes autoritaires assignant une note unique à chaque citoyen·ne sur laquelle se baserait l’ensemble de nos interactions avec les administrations, les logiques de contrôle à l’œuvre dans les régimes libéraux, faites d’une multitudes de scores gérés par différentes administrations, n’en sont pas moins violentes et génératrices d’exclusions.

Lire la suite

Développés en toute opacité au nom de la « lutte contre la fraude » par les administrations sociales – CAF, France Travail (ex Pôle Emploi), Assurance maladie, Assurance vieillesse, Sécurité sociale agricole… -, chacun de ces algorithmes nous alloue une note – ou « score de suspicion » – servant à sélectionner celleux d’entre nous devant faire l’objet d’un contrôle.

La documentation de ces pratiques est longue et compliquée du fait du refus de communiquer la moindre information par les administrations. Signe d’embarras généralisé, nous combattons cette opacité et publierons ici les informations au fur et à mesure qu’elles nous seront communiquées.

A La Quadrature du Net, nous refusons que notre système social soit transformé en un gigantesque système de surveillance en temps réel. Nous refusons le détournement à des fins de contrôle social des immenses quantités de données détenues par les administrations sociales et initialement collectées pour assurer leur bon fonctionnement. Nous refusons que l’informatisation du monde soit synonyme de rationalisation déshumanisante à travers la course au « rendement », à la réduction de nos vies à une poignée de chiffres, au tri et à la comparaison permanente entre individus.

Nous vous invitons à nous rejoindre pour lutter contre l’extension sans limites des logiques policières au sein de nos administrations sociales.

Nous avons besoin d’aide pour cartographier les pratiques de surveillance numérique de nos administrations, de conseils juridiques et de vos retours d’expériences !

Comment les administrations sociales nous surveillent ?

Rejoins la lutte contre le contrôle social algorithmique !

CAF

La Caisse nationale d’allocations familiales (CNAF) fut la première administration à mettre en place un système de notation généralisée de la population. Chaque mois, cet algorithme analyse les données personnelles de plus de 32 millions de français·es et allouent à chaque allocataire un « score de suspicion » visant à déterminer quels foyers feront l’objet d’un contrôle.

Voir notre page dédiée

Lire la suite

Après une longue bataille juridique, nous avons obtenu le code source de l’algorithme utilisé par la CAF. Notre analyse est sans appel. La CAF a réussi à associer pratiques dystopiques et discriminations des plus précaires. Son algorithme vise délibérément les personnes défavorisées et entraîne un sur-contrôle massif des personnes pauvres ou des femmes élevant seules un enfant.

Nous avons créé une page dédiée à cette bataille pour documenter et dénoncer les dérives des pratiques de notation des allocataires de la CAF. Vous y retrouverez nos articles, nos analyses et les différents documents que nous avons obtenu et que nous rendons public.

Assurance maladie

La Caisse nationale d’assurance maladie (CNAM) est une des administrations les plus en pointe sur le contrôle algorithmique. Elle a développé un véritable arsenal d’algorithmes de surveillance visant tant les assuré·es que des professionnel·les de santé.

Comme elle dispose de données de santé sur plus de 69 millions de personnes, le développement de telles pratiques en son sein est particulièrement inquiétant.

Lire la suite

Dès 2010, elle a expérimenté un algorithme de notation des bénéficiaires de la Complémentaire santé solidaire (anciennement CMU-C). Petit à petit, elle semble avoir généralisé cette technique aux bénéficiaires de l’Aide Médicale d’État, à la Protection universelle maladie (PUMA) puis à l’ensemble des ayants-droits.

Elle s’est aussi attachée à développer des outils de détection de « profils atypiques » des professionnel·es de santé. Infirmier·es et médecins sont dès lors considérés comme des « suspect·es » dont l’Assurance maladie doit se protéger.

L’étendue exacte du développement de la surveillance algorithmique par l’Assurance maladie reste cependant encore difficile à mesurer car ses dirigeant·es s’opposent au minimum de transparence comme l’attestent différents échanges que nous avons eu avec elleux.

Nous avons engagé différentes actions pour mieux les documenter. Nous détaillerons toutes nos recherches sur une page dédiée très bientôt.

Assurance vieillesse

La Caisse nationale d’assurance vieillesse (CNAV) gère les retraites de près de 15 millions de personnes en France. Elle n’a pas échappé aux injonctions à la « rationalisation » et à la traque numérique de nos aîné·es.

Si le développement des algorithmes de profilage à la CNAV semble être une priorité moins forte qu’à la CNAF ou la CNAM, la CNAV met en avant un algorithme chargé de faire le tri entre bon·nes et mauvais·es retraité·es qu’elle utiliserait depuis 2016.

Lire la suite

La CNAV est toutefois à la pointe sur d’autres sujets liés à la surveillance numérique. Elle est particulièrement impliquée dans le développement du recours à la reconnaissance faciale à des fins de vérification à distance de « l’existence » des assuré·es.

Cette technique, autorisée depuis juillet 2023, a été poussée par Gabriel Attal à travers la stigmatisation des retraité·es vivant au Maghreb et soupçonné·es de continuer de toucher leur retraite après leur mort…

Nous reviendrons petit à petit avec les informations que nous aurons pu recueillir sur ce sujet.

Pôle emploi

Le recours au datamining par France Travail (ex Pôle Emploi) à des fins de contrôles des chômeurs·ses a commencé en 2014. Inspiré par l’expérience de la CAF, France Travail a cherché à recourir à des algorithmes à des fins de détection de la fraude à l’assurance chômage. Si la première expérience ne semble pas avoir convaincu ses dirigeant·es, de nouvelles expérimentations ont eu lieu au début des années 2020.

Lire notre article

Lire la suite

Si France Travail nous a assuré qu’aujourd’hui aucun algorithme n’était utilisé à des fins de contrôle de la recherche d’emploi – les algorithmes se concentreraient sur la détection « d’escroqueries » comme l’usurpation d’identité ou la production de faux documents – nous sommes en attente de documents complémentaires. Nous avons cependant avancé dans nos recherches, et vous pouvez d’ores et déjà lire notre première analyse de l’essor du contrôle algorithmique à France Travail.

MSA, Ursaff, Impôts…

Ces pratiques sont aussi utilisées par les Impôts, l’URSAFF et mêmes les Mutualités Sociales Agricoles… Ici encore nous sommes en attente d’information que nous publierons au fur et à mesure que nous les recevrons !

Demande ton score

Vous avez récemment fait l’objet d’un contrôle CAF, Pôle Emploi, URSSAF ou de l’Assurance maladie et vous voulez comprendre sur quels critères vous avez été sélectionné·es ? Vous êtes simplement curieux·se de savoir si aux yeux de l’État et ses administrations vous êtes dignes de confiance ? Les administrations sont légalement tenues de vous communiquer les « scores de suspicion » qu’elles vous ont alloués ainsi que des explications concernant leur calcul.

Voir notre page dédiée (courriers-types, contact, recours…)!

Cartographier les algorithmes

Le premier pas pour lutter contre ces algorithmes est…. de savoir qu’ils existent ! La cartographie des algorithmes de contrôle social est un processus particulièrement long.

Les informations disponibles sont limitées et éparpillées à droite et à gauche. Et les dirigeant·es des principales administrations font tout ce qui est en leur pouvoir pour s’opposer à toute demande d’informations à leur sujet.

C’est pourquoi nous avons besoin de votre aide !

Nous publierons bientôt sur cette page un guide pour vous aider à vous y retrouver et quelques pistes d’actions pour nous aider à documenter les pratiques de surveillance des administrations.

Contact

Si vous avez fait l’objet d’un contrôle « datamining », si vous souhaitez nous aider ou simplement avoir plus d’informations, n’hésitez pas à nous contacter à algos@laquadrature.net ! Notre clé publique est disponible ici.

Faites un don à La Quadrature du Net

La Quadrature se bat depuis des années contre la surveillance et la censure imposées par les États et les entreprises. Si les fronts se multiplient, nos moyens restent les mêmes. Pour que nous puissions continuer à mener de nouveaux combats comme la lutte contre l’usage d’algorithmes de suspicion dans les administrations, nous avons besoin de votre soutien. Pour en savoir plus sur nos principaux combats de 2024, visitez la page de soutien.Faire un don