C’est pas de l’IA, c’est du soutien !
Jeudi dernier, le 28 novembre, nous avons lancé notre campagne de dons pour 2025. Comme à chaque fin d’année, les associations font leur appel à soutien pour boucler le budget de l’année qui va commencer. La Quadrature n’y échappe pas, d’autant moins qu’elle tient principalement par vos dons et qu’elle refuse de solliciter des subventions publiques, pour des raisons d’indépendance de plus en plus évidentes. Si vous le pouvez, merci de nous soutenir financièrement !
Pour animer ce mois de campagne, on a décidé de parler d’un sujet qui nous intéresse depuis un moment déjà, mais qu’on veut prendre à bras le corps tant les choses s’accélèrent : l’IA. Derrière le buzzword du moment se cachent énormément de fantasmes et des réalités trop mal connues. Tant de croyances entourent l’IA qu’elle joue le rôle d’un mythe, endossant tantôt le rôle du sauveur ou celui du bourreau de l’humanité. Mais elle a des réalités concrètes à partir desquelles il faut l’appréhender. Par où commencer ?
D’abord, supprimer l’effet de fascination causé par l’expression elle même. « L’intelligence artificielle » n’existe pas. Ou plutôt, il faut regarder de plus près ce que recouvre le mot magique. Nous avons publié un premier article accompagné d’une première vidéo pour présenter les grandes lignes de notre lecture du phénomène. L’IA n’est rendue possible que par une énorme concentration de moyens qui la place d’entrée entre les mains du système industriel et financier dominant, avec tous les dégâts sociaux et environnementaux qui s’ensuivent. Elle sert logiquement les intérêts de ces dominants. Comme instrument de police avec la VSA, comme instrument de contrôle social avec les algorithmes administratifs, comme instrument de l’exploitation salariale avec l’entrée de l’IA générative dans les entreprises… Autant d’aspects que nous essaierons d’explorer tout au long de cette campagne et dans les mois qui viennent. Soutenez La Quadrature en 2025 !
Rendez-vous sur la page de la campagne de dons : https://www.laquadrature.net/donner/
Premier article sur l’IA : https://www.laquadrature.net/2024/11/29/cest-pas-de-lia-cest-de-lexploitation-dernier-cri/
Lien direct vers la vidéo : https://video.lqdn.fr/w/kzeD86nXj12pKnEqwZKQEF
France Contrôle : un algo de contrôle discriminatoire à l’Assurance maladie
Exemple concret des espoirs et des ambitions confiées à « l’intelligence artificielle » (naguère, on appelait ça le « big data ») : identifier les fraudes aux prestations sociales. Nous avons publié l’année dernière les résultats de notre travail sur l’algorithme de notation utilisé par la Caisse nationale d’allocations familiales (CNAF) pour attribuer un « score de risque » à ses bénéficiaires. Nous avions découvert, et montré preuve à l’appui, que l’algorithme en question était écrit pour cibler plus particulièrement les personnes en situation de grande précarité (solitude, charge de famille, faibles revenus, etc.). Nous publions cette semaine la suite de cette enquête.
Cette fois, c’est l’algorithme de notation utilisé par la Caisse nationale de l’assurance maladie (CNAM) qui est décortiqué. Nos conclusions sont les mêmes : sous prétexte de lutter contre la fraude, la CNAM accentue la pression de contrôle sur les personnes les plus fragiles. Adultes handicapées, mères célibataires, voilà les ennemis de la solidarité sociale et les « fraudeurs » désignés par les responsables des services sociaux qui mettent au point ces algorithmes de contrôle. Un article à lire sur notre site.
Lire l’article : https://www.laquadrature.net/2024/12/05/notation-algorithmique-lassurance-maladie-surveille-les-plus-pauvres-et-harcele-les-meres-precaires/
Surveillance algorithmique : la CNIL démissionne
Autre usage de l’IA. On vous a souvent parlé de Briefcam, un logiciel de VSA doté de puissantes fonctions d’identification faciale et d’analyse biométrique, acheté par de nombreuses villes en France et utilisé aussi par la police nationale et la gendarmerie nationale, comme l’a révélé l’an dernier le média Disclose.
L’outil est si puissant et si profondément installé dans le marché de la vidéosurveillance algorithmique à la française (VSA), qu’à la suite de l’article de Disclose, la CNIL a mené une enquête sur l’usage du logiciel par la police et la gendarmerie, dont elle a publié les conclusions cette semaine (juste après notre article qui actait sa démission, et le moins qu’on puisse dire, c’est que les conclusions de son enquête ne sont pas de nature à nous contredire).
Le logiciel Briefcam (comme ses semblables) est capable d’identifier une personne dans la foule à l’aide de traits individuels caractéristiques : taille, démarche, vêtements, couleur de la peau ou des cheveux, etc. Cette identification individuelle permet au logiciel de retrouver la même personne sur toutes les images des caméras publiques de la ville, et de la suivre partout – un véritable fantasme policier. Mais dans l’état du droit actuel, tout traitement de données qui permet d’identifier une personne de façon certaine, et isole l’individu au sein d’un groupe, relève du traitement de données biométriques, dites « sensibles », c’est-à-dire encore plus protégées et encadrées par la loi. On ne fait pas ce qu’on veut avec des données personnelles, encore moins avec des données biométriques, et c’est le rôle de la CNIL d’y veiller depuis sa création en janvier 1978.
Or, devant les parlementaires qui la consultaient sur la Loi Transports (laquelle cherchait à légaliser l’usage de la VSA pour certaines enquêtes pénales) comme dans les conclusions de son enquête sur Briefcam, la CNIL se défausse. Elle se contente de rappeler l’interdiction de la reconnaissance faciale mais pour le reste des fonctions d’analyse biométriques – tout aussi dangereuses, et tout aussi illégales –, elle refuse de faire appliquer le droit et se contente des explications fournies par les institutions policières. En donnant ainsi son aval à une pratique illégale de surveillance passible de sanctions pénales, la CNIL trahit sa mission de protection des droits et des libertés. Notre analyse complète dans l’article.
Lire l’article : https://www.laquadrature.net/2024/12/04/vsa-et-biometrie-la-cnil-demissionnaire/
Data centers : le coût écologique du tout numérique
C’est un des pires aspects de l’IA : basée sur d’énormes puissances de calcul, elle contribue à l’explosion des besoins en infrastructures, et particulièrement en data centers, gourmands en énergie et en eau de refroidissement. La ville de Marseille, grand nœud portuaire et « porte » du sud de la France vers la Méditerranée et le reste du monde, est particulièrement concernée par le sujet : placée au point d’arrivée sur le continent de nombreux câbles sous-marins, elle est envahie par les data centers qui stockent et traitent les données en transit.
Le collectif marseillais « Le nuage était sous nos pieds », dont fait partie La Quadrature, veut re-matérialiser le cloud pour montrer la réalité de nos usages numériques. Il a organisé un festival informatif et militant en novembre à Marseille, et publié un premier article sur le sujet en septembre dernier. Voici le deuxième article, qui analyse en détails la situation à Marseille.
Lire l’article : https://www.laquadrature.net/2024/11/20/accaparement-du-territoire-par-les-infrastructures-du-numerique/
Agenda
- Vendredi 6 décembre : Rencontre autour du livre Technopolice : la surveillance policière à l’ère de l’intelligence artificielle avec Félix Tréguer à 21h à Saint-Étienne, au cinéma Le Méliès Saint-François, 8 Rue de la Valse.
- Samedi 7 décembre : Conférence « État providence ou contrôle social ? Comment se défendre face à la gestion algorithmique des populations » à 16h dans le cadre du Premier Samedi du Libre XXL, à la Cité des Sciences et de l’Industrie 30, Avenue Corentin Cariou, 75019 Paris.
- Samedi 7 décembre : Rencontre autour du livre Technopolice : la surveillance policière à l’ère de l’intelligence artificielle avec Félix Tréguer à 15h à Lyon, à la librairie La Gryffe, 5 Rue Sébastien Gryphe, 69007..
- Mercredi 11 décembre : Rencontre autour du livre Technopolice : la surveillance policière à l’ère de l’intelligence artificielle avec Félix Tréguer à 18h30 à Marseille, Court-Circuit, 3 place Notre-Dame du Mont, 13006.
- Jeudi 12 décembre : Causerie mensuelle du groupe Technopolice Marseille à 19h au Manifesten, 59 Rue Adolphe Thiers, Marseille.
- Jeudi 12 décembre : Rencontre autour du livre Technopolice : la surveillance policière à l’ère de l’intelligence artificielle avec Félix Tréguer à 19h30 à Avignon, à la librairie Youpi!, 26 Av. Saint-Ruf.
- Vendredi 13 décembre : Rencontre autour du livre Technopolice : la surveillance policière à l’ère de l’intelligence artificielle avec Félix Tréguer à 19h à Arles, à la librairie L’Angerie, 38 rue Genive.
- Samedi 14 décembre : « Flic-flac : trois jours de solidarité et de défense face à la police » aux Tanneries à Dijon. Programme complet ici.
- 27-30 décembre : Chaos Communication Congress (38C3) à Hamburg (Allemagne).
- Retrouvez tout l’agenda en ligne.
La Quadrature dans les médias
Data centers à Marseille
- De la Calade à la Villette, une balade pour comprendre ce qui se joue dans les data centers [Marsactu]
- Infrastructures numériques : « On a longtemps cru que les données volaient dans les airs, et puis on a regardé sous nos pieds » [Fracas]
- À Montpellier, un festival pour dénoncer « la surveillance de nos vies et de nos villes » [La Marseillaise]
- Un collectif marseillais dénonce l’emprise des datacenters sur le territoire [ZDNet]
Technopolice, le livre
- [Vidéo] Technopolice : La France sur la route de la Chine ? [Blast]
- « Technopolice » – Sous l’œil des algorithmes, l’enquête choc sur la surveillance totale [Maze]
Vidéosurveillance algorithmique
- IA et vidéosurveillance : une mission d’inspection invite à sortir du flou [Banque des territoires]
- Lille a-t-elle déployé en douce la vidéosurveillance algorithmique ? [20 minutes]
- Après les JO, la vidéosurveillance algorithmique joue les prolongations [Techniques de l’ingénieur]
- BriefCam : la Cnil met en demeure le ministère de l’intérieur et six communes [Mediapart]
- « Aide à la décision » ou « surveillance de masse » : les caméras intelligentes bientôt généralisées à Paris ? [Le Parisien]
France Contrôle
- L’Assurance-maladie critiquée pour son algorithme de lutte contre la fraude [Le Monde]
- Suède. L’agence de sécurité sociale doit interrompre l’utilisation des systèmes d’intelligence artificielle discriminatoires [Amnesty International]
- L’Assurance Maladie – L’algorithme qui cible les mères les plus démunies [Korben]
- Assurance-maladie : quand les nouveaux collègues sont des robots [Mediapart]
- La Défenseure des droits s’inquiète de « l’algorithmisation des services publics » [01Net]