Une tribune d’Arthur Messaud
Paris, le 29 novembre 2017 — En deux jours, coup sur coup, Facebook a annoncé déployer ses outils de surveillance de masse pour détecter les comportements suicidaires puis pour lutter contre le terrorisme. La concomitance de ces annonces révèle parfaitement la politique de fond du réseau social hégémonique : se rendre aussi légitime que les États et, avec l’accord bien compris des « démocraties libérales », remplacer celles-ci pas à pas.
Hier, Facebook a détaillé la mise en œuvre de sa lutte automatisée contre les contenus à caractère terroriste, qu’il avait déja annoncée en juin dernier. Il explique fièrement que « 99% des contenus terroristes liés à Al-Qaeda et ISIS retirés de Facebook sont des contenus détectés avant que qui que ce soit ne les ait signalés et, dans certains cas, avant qu’ils ne soient publiés »1Notre traduction de « Today, 99% of the ISIS and Al Qaeda-related terror content we remove from Facebook is content we detect before anyone in our community has flagged it to us, and in some cases, before it goes live on the site. ». Facebook n’a ainsi plus aucune honte à avouer ses intentions : la lutte contre la parole terroriste en ligne n’est plus du ressort de l’État — Facebook est bien plus efficace ! Cette lutte n’est plus fixée selon des normes débattues démocratiquement, mais laissée à l’unique volonté politique d’entreprises capitalistiques, qui n’ont aucun compte à rendre au peuple.
Et c’est exactement ce à quoi appelaient Macron et May l’été dernier : les géants du Net doivent prendre à leur charge la régulation de leurs réseaux hégémoniques (Facebook explique d’ailleurs que les contenus retirés automatiquement ne sont en principe pas transmis aux autorités publiques, qui pourraient en poursuivre les auteurs2En juin, Facebook : « We increasingly use AI to identify and remove terrorist content, but computers are not very good at identifying what constitutes a credible threat that merits escalation to law enforcement. », la séparation des rôles étant ainsi totale et quasiment hermétique).
Le cynisme de la situation est d’autant plus fort que la partie de la lutte que l’État prend encore à sa charge (la détection des individus dangereux) use des mêmes outils que ceux déployés par le secteur privé. Les « algorithmes » dont Facebook vante aujourd’hui l’efficacité reposent sur la même logique que les « boîtes noires » autorisées en France en 2015, et sont développés par la même industrie, qui partage l’exacte même idéologie (Palantir Technologies a été fondée par Peter Thiel, qui détient également 7% de Facebook).
Par ailleurs, avant-hier, Facebook annonçait déployer ses outils de surveillance de masse pour détecter des comportements suicidaires afin d’apporter l’aide nécessaire aux personnes en détresse. La démarche ne serait pas si critiquable si elle n’était pas automatisée, si les utilisateurs pouvaient choisir d’échapper à l’analyse (ce n’est pas le cas) et s’il ne s’agissait pas d’une simple expérimentation pour des usages bien plus larges. Comme s’est empressé d’expliquer Mark Zuckerberg, « dans le futur, l’IA sera davantage capable de comprendre la subtilité du langage et sera capable d’identifier différents problèmes au-delà du suicide, notamment détecter rapidement davantage de cas de harcèlement ou de haine »3Notre traduction de : « In the future, AI will be able to understand more of the subtle nuances of language, and will be able to identify different issues beyond suicide as well, including quickly spotting more kinds of bullying and hate. ».
En vérité, en se plaçant comme défenseur de ses utilisateurs (sans l’avis de ceux-ci), Facebook espère repousser ses nombreux détracteurs qui lui reprochent des atteintes injustifiables à la vie privée de toute la population, à la qualité du débat public et à la vie démocratique dans son ensemble.
Ainsi, de façon parfaitement insidieuse, Facebook prétend que son outil d’aide aux personnes suicidaires sera déployé partout dans le monde… sauf dans l’Union européenne. Il sous-entend là clairement que l’Union européenne prévoirait des règles de protection des données personnelles trop contraignantes pour lui permettre de « protéger la population ». Cette prétention est évidemment fausse : le règlement général sur la protection des données pourrait autoriser une telle pratique de multiples façons 4 Elle pourrait être fondée sur le consentement, l’intérêt légitime, ou « la sauvegarde des intérêts vitaux de la personne » surveillée (RGPD, article 6).. Ce mensonge n’a qu’un but : opposer la sécurité des personnes à la protection de leur vie privée (principal obstacle à la pérennité économique de Facebook). Cette opposition est d’ailleurs directement reprise de la bouche des États déployant une surveillance de masse au nom de la sécurité : récupérer leurs pouvoirs implique sans surprise d’en reprendre les mensonges.
En conclusion, ces deux annonces dessinent un discours général assez net : soumettez-vous à Facebook, car lui seul peut vous protéger (ne comptez pas sur l’État, qui lui a délégué ce rôle). L’entreprise ne se prive d’ailleurs pas d’expliquer être « confiante que l’IA va devenir un outil plus important dans l’arsenal de protection et de sécurité sur l’Internet »5Notre traduction de « we’re hopeful AI will become a more important tool in the arsenal of protection and safety on the internet ».. Internet est dangereux, prenez refuge sous l’hégémonie de multinationales totalitaires, vite !
L’arrogance avec laquelle Facebook affiche ses ambitions de contrôler Internet révèle la volonté partagée des « démocraties libérales » et des entreprises hégémoniques de transférer les pouvoirs régaliens des premières vers celles-ci. Nous devons toutes et tous refuser définitivement la légitimité politique que ces entreprises entendent prendre. Seul le peuple est légitime pour décider collectivement des contraintes lui permettant de se protéger contre le terrorisme, les discours de haine, les tendances suicidaires ou n’importe quel autre danger. Dans la continuité ultra-libérale de ses prédécesseurs, Macron déconstruit l’État, pour le pire, en confiant ce rôle à des acteurs privés.
References
↑1 | Notre traduction de « Today, 99% of the ISIS and Al Qaeda-related terror content we remove from Facebook is content we detect before anyone in our community has flagged it to us, and in some cases, before it goes live on the site. » |
---|---|
↑2 | En juin, Facebook : « We increasingly use AI to identify and remove terrorist content, but computers are not very good at identifying what constitutes a credible threat that merits escalation to law enforcement. » |
↑3 | Notre traduction de : « In the future, AI will be able to understand more of the subtle nuances of language, and will be able to identify different issues beyond suicide as well, including quickly spotting more kinds of bullying and hate. » |
↑4 | Elle pourrait être fondée sur le consentement, l’intérêt légitime, ou « la sauvegarde des intérêts vitaux de la personne » surveillée (RGPD, article 6). |
↑5 | Notre traduction de « we’re hopeful AI will become a more important tool in the arsenal of protection and safety on the internet ». |