Tribune d’Arthur Messaud
Il y a 10 jours, nous expliquions que décentraliser le Web offrait l’espoir d’une organisation démocratique de nos échanges en ligne, en solution à l’hégémonie de l’économie de l’attention. En effet, les géants du Web distordent nos échanges pour des raisons économiques en favorisant les propos anxiogènes, caricaturaux, violents ou payés… au détriment des autres, et cela doit être corrigé.
Pour favoriser une alternative décentralisée, nous proposions que les hébergeurs libres (qui ne nous imposent pas une hiérarchisation des contenus) ne soient plus soumis aux mêmes obligations légales que les plateformes géantes (qui nous imposent leur hiérarchisation des contenus).
Ces obligations légales, qui exigent de censurer de plus en plus vite les contenus « manifestement illicites » dont les hébergeurs ont connaissance, freinent le développement du Web décentralisé. Ainsi, nous proposions que les hébergeurs libres n’aient plus à supporter ces lourdes obligations : que seul un juge puisse exiger d’eux qu’ils censurent un contenu.
Aujourd’hui, la question que nous abordons ne concerne plus les hébergeurs libres, mais les autres : quelles obligations imposer aux plateformes géantes ?
Le pouvoir des géants
Ce récit est malheureusement assez commun : vous vous êtes inscrit sur Facebook, Youtube ou Twitter il y a de nombreuses années et, depuis, vous y avez tissé de nombreuses relations (des « amis » ajoutés sur Facebook au fil des rencontres, un public attentif réuni sur Youtube, des personnes pertinentes suivies sur Twitter). Au fil des années, ces plateformes ont adopté des règles de hiérarchisation des contenus de plus en plus contraignantes.
Facebook et Instagram se sont mis à censurer toute image contraire à leur vision puritaine de la société, à masquer les sites de presse contraires à ce qu’ils jugent être le « juste débat » et à organiser nos « fils d’actualité » pour nous rendre plus réceptifs à leur publicité. Youtube favorise des vidéos de plus en plus anxiogènes, pour nous faire rester le plus longtemps possible sur son site, au détriment des autres vidéos dont l’audience devient de plus en plus gérée par l’entreprise seule. Twitter organise nos échanges pour les rendre de plus en plus vifs et captifs, sans se soucier des conséquences sur le débat public.
Plus généralement, s’est tissé « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui « rapportent » le plus car l’une d’entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt financier des réseaux sociaux est d’en héberger le plus possible » (« Renforcer la lutte contre le racisme et l’antisémitisme sur Internet », Rapport au Premier Ministre, p. 36).
Pourtant, nombre d’entre nous restons sur ces plateformes. Nous ne pouvons pas rompre d’un coup tous les liens que nous y avons tissés. Nous subissons toutes ces nouvelles contraintes sans les avoir choisies ni sans pouvoir vraiment y échapper. C’est ce qu’il faut corriger.
Un nouveau statut juridique
Si l’on souhaite utiliser le droit pour corriger les géants, il faut d’abord trouver un critère objectif pour les identifier. Ensuite, autour de ce critère, le droit pourra poser des obligations spécifiques pour former un « statut juridique » adapté à leur situation. Ce nouveau statut juridique se placerait à mi-chemin entre celui d’hébergeur et d’éditeur ; moins souple que le premier, moins strict que le second.
Le « pouvoir de contrainte » des géants pourrait être ce critère permettant de délimiter leur nouveau statut. Ce « pouvoir » apparaît lorsque les utilisateurs d’une plateforme ne peuvent pas la quitter sans subir des « conséquences négatives », ce qui permet à la plateforme d’imposer les règles de son choix. Dans notre exemple précédent, ces « conséquences négatives » étaient la perte des liens humains tissés sur la plateforme. Pour mesurer la gravité de cette perte, ces liens peuvent être appréciés selon la taille de la plateforme, sa durée d’existence et son fonctionnement, par exemple.
Les « conséquences négatives » à prendre en compte pour mesurer le « pouvoir de contrainte » des plateformes ne doivent pas se limiter à ce seul exemple. En effet, pour choisir ce critère, nous nous sommes directement inspirés du principe de « liberté du consentement » qui est au cœur du RGPD (voir par exemple notre plainte contre Google, p. 4, pour plus de détails). Aujourd’hui, nous proposons d’étendre ce critère aux questions de liberté d’information, avec toute la souplesse qu’il offre pour s’adapter à différentes situations.
Une fois ce critère posé, vient la question du contenu de ce nouveau statut (dans la suite de notre propos, nous appelons « géants » tout service qui dispose du « pouvoir de contrainte » défini ci-dessus – et pas seulement les GAFAM).
Il y a plusieurs façons d’empêcher les géants d’abuser de leur pouvoir pour nous enfermer dans leurs règles nocives, qui distordent nos échanges à leurs fins personnelles. Dans les débats à venir, nous devrons identifier les meilleures façons de le faire. Nous soumettons ici des premières pistes.
Et, pour commencer, il semble utile de revenir aux fondamentaux. De repartir du principe à la base de la neutralité du Net : si vous n’avez pas vraiment le choix d’utiliser un service pour communiquer, ce service ne doit pas être autorisé à hiérarchiser (favoriser, ralentir ou censurer) les informations que vous publiez et recevez, sauf si la loi l’exige (relire notre rapport de 2010 sur la neutralité du Net).
Ainsi, il faut imposer aux géants le choix suivant : renoncer à leur pouvoir de contrainte (et donc redevenir de simples hébergeurs) ou devenir neutre.
S’ouvrir à la décentralisation…
En pratique, pour ne pas perdre nos liens tissés sur les géants, nous n’avons pas d’autre choix que de continuer à les utiliser. C’est une chose qui peut être corrigée si les géants deviennent « interopérables » avec d’autres services : s’ils nous permettent de continuer de parler avec nos « amis Facebook » sans être nous-même encore inscrits sur Facebook.
Techniquement, cette « interopérabilité » passe par l’application de « standards de communication » : un langage partagé par plusieurs services afin de communiquer entre eux. Par exemple, le standard ActivityPub propose un standard pour « réseaux sociaux décentralisés » – et nous y voyons l’espoir concret de l’essor d’un Web décentralisé. De plus, appliquer de tels standards serait une façon de rendre effectif le « droit à la portabilité » créé par le RGPD (à l’article 20) et qui, sans interopérabilité entre plateformes, peine pour l’instant à démontrer son utilité.
Concrètement, nous pourrions quitter un géant (par exemple Twitter) pour migrer vers un autre service (Mamot.fr, le service décentralisé de micro-bloging Mastodon proposé par La Quadrature). Depuis ce nouveau service, nous pourrions continuer de recevoir et d’envoyer des messages aux personnes restées sur le géant (Twitter), sans rompre nos liens avec elles.
Ainsi, dès lors qu’un géant abandonnerait son pouvoir de contrainte, nous pourrions librement échapper au cadre destructeur de sa capitalisation de notre attention. Le cercle vertueux de la décentralisation reprenant le pas, le pouvoir de contrainte de ce géant-ci pourrait diminuer, jusqu’au point où, éventuellement, il pourrait revenir dans le statut plus souple des hébergeurs.
Dans tous les cas, il serait tenu, comme n’importe quel hébergeur, d’afficher clairement ses règles de hiérarchisation des contenus, nous permettant de nous y soumettre ou non en pleine connaissance de cause. De même, revenir à un cadre d’hébergeur « plus souple » ne signifie en aucun cas d’alléger les obligations en matière de protection des données personnelles : ces données ne doivent jamais permettre de hiérarchiser les contenus sans le consentement explicite de chaque personne concernée.
… ou devenir neutre
Dans le cas où un géant refuserait de s’ouvrir à la décentralisation (en refusant d’appliquer les standards le permettant), il devrait lui être interdit de hiérarchiser nos échanges selon ses propres règles – puisque nous ne pouvons pas échapper à celles-ci.
Cette interdiction pourrait prendre différentes formes. Par exemple, cela pourrait être une interdiction de principe contrôlée par une autorité indépendante (de même que la neutralité du Net est protégée par l’ARCEP – l’autorité de régulation des communications électroniques et des postes). Aussi, cela pourrait être la possibilité pour chaque personne d’attaquer en justice un géant qui aurait censuré un contenu licite. Enfin, en cas de censure répétée de contenus licites, par exemple, ces actions en justice pourraient prendre la forme de plaintes collectives (de la même façon que le RGPD nous a permis d’agir à 12 000 personnes contre les GAFAM pour protéger nos données personnelles). Rappelons, que, aujourd’hui, se défendre contre ces censures abusives est pratiquement impossible.
Pour résumer : si les géants continuent de nous enfermer (en refusant de s’ouvrir à la décentralisation), ils doivent devenir neutres (ne pas censurer de contenus licites ni en favoriser certains aux détriments d’autres). Cette absence de hiérarchisation serait vaine si elle n’était pas totale : elle doit autant interdire la censure de nus réalisée par Facebook que la mise en avant de contenus favorisant l’économie de l’attention ou étant payés par leur émetteur (à des fins publicitaires). C’est cette même rigueur qui est la base de la neutralité du Net et qu’il faudra appliquer strictement. Autrement, aucune des dérives de l’économie de l’attention ne sera corrigée.
Aucune censure automatisée
Dans tous les cas, les géants, mêmes neutres, ne doivent être soumis à aucune obligation de surveiller les contenus qu’ils diffusent pour censurer les informations « manifestement illicites » de façon automatique. Pourtant, c’est ce que prévoient en creux la directive sur le droit d’auteur ou la récente proposition de règlement européen contre la diffusion de contenus terroristes. Ces obligations sont inacceptables, au moins pour trois raison.
En premier lieu, la directive européenne de 2000 qui encadre l’activité des intermédiaires du Net prévoit déjà ceci, à son article 15 : « les États membres ne doivent pas imposer aux prestataires […] une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Cette protection bénéficie à tous les intermédiaires du Net, même ceux non-neutres et ne bénéficiant pas du statut des hébergeurs stricto-sensu.
En deuxième lieu, indépendamment de cette directive, la Cour de justice de l’Union européenne juge depuis 2012 que ces obligations violeraient nos droits à la vie privée et à la liberté d’information, tels que reconnus par la Charte de droits fondamentaux de l’Union européenne. Précisément, la Cour affirme qu’imposer à une plateforme de « procéder à une surveillance active de la quasi-totalité des données concernant l’ensemble des utilisateurs de ses services, afin de prévenir toute atteinte future à des droits de propriété intellectuelle » (il s’agissait alors d’une affaire de contrefaçon) « impliquerait, d’une part, l’identification, l’analyse systématique et le traitement des informations relatives aux profils créés sur le réseau social par les utilisateurs de ce dernier » et, d’autre part, « risquerait de porter atteinte à la liberté d’information, puisque ce système risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite ». Ainsi, une telle obligation « ne respecterait pas l’exigence d’assurer un juste équilibre entre le droit de propriété intellectuelle, d’une part, et la liberté d’entreprise, le droit à la protection des données à caractère personnel et la liberté de recevoir ou de communiquer des informations, d’autre part » (SABAM c. Netlog, CJUE, 3ème ch., 16 février 2012, C-360/10, points 38, 49, 50 et 51).
En troisième et dernier lieu, exiger que les géants surveillent tous les contenus en temps réel ne fera que favoriser le phénomène déjà problématique de la délocalisation à bas coût de la modération des contenus vers des armées d’employés travaillant dans des conditions extrêmement anxiogènes, afin de « compenser » des machines forcément imparfaites. La plupart souffrent déjà de traumatismes mentaux à force de « rester, des heures durant, l’œil rivé sur un écran d’ordinateur, où s’affichent des images et des vidéos de corps déchiquetés et écartelés, d’enfants noyés ou violentés, sans compter le flot continu d’injures et d’appels aux meurtres ».
Vouloir renforcer les obligations de censure imposées aux géants du Web est une fuite en avant. Elle repose sur l’idée aussi absurde que dangereuse que des solutions technologiques pourraient régler des problèmes avant tout sociaux et politiques. Surtout, elle refuse de prendre le problème à sa racine, pour se contenter d’en gérer les symptômes (nous dénoncions le même manque d’ambition dans la proposition de loi sur la diffusion de « fausses informations »).
L’économie de l’attention, devenue hégémonique sur Internet, est au centre du problème que le gouvernement prétend vouloir résoudre : la sur-diffusion de propos anxiogènes ou violents et notre sur-exposition à des interactions non-souhaitées. Seul le développement de services ouverts ou neutres permettra d’en contenir les dérives – ce qui, au passage, permettra au juge de se recentrer sur les infractions les plus graves.
Il y a bien des façons de favoriser le développement de ces alternatives. Nos propositions juridiques actuelles sont pensées comme des premières pistes, que nous vous invitons à discuter en nous écrivant ou en venant à notre prochaine réunion publique dans nos locaux, vendredi 12 octobre dès 19h, par exemple 🙂