Veuillez prouver que vous n’êtes pas un robot: pour un droit au réel

--- 15 mars 2023

Il faut élargir la définition de fraude pour protéger ce qui reste d’humain en nous

On a beau chercher, la notion de « droit au réel » ne semble inscrite dans aucune constitution du monde, ni dans aucune charte des droits. Et pourtant, c’est un droit que l’on devrait songer à protéger –  parce qu’il se fait tard et que les dangers sont déjà dévastateurs.

J’entends par « droit au réel » le droit de savoir si, dans nos visionnements, interactions ou autres communications numériques (par exemple, par l’intermédiaire d’un écran, ordinateur, montres intelligentes et, d’ici quelques décennies, puces implantées à même notre cerveau), nous sommes en train de parler à un autre être humain ou à une intelligence artificielle. De la même manière, hormis pour ce qui constitue clairement de la fiction, on devrait pouvoir savoir si les images et autres vidéos que l’on nous présente comme réelles (à la télévision ou sur Internet) ont été retouchées. (À ma connaissance, seule la Norvège oblige les compagnies de publicité à dévoiler l’utilisation d’images manipulées.)

Pourquoi exiger un tel droit? Parce que les capacités numériques sont aujourd’hui à ce point avancées qu’il est déjà possible de regarder une vidéo fausse ou modifiée sans réaliser qu’elle ne reflète pas fidèlement la réalité. Si vous regardez les matchs du Canadien de Montréal à la télévision ces temps-ci (on compatit), vous verrez qu’un logiciel surimpose sur les bandes des publicités invisibles pour ceux qui sont présents au Centre Bell. En un mot: vous ne regardez pas le « vrai » match, comme le ferait un partisan dans les gradins. Cette technologie fonctionne tellement bien que, hormis quelques problèmes occasionnels, on a véritablement l’impression de regarder les « vraies bandes » entourant la patinoire.

Pourquoi est-ce un problème? Mis à part le fait qu’il est très dérangeant de regarder de la publicité (souvent mouvante) en tentant de se concentrer sur le match, ce type de technologie risque d’être déployée subrepticement partout. Si on peut remplacer ce que l’on voit sur la bande d’un match hockey sans avertir le téléspectateur, on pourra utiliser le même procédé pour remplacer le logo sur le t-shirt d’une personne qui apparait dans un reportage, placer une publicité électronique sur un mur derrière un journaliste qui couvre une tornade en direct, et ainsi de suite. On peut envisager des modifications de la réalité encore plus sinistres : entrevues avec des personnes qui n’existent pas, faciès remplacés dans une foule, vidéos d’évènements qui ne se sont jamais produits. (Regarder aujourd’hui une vidéo deepfake est une expérience glaçante.)

préjudices personnels

On sait déjà que les filtres qui modifient une vidéo en temps réel sont largement employés sur les réseaux sociaux. Au départ purement ludiques, ils permettaient de remplacer sa tête avec celle d’un extraterrestre, faire de vous un chat, modifier la grosseur de vos yeux. Aucune confusion avec le réel n’était alors possible et il pouvait être amusant pour un enfant de transformer son visage et sa voix en Darth Vader le temps d’un appel Facetime avec grand-papa.

Mais, comme c’est souvent le cas avec les nouvelles technologies, l’utilisation de ce genre de filtres, sans qu’un avertissement n’apparaisse à l’écran, est devenue aujourd’hui carrément inquiétante. Depuis longtemps, Snap Chat propose des filtres qui éliminent la moindre aspérité, comme les boutons ou les rides. D’autres filtres amincissent les corps, améliorent les courbes. Les filtres « glamour », abondamment utilisés sur les réseaux sociaux, transforment instantanément leurs utilisateurs (et utilisatrices) en espèce de canon de « beauté », avec des yeux parfaits, des lèvres pulpeuses, un maquillage impeccable. (Pour ceux qui ne fréquentent pas ces réseaux, il faut vraiment le voir pour le croire.)

Si les jeunes sont souvent sceptiques par rapport à ces filtres et s’en moquent ouvertement dans leurs commentaires, d’autres en viennent néanmoins à imaginer que leur corps réel devrait ressembler à cette image fantasmée, ou développent un dégoût pour leur apparence. Ce n’est sans doute pas un hasard si la santé mentale, notamment des jeunes filles, se porte particulièrement mal à force de voir constamment défiler les mêmes images de filles « parfaites ». On a beau savoir, rationnellement, que l’image ainsi produite n’est pas la réalité, il est émotionnellement difficile de ne pas souffrir du décalage entre son propre corps et l’idéal que nous renvoie constamment ces millions d’usagers « ordinaires » sur les médias sociaux.

On ne peut plus attendre que les compagnies de Silicon Valley et autres Tik Tok se responsabilisent d’elles-mêmes. À défaut d’interdire leur utilisation, il faudrait au minimum obliger l’inclusion d’un filigrane bien visible et universel indiquant qu’on regarde une vidéo trafiquée par un filtre algorithmique. Bref, que l’image ne correspond pas à la réalité.

Risques de manipulation massive

Mais tout ça, c’est de la petite bière en comparaison de ce qui nous attend sur le Métavers, ce monde virtuel auquel on accède grâce à un casque de réalité virtuelle. Depuis quelques années, Facebook a fait du Métavers une priorité tellement absolue que l’entreprise a même changé de nom pour s’appeler Meta. Et il est assez facile de comprendre pourquoi.

Dans un monde virtuel, où vous ne serez pas vous-mêmes mais un avatar qui rencontre d’autres avatars, il sera probablement impossible de savoir si vous parlez à une vraie personne (derrière son avatar) ou si vous interagissez plutôt avec un algorithme imitant un être humain.

Vous doutez de cette possibilité? Les chatbots (agents conversationnels) à base de systèmes d’intelligence artificielle arrivent pourtant déjà à se faire passer sans difficulté pour des êtres humains et réussissent allègrement le test de Turing. Les systèmes d’intelligence artificielle parviennent même aujourd’hui à gagner au jeu Diplomatie sans que les autres joueurs ne réalisent qu’ils transigent avec un ordinateur.

Il s’agit là d’une réussite à la fois admirable, d’un point de vue technique, et par ailleurs totalement inquiétante, car Diplomatie n’a rien à voir avec les échecs ou le backgammon, des jeux où l’ordinateur est avantagé par sa mémoire et sa capacité de calcul. Dans Diplomatie, la réussite dépend entièrement de la capacité d’un joueur à dialoguer, à trouver des compromis, à négocier des ententes, à gagner la confiance des autres et à savoir quand il est avantageux de trahir une alliance — des habiletés qu’on croyait être l’apanage exclusif des humains. Au vu de ces avancées, il ne serait pas très difficile d’animer, dans le Métavers, des avatars artificiels qui soient impossibles à distinguer de ceux contrôlés par des êtres humains.

Et pourquoi Meta voudrait-elle d’un système où il est impossible de distinguer entre un être humain et un robot? Parce que, selon des spécialistes, la publicité de l’avenir ressemblera à ceci: votre « ami » dans le Metavers, que vous croyez être un être humain, avec qui vous discutez tous les jours, qui se montre toujours à l’écoute et compréhensif… vante au détour d’une conversation les vertus de son nouveau micro-ondes qu’il croit savoir être en vente cette semaine. Tous les annonceurs savent que le bouche-à-oreille est de loin le meilleur outil de marketing. Avec des faux amis impossibles à distinguer des vrais, qui pourront aisément nous manipuler, peu importe la cause, commerciale ou non, le pouvoir d’influence est décuplé. Ce n’est pas un hasard si Meta pousse aussi fort dans cette direction.

On peut s’inquiéter de la même manière des agents conversationnels qui permettent à des entreprises de nous offrir de l’aide sur Internet. En soi, ces systèmes ne sont pas problématiques s’il est clair d’entrée de jeu qu’on discute avec une machine, que ce soit sur Internet ou au téléphone. Mais l’expérience de transiger avec un robot peut devenir particulièrement frustrante si on a l’impression de clavarder avec une vraie personne pendant plusieurs minutes, une personne en apparence capable de nous aider et d’être empathique, pour ensuite découvrir qu’on conversait avec un système informatique. La situation est encore plus choquante si on a partagé notre état d’esprit, notre détresse, ou d’autres sentiments personnels.

À terme, on peut imaginer que des agents conversationnels pourront remplacer les êtres humains et, notamment par le recoupement de nos informations glanées sur internet, qu’on les emploiera pour nous manipuler de manière encore plus efficace qu’un vendeur en chair et en os.

Il n’est pas difficile d’imaginer d’autres dérives potentielles liées à l’utilisation des algorithmes, mais il serait inutile de les multiplier tant ces dérives ne sont pas à venir, mais en voie avancée de réalisation. Il ne s’agit pas ici de refuser les bénéfices potentiels de l’utilisation des nouvelles technologies mais plutôt d’élargir la définition de « fraude » pour protéger ce qui reste d’humain en nous et marquer de manière claire une limite que l’on n’accepte pas, collectivement, de franchir.

Une menace pour la démocratie

Un des plus grands risques liés à l’avènement des nouvelles technologies réside dans le scepticisme généralisé engendré par l’incapacité de distinguer le vrai du faux.  Comme l’a écrit Hannah Arendt, c’est le doute généralisé, l’incapacité de croire, qui est à la source du totalitarisme. Contrairement au bourrage de crâne qu’on imagine, écrit-elle, « le but de l’éducation totalitaire n’a jamais été d’inculquer des convictions, mais de détruire la faculté de n’en former aucune ». En ce sens, permettre à des compagnies privées de brouiller allègrement la distinction entre le vrai et le faux ne peut être une bonne nouvelle. 

On pourra s’objecter qu’il a toujours été dans la nature du marketing de mélanger la réalité et la fiction. Le Big Mac à l’écran est plus appétissant que celui qu’on découvre dans sa boite de carton graisseuse. Le VUS dernier cri risque davantage d’être pris dans le trafic que de filer sur des routes sauvages. Mais la manipulation rendue possible par l’intelligence artificielle est sans commune mesure avec celle de la publicité jusqu’ici. Veut-on vraiment attendre de voir jusqu’où iront les GAFAM avant de leur imposer des limites?

L’idée n’est pas d’empêcher l’utilisation d’agents conversationnels, de filtres ou autres manipulations d’image (même si, dans certains cas, ce serait souhaitable), mais d’obliger les compagnies qui les emploient à le divulguer d’emblée. Nous devrions avoir un droit fondamental de savoir si l’on regarde une vidéo réelle ou trafiquée, ou si l’on transige avec un humain ou un robot, parce que l’incapacité de faire la différence a des effets potentiels funestes.

La prochaine fois que vous remplirez un formulaire en ligne et que vous serez confronté à un CAPTCHA, rappelez-vous que cet acronyme signifie « Test public de Turing entièrement automatisé pour distinguer les ordinateurs des humains ». Il y a une raison pour laquelle les entreprises en ligne veulent s’assurer qu’elles ne transigent pas avec une machine. Elles comprennent le danger qu’il y aurait à ne pas pouvoir distinguer l’humain du robot.

Il serait grand temps d’obliger, par la loi, les entreprises à nous retourner la politesse.


François Charbonneau est détenteur d’un doctorat de l’École des hautes études en sciences sociales (Paris). Il est professeur à l’École d’études politiques de l’université d’Ottawa, père de famille et essayiste. Il a dirigé de 2008 à 2018 la revue Argument. Il a dirigé, seul ou en collaboration, de nombreux ouvrages savants, parmi lesquels Le Siècle du Règlement 17, éditions Prise de parole, 2015; L’exil et l’errance : Le travail de la pensée entre enracinement et cosmopolitisme, Liber 2016; Ottawa, lieu de vie français, Presses de l’université d’Ottawa, 2017; Droits, langues et communautés, Liber, 2023 (à paraître). Il est l’auteur de l’ouvrage Une part égale de liberté : le patriotisme anglais et la Révolution américaine, Liber, 2013. Il est également président du conseil d’administration du Centre d’aide aux familles Les enfants de l’espoir de Hull.

Lire tous les articles de François Charbonneau