Intelligence artificielle: dernière invention de l’humanité?

--- 8 mai 2023

Comment s'assurer que les objectifs des machines supra-intelligentes demeureront alignés sur les nôtres?

Imaginez un instant qu’un astéroïde de type « tueur de planète » soit découvert, et que la moitié de tous les astrophysiciens du monde prédisent une probabilité d’impact de 10% au cours des prochaines années. On peut dès lors imaginer que tous les pays du monde fourniraient un effort sans précédent afin de trouver une solution à notre possible extinction, reléguant au second plan tous les problèmes que nous vivons actuellement. Les changements climatiques, les écarts de richesse ou la guerre en Ukraine nous paraîtraient bien banals en comparaison.

Or c’est pourtant précisément ce type d’alerte qui a été lancé en août dernier par la communauté scientifique internationale concernant le développement de l’intelligence artificielle (IA), comme l’a souligné avec justesse le physicien et cosmologiste Max Tegmark dans un article paru le 25 avril dernier dans Time, et qui a eu l’effet d’un coup de tonnerre . Tegmark rappelait un sondage paru en août 2022 dans lequel 50% des experts mondiaux en IA évaluait à 10% la probabilité que l’espèce humaine disparaisse en raison de notre incapacité à contrôler le développement de l’IA, rien de moins.

Face à une telle menace, quelle a été notre réponse collective? Non seulement cet avertissement a été ignoré, mais les entreprises spécialisées se sont lancées dans une course effrénée au développement de l’IA, sans aucune balise ni cadre légal approprié. Pourtant, il s’agit peut-être du plus grand défi existentiel jamais rencontré par l’humanité.

Certains préfèrent regarder ailleurs, d’autres minimisent le danger, mais une chose est certaine: nous nous dirigeons bel et bien vers un monde inconnu qui menace notre mode de vie et notre survie collective. Même Geoffrey Hinton, celui qu’on surnomme le « parrain de l’IA », et qui vient tout juste de quitter Google afin de retrouver son droit de parole, vient de mettre le monde en garde: nous courons un réel danger.

En temps normal, les pays développent des institutions et légifèrent afin de protéger leurs citoyens de dangers potentiels. Pensons à Santé Canada, la SAAQ ou l’Organisation de l’aviation civile internationale. Mais contrairement aux médicaments ou aux moyens de transport, l’IA se développe à un rythme effréné. Les législateurs actuels sont complètement dépassés et peinent à comprendre l’urgence à laquelle nous faisons face. Il y a fort à parier que votre élu local n’est même pas en mesure d’articuler une position claire face à cet enjeu pourtant fondamental. Résultat: l’IA se développe à une vitesse exponentielle, à l’extérieur de tout encadrement législatif.

Les effets négatifs de l’IA commencent déjà à se faire sentir. Préparez-vous à voir Internet inondé de désinformation, ce qui rendra extrêmement difficile la distinction entre le vrai et le faux. N’importe quel individu mal intentionné pourra, par exemple, créer et faire circuler une vidéo de Vladimir Poutine annonçant qu’il vient d’envoyer un missile nucléaire sur New York. Un complotiste pourra demander à ChatGPT de rédiger un article scientifique du style de la revue Nature et citant 106 sources qui démontrent le danger clair et indiscutable de la vaccination. Dire que nous ne sommes pas prêts à affronter cela relève de l’euphémisme.

Toute discussion sérieuse sur l’IA doit accorder une place centrale au problème de l’alignement. En termes simples, le problème de l’alignement consiste à s’assurer que les décisions prises par les machines dotées d’IA soient conformes à nos valeurs, nos codes d’éthique et à nos attentes, afin d’éviter des conséquences négatives imprévues.

Chaque jour, nous confions davantage de décisions à l’IA, et ces décisions sont prises en fonction d’algorithmes pré-programmés. Or, ces algorithmes sont eux-mêmes tributaires des informations sur lesquelles ils sont basés. Lorsque les informations que l’IA rencontre dans le monde diffèrent de celles de sa base de données, l’IA peut prendre des décisions désalignées de ses objectifs de base.

Il y a quelques années, nous avons vu un exemple du désalignement d’un algorithme de classification de Google Photos, qui identifiait des personnes à la peau foncée comme des gorilles. Le problème n’était pas tant avec l’algorithme qu’avec les données sur lesquelles il se basait. Ces situations ne sont pas insignifiantes, puisqu’elles montrent comment une IA valablement programmée avec des intentions innocentes peut donner des résultats désastreux. Voilà pourquoi le problème de l’alignement est crucial.

Max Tegmark (encore lui) souligne une autre réalité troublante révélée par les développements récents en IA: l’intelligence, qu’on croyait jadis mystérieuse et hors de portée de la compréhension humaine, ne serait pas un phénomène éthéré propre au cerveau biologique. Il s’agirait purement et simplement d’un processus de traitement d’information — information qui peut être traitée aussi bien par des circuits organiques dans un cerveau que par des circuits inorganiques dans un microprocesseur. La question n’est donc pas si, mais bien quand, nous développerons une IA aussi intelligente qu’un humain.

Selon le spécialiste américain en neurosciences Sam Harris, les circuits électroniques conçus par les humains sont environ un million de fois plus rapides que les circuits biochimiques de nos cerveaux. Lorsqu’une IA atteindra la puissance du cerveau humain, elle aura donc le potentiel de réfléchir un million de fois plus rapidement que nous. Si nous laissons cette IA fonctionner pendant une semaine, elle aura produit l’équivalent de 20 000 ans de réflexion humaine. Avons-nous même la capacité d’imaginer une pensée qui progresserait de la sorte? 

Voilà où nous mène le problème de l’alignement: comment peut-on s’assurer que les objectifs fondamentaux des machines demeurent alignés sur les nôtres si ces dernières sont appelées à surpasser outrageusement l’intelligence humaine? Imaginons une IA qui, à terme, identifierait la corrosion de ses composantes comme étant la plus grande menace à sa survie et qui déciderait de tout mettre en œuvre pour limiter l’oxygène dans l’atmosphère. 

L’un des principaux dangers liés à l’IA est le bon vieux réflexe de déni. Selon certains, tous ces dangers potentiels seraient encore bien loin de nous et nous trouverons les meilleures façons de gérer les problèmes quand ils se présenteront.

Ce serait une grossière erreur. De nombreux chercheurs en IA, tels que Ray Kurzweil et Nick Bostrom, estiment que la singularité technologique pourrait survenir très bientôt, peut-être même aussi tôt qu’en 2029. (La singularité technologique est l’hypothèse selon laquelle l’IA pourrait atteindre un point d’auto-amélioration au-delà duquel nous serions confrontés à des bouleversements imprévisibles touchant l’ensemble de la société humaine.)

En 1965, le statisticien britannique Irving John Good a donné une illustration de cette singularité qui se rapproche de sa définition actuelle: « Supposons qu’une machine supra-intelligente soit capable de surpasser de manière significative un être humain, aussi brillant soit-il, dans tous les domaines d’activité intellectuelle. Comme la conception de telles machines est l’une de ces activités intellectuelles, une machine supra-intelligente pourrait concevoir des machines encore meilleures; il y aurait alors sans aucun doute une explosion d’intelligence, et l’intelligence humaine serait très rapidement dépassée. Par conséquent, l’invention de la première machine supra-intelligente serait la dernière invention que l’humain ait besoin de réaliser ».

C’est précisément au-delà de cette limite — cette fameuse singularité — que nous plongeons dans le mystère le plus total. L’IA nous aidera-t-elle à créer un monde utopique où même l’immortalité sera à notre portée? Ou nous verra-t-elle plutôt comme les humains voient (parfois) les fourmis: de petits êtres insignifiants qui n’ont pas intérêt à se trouver sur notre chemin?

Un jour ou l’autre, nous créerons une forme de superintelligence. Or, au moment d’écrire ces lignes, nous n’avons aucune idée des conditions nécessaires pour y parvenir en toute sécurité. La pause récemment souhaitée par des centaines de chercheurs en IA est justifiée. Si nous sommes sur le point de créer un dieu, peut-être devrions-nous d’abord décider s’il s’agit d’un dieu avec lequel nous pourrons coexister.


Louis Frédéric Prévost est avocat spécialisé en droit criminel et pénal. Voyageur infatigable, il se passionne pour les grands enjeux, l'actualité, la politique, l'éthique et les sciences. S'il n'est pas sur une moto à parcourir les routes d'Asie, vous le trouverez probablement attablé à un café à lire les journaux. Son objectif: résister au confort des idéologies afin de découvrir la vérité, même si elle est parfois inconfortable.

Lire tous les articles de Louis Frédéric Prévost

Privacy Preference Center