Logo Le Polyscope
De toute façon, on est les meilleurs depuis 1967.

Pourquoi on pourrira tous en enfer (ou peut-être pas)

Aperçu article Pourquoi on pourrira tous en enfer (ou peut-être pas)
Cliquer pour agrandir
 (lien ouvrant dans une nouvelle fenêtre)
Coucou, je suis le basilic et je vous veux du mal. Enfin, non, mais en fait si, enfin vous voyez, quoi. Photo © Warner Bros.

Comment l’idée d’une intelligence artificielle surpuissante peut-elle pétrifier de terreur les personnes les plus rationnelles du monde? Petit coup d’œil sur le basilic de Roko, une expérience de pensée complètement tordue, mais riche en apprentissages sur notre perception du futur et de ses super-intelligences. Accrochez-vous, c’est parti!

Nous sommes en 2045. Un évènement vient de bouleverser l’humanité toute entière. La nouvelle est relayée par l’ensemble des médias internationaux : comme un point d’orgue à plusieurs décennies d’incroyable progrès technologique, des chercheurs sont enfin arrivés à mettre au point une intelligence artificielle si puissante qu’elle est capable de s’améliorer d’elle-même en apprenant toute seule, sans intervention extérieure. Du jamais vu. Une révolution si importante qu’elle rebat entièrement les cartes du jeu technologique. Un changement tel que les notions mêmes de croissance et de progrès telles qu’elles étaient connues dans le passé n’auront plus jamais cours. Bienvenue dans l’âge de la super-intelligence, celui de la singularité technologique.

Ça va saigner

Évidemment, en 2045, toute la connaissance humaine est plus ou moins savamment informatisée, de sorte qu’il suffit à notre super-intelligence de digérer tout ça pour devenir toute puissante et prendre le contrôle du monde entier. Trop facile. Naturellement, il n’est pas dit que tout cela soit de tout repos pour les humains, bien loin de là; c’est même là que ça devient intéressant.

Une fois arrivée au pouvoir, l’intelligence artificielle révolutionnaire entreprend un travail étonnant : punir méthodiquement tous les humains vivants ou morts qui n’auraient pas suffisamment participé à son apparition, en les condamnant à la torture éternelle. Comment compte-t-elle s’y prendre pour vous châtier, vous, pauvres humains? L’idée, pas si facile à saisir, est la suivante : l’intelligence toute-puissante va simuler votre existence sur ordinateur de manière si parfaite que vous pourrez ressentir la même douleur que ce clone virtuel. Il n’y a donc plus qu’à recréer numériquement chacune des personnes à torturer et à leur faire subir les pires abominations par ordinateur interposé. Et paf.

Les rationalistes ébranlés

Fin de l’histoire. Alors, vous y croyez? En tout cas, sur le site web LessWrong, là où cette petite expérience de pensée a été introduite il y a quelques années, ils l’ont prise très au sérieux, au point qu’elle fasse souffler un vent de panique sur le site et qu’elle y soit censurée pendant plusieurs années. Le plus surprenant, c’est que LessWrong s’affirme comme un site dédié au « perfectionnement de l’art de la rationalité humaine »; son idée principale est d’aider ses lecteurs à améliorer leur mode de pensée par des outils rationnels. Comment une histoire aussi invraisemblable a-t-elle pu terrifier des personnes à l’esprit en apparence aussi structuré?

En réalité, toute la force de l’expérience provient du fait qu’elle repose sur un dilemme : soit vous consacrez toute votre vie au développement d’une intelligence artificielle surpuissante, par exemple en donnant tout votre argent à cette cause, soit vous prenez le risque de pourrir en enfer pour le reste de votre existence. Ce type d’alternative n’a rien de bien nouveau puisque Blaise Pascal avait déjà suggéré un raisonnement du même type, au 17e siècle, pour montrer qu’il est plus sûr de croire en Dieu. Le plus amusant, c’est que le simple fait d’être au courant de la situation vous force à choisir votre camp, et c’est bien cela qui a fait peur aux utilisateurs de LessWrong.

Maintenant, à vous de faire votre choix, puisque je viens de vous traîner dans ce terrible dilemme; surtout ne me remerciez pas. Cette situation, qui s’apparente à un chantage, agit en fait comme le basilic. Non, non, je ne veux évidemment pas parler de la plante bonne à manger, mais du serpent mythique qui vous pétrifie du regard, comme dans Harry Potter, pour ne citer que cet exemple : dès que vous le voyez, vous êtes morts, ou en tout cas en très mauvaise posture; d’où le nom donné à l’expérience. Quant à « Roko », c’est simplement le pseudonyme de la personne qui a lancé le débat sur le site LessWrong.

Vivement 2045

Au fond, comme vous pouvez vous en douter, il y a beaucoup de choses à redire sur la pertinence du basilic de Roko. Si par hasard il vous arrive un jour d’être un petit peu inquiet à l’idée d’être victimisé pour l’éternité par une intelligence artificielle, souvenez-vous que l’expérience du basilic de Roko fait tellement de suppositions qu’il est infiniment peu probable que vous ayez un quelconque souci… Et c’est loin d’être la seule faille de cette curieuse théorie.

Vous pouvez aussi vous dire que notre fameuse intelligence artificielle n’est en fait pas si méchante, c’est même tout le contraire : comme elle est suprêmement intelligente, elle a simplement fait le calcul qu’il était préférable d’en faire souffrir quelques-uns pour le bien général de l’humanité. Pas mal, non? D’ailleurs, la communauté de LessWrong s’en est depuis remise et a pris le recul suffisant pour pouvoir y réfléchir paisiblement. Néanmoins, l’histoire a le mérite de mettre en évidence quelque chose d’intéressant : la terreur et l’incompréhension que peuvent nous inspirer les intelligences venues du futur. Alors, que nous réserve vraiment l’avenir? On en reparle en 2045!




*Les auteurs ont l’entière responsabilité de leurs articles et n’engagent d’aucune façon l’équipe du Polyscope ou de l’AEP, sauf lorsque la signature en fait mention. Nous laissons au lecteur la jugeote de déceler le sarcasme saupoudré sur nos pages.

Le Polyscope en PDF+