Impossible de contrôler une IA super intelligente

 

Une photo du film 2001 : L’Odyssée de l’espace. (Warner Bros. Découverte)

 

 

L’idée d’une intelligence artificielle renversant l’humanité est évoquée depuis des décennies, et en 2021, les scientifiques ont livré leur verdict sur la question de savoir si nous serions capables de contrôler une super-intelligence informatique de haut niveau. 

 

La réponse ? Presque certainement pas.

 

Le problème est que le contrôle d’une super-intelligence dépassant largement l’entendement humain nécessiterait une simulation de cette super-intelligence que nous pourrions analyser (et contrôler). Mais si nous sommes incapables de la comprendre, il est impossible de créer une telle simulation.

Les auteurs du nouvel article suggèrent qu’il est impossible d’établir des règles telles que « ne pas nuire aux humains » si nous ne comprenons pas le type de scénarios qu’une IA va élaborer. Dès lors qu’un système informatique travaille à un niveau supérieur à celui de nos programmeurs, nous ne pouvons plus fixer de limites.

 

« Une super intelligence pose un problème fondamentalement différent de ceux qui sont généralement étudiés sous la bannière de l' »éthique des robots«  », écrivent les chercheurs.

 

« C’est parce qu’une super intelligence a de multiples facettes, et est donc potentiellement capable de mobiliser une diversité de ressources pour atteindre des objectifs potentiellement incompréhensibles pour les humains, et encore moins contrôlables. »

 

Le raisonnement de l’équipe s’inspire en partie du problème de la halte posé par Alan Turing en 1936. Ce problème consiste à savoir si un programme informatique parviendra ou non à une conclusion et à une réponse (il s’arrête donc), ou s’il tournera en boucle pour en trouver une.

Comme Turing l’a prouvé par des calculs intelligents, si nous pouvons le savoir pour certains programmes spécifiques, il est logiquement impossible de trouver un moyen qui nous permette de le savoir pour chaque programme potentiel qui pourrait être écrit. Cela nous ramène à l’IA qui, dans un état de super-intelligence, pourrait très bien avoir en mémoire tous les programmes informatiques possibles en même temps.

Tout programme écrit pour empêcher l’IA de nuire aux humains et de détruire le monde, par exemple, peut arriver à une conclusion (et s’arrêter) ou non – il nous est mathématiquement impossible d’en être absolument sûrs, ce qui signifie qu’il ne peut être contenu.

 

« En fait, cela rend l’algorithme de confinement inutilisable« , a déclaré l’informaticien Iyad Rahwan de l’Institut Max-Planck pour le développement humain en Allemagne en 2021.

L’alternative à l’enseignement d’une certaine éthique à l’IA et au fait de lui demander de ne pas détruire le monde – ce qu’aucun algorithme ne peut être absolument certain de faire, selon les chercheurs – est de limiter les capacités de la super-intelligence. Elle pourrait être coupée de certaines parties de l’internet ou de certains réseaux, par exemple.

Les auteurs de l’étude ont également rejeté cette idée, estimant qu’elle limiterait la portée de l’intelligence artificielle. L’argument est le suivant : si nous ne l’utilisons pas pour résoudre des problèmes qui dépassent la portée des humains, pourquoi la créer ?

Si nous allons de l’avant avec l’intelligence artificielle, il se peut que nous ne sachions même pas quand une super-intelligence hors de notre contrôle arrivera, tant elle est incompréhensible.

Cela signifie que nous devons commencer à poser de sérieuses questions sur les directions que nous prenons.

« Une machine super intelligente qui contrôle le monde ressemble à de la science-fiction », a déclaré l’informaticien Manuel Cebrian de l’Institut Max-Planck pour le développement humain, également en 2021. « Mais il existe déjà des machines qui accomplissent certaines tâches importantes de manière autonome sans que les programmeurs comprennent parfaitement comment elles l’ont appris. »

« La question se pose donc de savoir si cela pourrait à un moment donné devenir incontrôlable et dangereux pour l’humanité. »

Écrire commentaire

Commentaires: 0