Publicité

Les humains seraient incapables de contrôler une IA superintelligente, selon une étude

  • Recevoir tous les articles sur ce sujet.

    Vous suivez désormais les articles en lien avec ce sujet.

    Ce thème a bien été retiré de votre compte

Les humains seraient incapables de contrôler une IA superintelligente, selon une étude
Les machines effectuent déjà certaines tâches sans que les humains ne comprennent comment elles l'ont appris. © Reuters
Publicité

Il ne serait théoriquement pas possible de prédire les actions de l'intelligence artificielle, selon une étude de l'Institut Max-Planck pour les hommes et les machines. "Une machine super-intelligente qui contrôle le monde ressemble à de la science-fiction", admet Manuel Cebrian, co-auteur de l'étude et chef du groupe de recherche. "Mais il existe déjà des machines qui effectuent certaines tâches importantes de manière indépendante, sans que les programmeurs ne comprennent parfaitement comment elles l'ont apprise".

Notre société s'oriente de plus en plus vers une dépendance à l'intelligence artificielle. Des entretiens d'embauche interactifs menés par l'IA à la création de musique et même de mèmes, l'IA fait déjà partie intégrante nos vies. Selon l'étude publiée dans le Journal of Artificial Intelligence Research, pour prédire les actions d'une IA, il faudrait faire une simulation exacte de cette superintelligence.

A lire aussi — Microsoft a breveté un chatbot qui pourrait reproduire un être cher décédé ou une célébrité

La question de savoir si une superintelligence pourrait être contenue n'est pas nouvelle. Manuel Alfonseca, co-auteur de l'étude et chef du groupe de recherche du Centre pour l'homme et la machine de l'Institut Max-Planck, a déclaré que tout tourne autour d'algorithmes restrictifs qui ne sont pas différents de la première loi de la robotique d'Asimov, selon l'IEEE.

En 1942, le prolifique auteur de science-fiction Isaac Asimov a exposé les trois lois de la robotique dans sa nouvelle "Runaround", dans le cadre de la série "I, Robot". Selon Asimov, un robot ne doit pas pouvoir faire de mal à un humain ou lui permettre de faire du mal, il doit obéir aux ordres sauf si ces ordres sont en conflit avec la première loi et il doit se protéger, à condition que cela ne soit pas en conflit avec la première ou la deuxième loi.

Les scientifiques ont exploré deux façons différentes de contrôler l'intelligence artificielle, la première étant de limiter l'accès d'une IA à Internet.

L'équipe a également étudié le "problème d'arrêt" d'Alan Turing, concluant qu'un "algorithme de confinement" pour simuler le comportement de l'IA — où l'algorithme "arrêterait" l'IA si elle allait nuire aux humains — serait tout simplement irréalisable.

Le problème de l'arrêt d'Alan Turing

Le problème d'arrêt d'Alan Turing consiste à déterminer si un programme peut être arrêté à l'aide d'algorithmes de confinement ou s'il continuera à fonctionner indéfiniment. On pose à une machine diverses questions pour savoir si elle parvient à des conclusions ou si elle est prise au piège dans un cercle vicieux.

Ce test peut également être appliqué à des machines moins complexes — mais avec l'intelligence artificielle, cela est compliqué de par leur capacité à conserver tous les programmes informatiques dans leur mémoire.

"Une superintelligence pose un problème fondamentalement différent de ceux qui sont généralement étudiés sous la bannière de l'éthique des robots", expliquent les chercheurs.

A lire aussi — Elon Musk met en garde ceux qui pensent que l'IA ne pourra pas être plus intelligente qu'eux

Si l'intelligence artificielle était éduquée en utilisant les lois de la robotique, elle pourrait être capable de parvenir à des conclusions indépendantes, mais cela ne signifie pas qu'elle peut être contrôlée.

"La capacité d'adaptation des ordinateurs modernes à l'aide d'algorithmes d'apprentissage sophistiqués rend encore plus difficile la formulation d'hypothèses sur le comportement éventuel d'une IA superintelligente", considère Iyad Rahwan, un autre chercheur de l'équipe.

Iyad Rahwan avertit que l'intelligence artificielle ne devrait pas être créée si elle n'est pas nécessaire, car il est difficile de prédire son évolution potentielle et nous ne pourrons pas forcément limiter ses capacités. Nous ne saurons peut-être même pas quand les machines superintelligentes seront arrivées, car essayer d'établir si un appareil est superintelligent par rapport aux humains n'est pas chose aisée.

Au rythme actuel de développement de l'IA, ce conseil n'est peut-être qu'un vœu pieux, car des entreprises allant de Baker McKenzie à des géants de la tech comme Google, Amazon et Apple sont encore en train d'intégrer l'IA dans leurs activités — il se peut donc que ce ne soit qu'une question de temps avant que nous ayons une superintelligence sur les bras.

Malheureusement, il semble que les lois sur la robotique seraient impuissantes à empêcher un éventuel "soulèvement des machines", et que le développement de l'IA est un domaine qui doit être exploré avec prudence.

Version originale : Abraham Andreu et Jeevan Ravindra/Business Insider Espagne

A lire aussi — Elon Musk : 'Les gens devraient se demander si ce n'est pas leur téléphone qui les possède'

Découvrir plus d'articles sur :