Une vidéo, intitulée "New Robots Makes Soldiers Obsolete (Bosstown Dynamics)" (ou "Les nouveaux robots rendent les soldats obsolètes", en français) et devenue virale en octobre 2019, montrait un robot-soldat tirant sur des cibles en plein désert, tandis que des humains le frappaient. Certains internautes ont pensé qu'il s'agissait d'un vrai robot-soldat conçu par l'armée américaine. La vidéo était en réalité un montage réalisé par l'entreprise Corridor, qui a parodié la chaîne YouTube de Boston Dynamics, qui publie régulièrement les prouesses de ses robots. 

Les robots-soldats de la sorte n'existent pas sur le terrain. Mais la défense et le militaire constituent un secteur qui a bien intégré les dernières avancées technologiques comme l'intelligence artificielle (IA). Des armées du monde entier travaillent et développent des systèmes d'IA pour les aider dans leurs missions. Au point où il existe aujourd'hui des outils spécialement conçus pour brouiller les IA.

Christophe Meyer, directeur de recherche en IA et données de Thales, a expliqué à Business Insider France comment il est désormais possible de tromper une IA de reconnaissance d'images par exemple :

"Concrètement, dans le domaine militaire, je prends une image d'un char militaire et je le fais passer pour une ambulance auprès de ces logiciels, qui sont pourtant extrêmement performants par rapport à vous et moi. Comment ça fonctionne ? On modifie très légèrement les entrées de telle sorte qu'un humain ne voit même pas la différence, mais ça aura un impact important sur le réseau de neurones et donc sur la réponse qui est donnée par l'IA", a-t-il détaillé en marge d'une conférence intitulée "l'intelligence en droit" organisée à Paris le 15 novembre 2019 par le cabinet d'avocats Shearman & Sterling, avec la Commission des Nations-Unies pour le Droit Commercial International (CNUDCI) et le Boston Consulting Group. 

A lire aussi — Ces créations étranges sont conçues pour dérouter les logiciels de reconnaissance faciale

L'IA peut commettre des erreurs qu'aucun humain ne ferait

Le responsable de Thales a précisé qu'il est possible "de leurrer des systèmes de reconnaissance d'images en modifiant des pixels situés à la périphérie de l'image". Il a ensuite donné un exemple simple : "vous avez une image avec un chat en plein milieu, le logiciel vous dit que c'est un chat à 100%. Vous commencez à modifier des pixels aux bords de l'image, même pas sur le chat lui-même. Et le système vous dit, c'est un chat à 90%, 80%... et enfin, c'est une grenouille. C'est là où c'est affolant, car je n'ai même pas modifié les pixels qui constituent le chat."

En fait, le système de reconnaissance d'images prend en compte le contexte, l'environnement dans lequel se trouve le chat. "Si je trafique une image où on voit une vache et on la met dans la mer, le système va dire que c'est un phoque, à cause du contexte, alors que n'importe quel humain vous dirait qu'il s'agit d'une vache dans la mer", a indiqué Christophe Meyer. Les IA peuvent donc commettre des erreurs "bêtes" qu'aucun humain ne ferait. Cela amène ceux qui développent des IA à prendre en considération le fait que "ces systèmes aussi performants soient-ils peuvent eux aussi être leurrés", a-t-il ajouté.

Pour lutter contre cela, il faut utiliser plusieurs systèmes de reconnaissance d'images en même temps, qui vont voter pour dire s'il s'agit d'un char militaire ou non, d'un soldat ou non par exemple. 

A lire aussi — Voici comment une ingénieure en IA imagine le métier de radiologue dans le futur

Le directeur de recherche en IA et données de Thales a par ailleurs estimé qu'une autre problématique complexe liée à l'utilisation de l'IA mérite l'attention et la réflexion des acteurs en jeu (l'utilisateur final, soit l'armée, le prescripteur, soit la Direction générale de l'armement, et l'industriel qui conçoit l'IA) : qui prend la responsabilité de la décision finale entre l'IA et l'humain (et quel humain ?), sachant que certaines situations ne laissent pas un temps de réflexion nécessaire pour que l'humain puisse peser le pour et le contre.

"La décision d'un tir balistique nucléaire sur une nation ennemi, on peut raisonnablement penser que cette décision ne sera pas prise par une IA. Et c'est une réflexion où j'ai le temps de peser le pour et le contre avant d'appuyer sur le bouton. Mais dans d'autres cas, je n'aurai pas forcément le temps. C'est typiquement quand il faut freiner d'urgence sur une voiture autonome. Je n'aurai pas le temps de demander à un conducteur humain s'il est d'accord pour que je freine, sinon il y aura un accident", a détaillé Christophe Meyer. Sans oublier cette question : "à partir de quel moment, je délègue une décision à l'IA ? En temps normal, je ne délègue pas, sauf dans des circonstances exceptionnelles. Mais dans ce cas, quelles sont ces circonstances ?"

En tout cas, la France assure qu'elle ne laissera jamais la décision de tirs — que quelqu'un peut tuer une autre personne — à une IA, peu importe les circonstances.

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : Le chercheur en IA de Spotify nous explique pourquoi cette technologie ne sera jamais une machine à produire des hits en série