Elon Musk propose de réguler d’urgence les intelligences artificielles — voici 4 raisons de s’inquiéter

Le DG de Tesla Elon Musk durant la cérémonie officielle à Adelaide, en Australie le 7 juillet 2017. AAP/Ben Macmahon/via REUTERS

Elon Musk n'hésite pas à tirer la sonnette d'alarme: "Je travaille sur des formes très avancées d'intelligence artificielle, et je pense qu'on devrait tous s'inquiéter de ses progrès", a-t-il affirmé samedi 15 juillet 2017 devant des gouverneurs américains.

Le fondateur de Tesla et SpaceX, connu pour sa méfiance quant au concept de "machine learning" — quand une machine apprend par elle-même — a même caractérisé l'intelligence artificielle (IA) du "plus grand risque auquel nous faisons face en tant que civilisation".

Selon lui, il est urgent d'encadrer les intelligences artificielles. Bill Gates, le fondateur de Microsoft, partageait déjà cet avis en 2015.

Voici quelques exemples de la manière dont les intelligences artificielles peuvent être utilisées de manière inquiétante voire dangereuse.

1. Créer un "faux" Obama et lui faire dire ce que l'on veut

Des chercheurs de l'université de Washington ont trouvé une manière de manipuler des images de Barack Obama afin de lui faire dire n'importe quelle phrase, en se basant sur des anciens discours. Ils ont publié les résultats dans une étude de juillet 2017 repérée par le site Co.Design

Grâce à des enregistrements audio et une IA capable de recréer des mouvements de la bouche, ils ont créé un "faux" Obama dont les expressions correspondent à un discours prononcé.

En 2016 déjà, des chercheurs de Standford avaient présenté un logiciel similaire qui permettait de calquer les expressions faciales d'un acteur sur des personnalités comme Vladimir Poutine ou Donald Trump.

Dans son article, le site Co.Design souligne combien de telles vidéos peuvent être l'avenir terrifiant des "fake news", ces informations volontairement mensongères qui se propagent facilement sur les réseaux sociaux. A l'avenir, il faudra redoubler de vigilance pour authentifier une vidéo et ne pas seulement se fier aux apparences. 

2. Imiter la voix de n'importe qui en une minute

Dans un futur proche, il n'y a pas que les images qui seront trompeuses. Lyrebird est une appli développée par une startup canadienne créée par des doctorants de l'université de Montréal, a rapporté le Daily Mail. Si vous enregistrez la voix d'une personne pendant une minute seulement, l'IA est ensuite capable de lui faire dire ce que vous voulez. 

Sur le site de l'appli, on trouve quelques exemples de cette technologie, comme ci-dessous avec la voix de Donald Trump.

L'objectif des chercheurs est de prouver que manipuler un enregistrement audio est extrêmement simple. Dans une rubrique de leur site appelée "éthique", ils disent vouloir alerter le public :

"Les enregistrements audio sont souvent utilisés comme pièces à conviction dans de nombreux pays. Notre technologie pose la question de leur manipulation à des fins de contrefaçon ou d’usurpation d’identité. Cela peut avoir des conséquences dangereuses, par exemple en diplomatie ou pour des actes de fraude."

3. Prédire les crimes avant qu'ils ne soient commis

Le postulat du film "Minority Report" (2002), dans lequel il est possible de prédire les crimes avant qu'ils ne se produisent, n'est plus très loin de la réalité. Au Royaume-Uni, des chercheurs de Cambridge ont développé avec les autorités de la ville de Durnham un logiciel appelé "Hart" (Harm Assessment Risk Tool) censé aider les policiers à évaluer le niveau de risque qu'il y a à relâcher un suspect.

Tom Cruise dans "Minority Report" (2002)

Mais plusieurs études ont montré que les intelligences artificielles sont sujettes aux mêmes biais que les humains, et reproduisent ainsi les mêmes discriminations. ProPublica a ainsi montré qu'un algorithme créé pour identifier le taux de récidive des futurs criminels avait des préjugés négatifs sur les personnes noires. 

"L'algorithme a plus tendance à estimer que les personnes noires récidiveront. En moyenne, il leur appose ce risque deux fois plus souvent que pour les accusés blancs", souligne le site.

4. Développer des "armes offensives autonomes"

En juin 2015, un millier d'experts en intelligence artificielle — dont Elon Musk et Stephen Hawking — ont signé une lettre ouverte qui appelait à bannir le développement "d'armes offensives autonomes" dans un contexte de "course à l'armement militaire d'intelligence artificielle". Mais aucune mesure juridique n'a été prise dans ce sens dans le monde.

L'idée de ces "robots tueurs" (killer robots) autonomes, qui n'existent pas encore officiellement, soulève de nombreuses critiques. "Comment est-ce que des gens peuvent penser qu'il est normal de créer des machines qui peuvent tuer par elles-mêmes?" s'indigne ainsi Jody William, prix Nobel de la paix, dans un reportage de Motherboard sur les "Killer Robots".  Elle est membre de l'organisation "Stop Killer Robots".

"S'ils vous disent qu'ils n'armeront pas [ces robots], je veux savoir ce qu'ils ont fumé. Il n'y a rien que les Etats-Unis développe qu'ils ne veulent pas armer", continue-t-elle.

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : Voici les 11 secteurs les plus menacés par l'intelligence artificielle

VIDEO: Ce bandeau connecté vous permet d'écouter de la musique en faisant du sport sans écouteurs