Download_on_the_App_Store_Badge_FR_RGB_blk_100517

Des scientifiques ont créé une IA psychopathe obsédée par le meurtre baptisée Norman — et elle a tout appris sur Reddit

Des scientifiques ont créé une IA psychopathe obsédée par le meurtre baptisée Norman — et elle a tout appris sur Reddit
© MIT
  • Des chercheurs du MIT ont programmé une intelligence artificielle en utilisant uniquement des contenus violents et choquants de Reddit.
  • Ils l'ont appelée "Norman".
  • Résultat, Norman a une obsession pour la mort.
  • Ce n'est pas la première fois qu'une intelligence artificielle sombre du côté obscure à cause d'internet — c'est déjà arrivé à "Tay", de Microsoft.

Bon nombre de personnes craignent les intelligences artificielles. Peut-être parce qu'ils ont vu trop de films comme "Terminator" ou "I, Robot", dans lesquels les machines se dressent contre les humains, ou peut-être parce qu'ils pensent trop à Roko's Basilisk.

En vérité, il est possible de créer une IA obsédée par le meurtre.

C'est ce que les scientifiques Pinar Yanardag, Manuel Cebrian et Iyad Rahwan ont fait au Massachusetts Institute of Technology, lorsqu'ils ont programmé un algorithme d'IA, l'exposant uniquement à des contenus violents et atroces provenant de la plateforme Reddit, et qu'ils ont appelé "Norman".

Le nom de Norman vient de Norman Bates, le personnage principal du roman "Psycho", et "représente une étude de cas sur les dangers des dérives de l'Intelligence Artificielle, quand des données biaisées sont utilisées dans les algorithmes de machine learning", d'après le MIT.

Les scientifiques ont testé Norman pour voir comment il répondrait aux tests des tâches d'encre — ces images ambigües parfois utilisées par les psychiatres pour déterminer les traits de personnalité et le fonctionnement émotionnel des gens.

Avec la première tâche d'encre, un programme d'IA classique verrait "un groupe d'oiseaux nichés sur le haut d'une branche d'arbre". Norman, cependant, y a vu "un homme électrocuté à mort".

Là où les IA normales voient un oiseau noir et blanc, une personne tenant un parapluie ou un gâteau de mariage, Norman voit un homme pris au piège dans une machine à pâtes, un homme tué par un chauffard et "un homme abattu devant sa femme".

"Norman n'observe que des images terrifiantes. Il voit donc la mort sur chaque image qu'il regarde", ont dit les chercheurs à CNNMoney.

Internet est un endroit sombre, et d'autres expériences en IA ont démontré que les choses peuvent rapidement dégénérer, dès lors qu'une intelligence est exposée aux pires endroits et aux pires personnes qui les côtoient. "Tay", le bot Twitter de Microsoft, a été débranché quelques heures après son lancement en 2016, parce qu'il commençait à répandre des discours de haine, des injures raciales et niait l'existence de la Shoah.

Mais tout n'est pas perdu pour Norman. L'équipe croit qu'il est possible de l'aider à adopter une attitude moins "psychopathe", en apprenant des réponses provenant d'humains pour les mêmes tests de tâches d'encre. Les IA peuvent aussi être utilisées à de bonnes fins, comme l'a montré le MIT, avec un algorithme appelé "Deep Empathy" l'année dernière, pour aider les gens à se rapprocher des victimes de catastrophes naturelles.

Mais Norman n'a pas manqué d'affoler les gens sur internet.

Voici quelques réactions des gens sur Twitter, à propos de Norman:

"1984: comment Terminator est né? Qui s'est dit que créer un robot psychopathe était une bonne idée?

2018:"

"Au cas où vous avez besoin d'alimenter vos cauchemars...

Je ne comprends pas pourquoi le @MIT a fait ça.

N'avez-vous rien d'autre à faire?

*fait de grands gestes*"

"Imaginez que vous vous faites tuer par le robot le plus insupportable de la planète et que la dernière chose que vous entendez avant de mourir, c'est 'ad hominem'"

Version originale: Lindsay Dogson/Business Insider

Business Insider
Découvrir plus d'articles sur :