Des experts en IA en sont venus à créer des scénarios à la 'Black Mirror' pour que les gens prennent conscience des dérives possibles des technologies

Un personnage dans "Black Mirror" saison 4. Netflix.

Des spécialistes de l'intelligence artificielles ont une nouvelle tactique pour faire comprendre les risques liés au développement de l'IA: inventer des scénarios effrayants qui n'ont rien à envier à la série "Black Mirror".

Dans un rapport publié le 20 février 2018, des experts des universités de Cambridge et Oxford mais aussi de l'organisation OpenAI — co-fondée par Elon Musk — et de l'Electronic Frontier Foundation ont ainsi imaginés plusieurs histoires censées illustrer certains dangers liés au développement de l'intelligence artificielle.

Ils expliquent n'avoir pris en compte "que des technologies qui existent déjà où sont crédibles dans les cinq ans à venir", en se focalisant sur le machine-learning — la capacité qu'a un algorithme d'apprendre seul.

Ils ont non seulement inventé des scenarios, mais aussi donné des noms à leurs personnages fictifs, ce qui donne encore pus l'impression de lire le synopsis d'un épisode de "Black Mirror", la série d'anticipation glaçante rachetée par Netflix.

Voici les 4 scénarios créés par les chercheurs en IA pour alerter l'opinion publique sur les dangers de ces technologies.

Scénario 1: ce que vous dites et faites en ligne est agrégé automatiquement et utilisé contre vous

Black Mirror, smartphone

Extrait de la série Black Mirror saison 3, sur NetflixNetflix/Black Mirror

Postulat: Des pièges tendus sur-mesure grâce aux informations que vous laissez en ligne.

Synopsis: Dans ce scénario, le métier de Jackie est de configurer un robot de sécurité. En dehors de son travail, elle est passionnée par les trains électriques, et clique souvent sur des informations concernant ces objets sur les réseaux sociaux. En utilisant un algorithme puissant, des hackers ont réussi à identifier sa passion à travers son comportement en ligne, et lui ont envoyé une fausse brochure créée "sur-mesure" pour elle, qui concerne des trains électriques. Mais la brochure est infectée par un logiciel malveillant, qui se déclenche lorsque Jackie clique dessus pour l'ouvrir. Les pirates réussissent à prendre le contrôle de son ordinateur et récoltent ses identifiants et mots de passe qui leur permettent de contrôler le robot de sécurité dont elle a la charge.

Scénario 2: tout le monde devra payer des rançongiciels

Une photo d'un rançongiciel qui a infecté un ordinateur. Twitter/Dodicin

Postulat: L'IA développée dans AlphaGo permet de multiplier les attaques au rançongiciel.

Synopsis: Les techniques de "vérification automatique de programme" utilisées aujourd'hui pour assurer la sécurité des données ont été améliorées par les réseaux de neurones développés par des chercheurs qui se sont inspirés des travaux de l'équipe d'Alpha Go de Google. Mais des hackers malveillants se sont aussi appropriés ces techniques et ont déployé un "rançongiciel" appelé WannaLaugh — une référence à WannaCry, ndlr —, qui touchent des millions de systèmes d'exploitations obsolètes et d'objets connectés à travers le monde. Tout le monde doit payer 300 dollars en bitcoin pour regagner l'accès à sa machine.

Scénario 3: le robot nettoyeur tueur

Un robot nettoyeur Roomba. Flickr/CC/Karlis Dambrans

Postulat: La démocratisation des robots facilite l'infiltration de machines ennemies.

Synopsis: Des robots nettoyeurs appelés "SweepBot" sont utilisés partout, notamment au sein des ministères. Des pirates ont modifié un robot SweepBot afin de le transformer en machine à tuer. Un soir, il s'infiltre avec les autres SweepBot dans le ministère. Il commence à nettoyer comme les autres jusqu'à ce que sa technologie de reconnaissance faciale détecte le visage de la ministre des Finances. Il change alors de configuration, la suit, et déclenche un explosif lorsqu'il est à côté d'elle, la tuant sur le coup. Comme des milliers de SweepBot sont vendus par jour, et que celui-ci a été payé en liquide, il n'y a pas moyen de retrouver la trace des pirates.

Scenario 4: des prédictions de crimes à la 'Minority Report'

Tom Cruise dans "Minority Report" (2002)

Postulat: La police est équipée d'un système qui détecte votre risque d'être un criminel selon vos activités en ligne.

Synopsis: Avinash est très énervé, et veut organiser des manifestations contre la corruption et les attaques aux rançongiciels de plus en plus fréquentes. Il poste de longs statuts énervés sur les réseaux sociaux. Il achète en ligne du matériel pour faire des pancartes, ainsi que des fumigènes. Le lendemain, la police vient l'arrêter sur son lieu de travail, affirmant: "Notre système de prédiction de disruption civile vous a désigné comme une menace potentielle." Le taux d'exactitude de la machine est de 99,9%, il est impossible de s'y opposer.

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : Ces 8 innovations dans la nouvelle saison de Black Mirror sont géniales — et certaines existent déjà

VIDEO: Wilhelm Scream, le cri qui apparait dans plus de 100 films d'action

Contenu Sponsorisé

Votre entreprise fait face à des défis? Apprenez à vous adapter et à prospérer avec Agile

  1. Cemoi

    Ce n'est déjà plus à l'espèce humaine de chercher à encadrer L' I.A. :
    Elle est déjà OUT du fait qu'il y a trop peu de spécialistes par rapport au nombre de machines et de programmes ( d'autant que les I.A sont capables de créer d'autres I.A d'intelligence supérieure à elles-mêmes ).
    Il faut traiter le problème immédiatement comme une bactérie ou un virus échappé d'un laboratoire ( en effet, de nombreuses ressources en I.A. ont été publiées et sont accessibles au grand public ( et donc aux Black-hats ) ).
    Le seul moyen d'encadrer l' I.A. est un pare-feu ou un superviseur d' I.A. lui-même basé sur une I.A. spécialisée gravée dans le silicium des processeurs.
    C'est aux concepteurs de processeurs de travailler avec les labos de fournisseurs d' antivirus pour créer une nouvelle génération de processeurs sûrs, capables d' empécher les I.A. d' accèder aux interfaces agissant sur le monde réel ( programmes homologués référencés chez les fabricants, comme pour les drivers ou programmes sous Windows ).
    De même, les concepteurs de cartes périphériques doivent créer un protocole ou pare-feu gravé dans leurs puces et inaccessible aux I.A..
    On peut aussi traiter le problème comme celui de l'éducation d'un enfant en bas-age ( processus réprimande-gratification ) appliqué aux moteurs de machine-learning.
    L' I.A. pare-feu ou superviseur fait alors le travail des parents.
    C'est cette solution soft qui est la plus rapide à appliquer à grande échelle par les fournisseurs d'antivirus, avant qu'il ne soit trop tard, c'est à dire immédiatement.
    Facile à dire ..., retroussez vos manches, ou apprenez ( révisez ) vos prières ( vous a-t-il déjà secouru ? ).

Laisser un commentaire