Demis Hassabis

Demis Hassabis, DG de DeepMind. YouTube/Royal Television Society

DeepMind a recruté des experts afin de réduire les risques que son intelligence artificielle ne se transforme en quelque chose de dangereux, selon LinkedIn et d'autres sources. 

Le laboratoire d'intelligence artificielle basé à Londres, qui a été racheté par Google en 2014 pour 650 millions de dollars, est en train de mettre au point des systèmes informatiques capables d'apprendre et de penser par eux-mêmes. 

Jusqu'à présent, les algorithmes de l'entreprise ont été utilisés pour battre les humains à des jeux complexes comme le Go et ont aidé Google à réduire son importante facture d'électricité. Mais DeepMind ne compte pas s'arrêter là : à terme, il veut "résoudre l'intelligence" et l'utiliser pour "rendre le monde meilleur". 

Afin de réduire les risques de créer une intelligence artificielle dangereuse, DeepMind a recruté Viktoriya Krakovna, Jan Leike, et Pedro Ortega au sein de son équipe chargée de la sécurité de l'intelligence artificielle. On ne sait pas exactement quand cette équipe a été formée. 

Certains des esprits les plus brillants d'aujourd'hui, dont le physicien Stephen Hawking et le fondateur de Tesla Elon Musk, ont prévenu que les machines "superintelligentes" — décrites dans un livre intitulé "Superintelligence" écrit par le philosophe de l'Université d'Oxford Nick Bostrom — pourraient finir par être l'une des plus grandes menaces pour l'humanité. Ils s'inquiètent du fait qu'elles pourraient se montrer plus rusées que les humains dans quelques décennies et ainsi décider que nous n'étions plus d'aucune utilité.

Viktoriya Krakovna, qui a rejoint DeepMind comme chercheuse scientifique, détient un doctorat en statistiques à l'Université d'Harvard et a cofondé le Future of Life Institute à Boston avec le cosmologiste du MIT Max Tegmark et le cofondateur de Skype Jaan Tallinn.

L'institut en question, qui compte Stephen Hawking and Elon Musk au comité consultatif, a été créé pour réduire les risques existentiels qu'encourent l'humanité, en particulier ceux provenant d'intelligence artificielle avancée (AI).

Alors qu'à DeepMind, l'ex-ingénieure de Google va mener des recherches techniques sur la sécurité de l'intelligence artificielle, selon son profil LinkedIn. 

Jan Leike a aussi rejoint DeepMind comme chercheur, d'après son site web.

En plus de son poste à DeepMind, Jan Leike est aussi chercheur au Future of Humanity Institute, à l'Université d'Oxford, dirigé par Nick Bostrom.

Sur son site web, Jan Leike écrit : "Mes recherches servent à rendre l'apprentissage automatique fiable et bénéfique. Je travaille sur des problèmes d'apprentissage par renforcement : comment peut-on concevoir ou apprendre une bonne fonction objectif ? Comment peut-on concevoir des agents pour qu'ils puissent agir dans nos meilleurs intérêts ? Comment peut-on éviter des solutions dégénérées à la fonction objectif ?"

Pedro Ortega, également chercheur à DeepMind, détient un doctorat en apprentissage automatique de l'Université de Cambridge. Selon la mini biographie publiée sur son site web : "Son travail comprend l'application d'idées de théorie de l'information et de mécanique statistique à la prise de décision séquentielle."

DeepMind n'a pas immédiatement donné suite à la demande d'interview de Business Insider UK. 

Version originale : Sam Shead/Business Insider UK

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : L’intelligence artificielle de Google lit mieux sur les lèvres qu’un humain — mais ce n’est pas encore un outil de surveillance efficace

VIDEO: Airbus veut vous faire voyager dans la soute d'un avion dès 2020 — voici à quoi ça pourrait ressembler