iStock via Microsoft

Le développement des intelligences artificielles soulève des questions éthiques. Quel degré d’autonomie ces technologies laisseront-elle à l’homme? A quelles fins nos données sur lesquelles repose leur puissance seront-elles utilisées ? Comment s’assurer que les décisions prises par une intelligence artificielles sont justes ?

"On ne peut pas diriger une entreprise de nouvelles technologies sans être optimiste. Mais on ne peut pas pour autant être un techno-optimiste naïf. L'innovation doit aller de pair avec la responsabilité",  déclarait il y a peu le PDG de Microsoft, Satya Nadella.

Présente dans de nombreux pans de nos vies, professionnelles comme personnelles, l’intelligence artificielle va prendre une place de plus en plus importante dans notre quotidien. C’est pourquoi il convient de définir et d’anticiper les risques pour s’en prémunir, comme le note Accenture dans son étude "Visions Technologiques 2018 ". Sur les 5 tendances majeures structurant l’entreprise d’ici trois ans, le cabinet identifie "l’infaillibilité des données" ainsi que la nécessité de mettre en place "une IA citoyenne": "L’IA est bien plus qu’un programme. Elle devient un membre de la société qui doit être éduqué de façon responsable."

Car si la technologie est neutre, ce sont bien les hommes qui en définissent les usages. L’IA n’a par nature pas de conscience, ni de morale : ce sont les ingénieurs et autres maîtres des algorithmes qui en élaborent les principes et ses frontières. "A nous de faire en sorte que dans la conception même de l'IA nous intégrions en amont des valeurs comme la transparence, l'honnêteté... ", développe le PDG de Microsoft, qui plaide pour une vision humanisée et un usage responsable de l’IA, qui vise à amplifier les capacités et l’ingéniosités humaine. Dans un document récent (*), le géant technologique y détaille ses principes pour une complémentarité homme-robot réussie : placer l’humain au cœur de la machine, démocratiser l’IA en la rendant accessible à tous, et enfin contrôler l’IA, en garantissant la véracité, sécurité et confidentialité des données et en régulant les algorithmes pour s’assurer qu’elles intègrent la diversité et dépassent ses biais initiaux.

Une IA façonnée par toutes et tous

La diversité est ainsi au cœur des enjeux de la construction et du développement de la confiance dans l’IA. Afin que les algorithmes et les solutions intelligentes qui sont développées ne soient pas biaisés et ne favorisent pas des discriminations, la pluralité des équipes de conception est un principe clé à garder à l’esprit. Pour Aurélie Jean, mathématicienne française spécialiste en algorithmes, intégrer des femmes, des personnes issues de minorités ou encore des experts du sujet en question, participe à assurer un monde technologique pour tous:

"Des études ont montré que dans un groupe constitué d’individus similaires, les personnes se concentrent sur leurs similarités pour développer une idée ou un produit, alors que dans un groupe constitué de gens différents, les individus se concentrent sur leurs différences mais aussi sur d’autres différences potentielles." (*)

A l’opposé d’une "black box" qui verrait les machines décider pour nous de ce qui est bien, l’homme reste au cœur du processus et maître du choix final : au fondement du principe de transparence des algorithmes, il y a la nécessité de comprendre le raisonnement derrière les décisions rendues par le robot.

Une IA au service du progrès humain

De fait, les enjeux éthiques de l’IA interrogent ses usages: à quelle fin l’IA est et doit-elle être utilisée? Comment faire en sorte que ces technologies ne soient pas manipulées à des buts contraires aux valeurs qu’elles défendent ? C’est entre autres pour répondre à ces questions que les grandes entreprises du numérique ont fondé en 2016 le consortium Partnership on AI . Éthique, équité, inclusion, confidentialité, interopérabilité….

Les géants technologiques y définissent "les meilleures pratiques" pour ne pas prendre le risque que leurs outils soient utilisés pour violer les droits de l’homme. Alors que Google a annoncé en juin dernier sept grands principes pour encadrer le développement de l’intelligence artificielle, Microsoft a de son côté appelé en juillet le Congrès américain à une règlementation de la reconnaissance faciale.  Des initiatives qui plaident pour une utilisation vertueuse et positive de l’intelligence artificielle qui, mise au service de la santé, de l’éducation ou bien encore de l’environnement, se révèle être un formidable outil de progrès et d’émancipation.

Pour approfondir votre réflexion autour des enjeux éthiques que soulève la montée en puissance de l’intelligence artificielle, rendez-vous les 6 et 7 novembre prochain au Palais des Congrès de Paris où se tiendra "Microsoft experiences18": deux jours de conférences où plus de 300 leaders et experts partageront leurs expériences de transformation numérique.

(*) "Intelligence artificielle : guide de survie. Comprendre, raisonner et interagir autrement avec l’IA", Livre blanc, Microsoft France, 2018.

VIDEO: Voici comment cuire des œufs au micro-ondes