mercredi 13 juin 2018

Les mirages de l’intelligence artificielle


Les mirages de l’intelligence artificielle. Entretien avec Marie David (polytechnicienn, éditrice aux éditions Fromentin) et Cédric Sauviat (polytechnicien, président de l’Association française contre l’intelligence artificielle). Cet article n’est qu’une partie de l’entretien, paru dans Eléments n°170, propos recueillis par Olivier François et Pascal Eysseric. 

Eléments : En 1946, dans la revue chrétienne Dieu vivant, le mystique et islamologue catholique Louis Massignon écrivait cette phrase : « Dans un siècle livré aux puissances de la destruction, et qui a poussé la fureur de l’expérimentation jusqu’à transformer les camps de concentration en laboratoires humains, il est rare que les anticipations, lorsqu’elles présentent un caractère maléfique, ne soient pas finalement confirmée ». Quels monstres l’intelligence artificielle, que vous combattez et dont vous demandez l’interdiction, put-elle se déchaîner sur le monde ? 
Marie David et Cédric Sauviat : C’est bien une « fureur de l’expérimentation », pour citer Massignon, que l’on voit se déchaîner dans les progrès technologiques actuels – que ce soit dans le domaine de l’ingénierie génétique avec la très inquiétante technologie CRISP-R, ou dans celui qui nous concerne, à savoir l’intelligence artificielle (IA). Ce qui est plus inquiétant, c’est que tous ces progrès adoptent le masque d’un langage mielleux. En l’occurrence, se multiplient autour de l’intelligence artificielle les déclarations apaisantes telles que « mettre l’homme au cœur du progrès » ou « veiller à ce que les progrès de l’IA profitent à tout le monde ». Mais comment défendre de telles déclarations lorsque l’intention est précisément de priver l’homme de tout rôle actif, et lorsque ces transformations favorisent un nombre toujours plus restreint d’entreprises et d’individus ? Car c’est effectivement un monde bien inhumain et bien injuste qui se dessine. 

S’il n’y a pas aujourd’hui de consensus autour de ce qu’est ou n’est pas l’intelligence artificielle, une chose est sûre : tous les progrès de l’IA ces dernières années, du moins les plus spectaculaires et les plus médiatisés, concernent des domaines où la machine émule les capacités cognitives humaines : vision, compréhension du langage. Nous ne pensons pas que les théoriciens et les ingénieurs qui développent aujourd’hui des systèmes d’IA dissimulent volontairement des intentions néfastes. En revanche, ce qui est probable, c’est qu’à leur insu, ils sont fascinés par le mythe du Golem ou de Frankenstein, en cherchant à développer des algorithmes toujours plus puissants, dont les récentes réussites (victoires contre des humains aux échecs ou au Go) ne sont – nous le craignons – qu’une mince préfiguration de ce qui nous attend. Des algorithmes sont désormais capables de composer des morceaux de musique classiques, indiscernables de morceaux composés par de vrais musiciens, ou de passer les tests d’admission à des Universités japonaises. Mais entre émuler et dépasser, la barrière est mince, et une fois franchie, une fois que l’humain fait moins bien que la machine, quelle place lui reste-t-il ? A quoi servirait l’éducation dans un monde où le travail et l’administration ne relèveraient plus des humains ? Comment fonctionnerait la société ? Plus généralement, quelle place resterait-il pour notre libre arbitre et notre autonomie si toutes nos décisions étaient assistées par des algorithmes ? Dans Homo Deus, l’historien et vulgarisateur Noah Yuval Hariri montre qu’on pourrait tout à fait parvenir à une société où des algorithmes administreraient la vie politique, et le fonctionnement des entreprises, tandis que les humains se contenteraient d’un éternel divertissement, casque de réalité virtuelle sur la tête. 

Reste le risque d’une IA potentiellement incontrôlable et qui, d’une façon ou d’une autre, prendrait des décisions néfastes à l’humanité. On nous oppose souvent l’argument, selon lequel l’IA dite faible ne s’attaque qu’à des tâches parcellaires et bien délimitées, mais il ne nous paraît pas recevable. Comment être sûr qu’on ne réunira pas dans un même système ces différentes compétences cognitives ? C’est d’ailleurs le projet avoué de plusieurs projets de recherches. Dans la Silicon Valley règne le mythe du « bouton rouge », un mécanisme de sauvegarde que l’on pourrait activer si l’IA se révélait incontrôlable. Mais si vraiment cette intelligence nous a dépassés, comment s’assurer qu’elle n’arrivera pas à désamorcer ce mécanisme ? 

Nous aimerions avoir tort et nous révéler trop pessimistes, mais nul ne sait dire chez les spécialistes où exactement s’arrêteront les progrès de l’intelligence artificielle. On nous répète qu’elle n’aura rien à voir avec l’intelligence humaine, ce qui est vrai, mais comment notre espèce pourra-t-elle cohabiter avec une forme d’intelligence étrangère et potentiellement plus puissante que la nôtre ? Il suffit de penser à la façon dont l’espèce humaine a causé l’extinction de la majorité des espèces animales, avec qui pourtant nous avons bien plus de points communs, ne seraient-ce que biologiques, pour s’inquiéter. 

Eléments n°170, février mars 2018