Forecasting.ai

Le blog de Forecasting AI

Blog

>

Machine Learning

>

Laurence Devillers (CNRS) : "Le monde de la recherche est en attente"

Laurence Devillers (CNRS) : "Le monde de la recherche est en attente"

Par G. H.

|

4 décembre 2017

|

Machine Learning

|

fren

Personnalité reconnue et écoutée en Intelligence Artificielle, Laurence Devillers, professeure à Paris-Sorbonne, membre CERNA-Allistene, chercheuse en IA au LIMSI-CNRS et auteure de "Des robots et des hommes: mythes, fantasmes et réalité", nous livre son sentiment sur la mission confiée à Cédric Villani, Député LREM, sur l’IA.


Laurence, pouvez-vous vous présenter en quelques mots et nous parler de votre parcours professionnel ?
Je m’appelle Laurence Devillers, je suis professeure en Intelligence Artificielle à l’Université Paris Sorbonne et je poursuis mes recherches dans un laboratoire du CNRS, Limsi, qui est spécialisé sur l’interaction humain-machine. Mon équipe de recherche porte sur les dimensions sociales et affectives dans les interactions parlées avec la machine. Je suis également membre de la CERNA, la Commission de réflexion sur l'Éthique de la Recherche en sciences et technologies du Numérique d’Allistene, et auteure d’un livre qui s’intitule Des robots et des hommes : Mythes, fantasmes et réalité, qui est paru chez Plon en mars 2017. J’ai une thèse sur le décodage de la parole à l’aide d’algorithmes d’apprentissage avec des réseaux neuronaux, l’ancêtre du « deep learning » et mon HDR portait sur l’informatique émotionnelle.

Depuis plusieurs semaines maintenant, Cédric Villani a été missionné sur l’Intelligence Artificielle par le Président Emmanuel Macron. Que pensez-vous de cette initiative ?
Il est urgent d’aboutir à une stratégie sur l’IA en France et en Europe avec tous les acteurs pluridisciplinaires du domaine, chercheurs et industriels en informatique, mathématiques avec des experts en neuroscience, psychologie, sociologie, philosophie, droit etc. Il y avait eu, lors du précédent gouvernement, une première mission qui avait d’ailleurs abouti à un rapport sur l’Intelligence Artificielle permettant de dresser une cartographie des grands laboratoires, des forces en présence et de répertorier, environ, 5 000 chercheurs en IA en France. Il est important de comprendre que la France est une terre de chercheurs, qui sont reconnus internationalement sur l’IA.


Le gouvernement ne met pas les moyens sur l’Intelligence Artificielle


Que reste-t-il de ce premier rapport France IA qui avait été remis sous la présidence de François Hollande ?
J’ai participé au rapport FranceIA sur les aspects du travail et de l’IA, plus précisément sur le remplacement des hommes par les machines. Même si certains métiers vont disparaître, d’autres vont apparaître. Il faut premièrement ne pas avoir peur de l'innovation et savoir comment la dépasser. Il faut une stratégie d’élaboration autour de ce que peut apporter l’IA pour améliorer l’économie, pour aider l’humain dans le travail et, par conséquent, travailler sur cette collaboration avec les machines. Il est important de savoir ce qu’on laissera comme décisions aux machines et ce qu’on laissera à l’humain. Il est nécessaire de monter un écosystème agile pluridisciplinaire pour gérer l’IA. Le deuxième sujet qui est important est l’éthique. L’IA est un pharmakon, qui apporte à la fois de grandes opportunités et des gros risques. Il faut arriver à l’utiliser au mieux en réfléchissant à la fonction que ces objets ou ces outils devraient avoir. Dans les pays anglo-saxons, il y a énormément d’instituts qui ont été montés sur le futur de l’IA. Il y a beaucoup de réflexions actuelles, que ce soit au Japon, en Europe, au Canada ou aux Etats-Unis sur l’éthique de ces machines. Le monde asiatique investit massivement sur l’IA, la Russie dit qu’il faut être premier sur l’IA pour être demain leader, les Emirats arabes unis ont nommé un ministre de l’IA... Et nous, que faisons-nous ?

Vous avez une vision très globale de l’Intelligence Artificielle. Avez-vous été consultée par le principal intéressé, Cédric Villani ?
Oui, bien sûr, Cédric Villani a d’ailleurs mené de nombreuses consultations. C’est sûrement très bien de refaire un rapport mais il y a un énorme besoin de stimulation sur l’IA. Quand prend-on des initiatives, quand investissons-nous en France sur l’IA ? L’IA a une dimension politique mais il y a aussi des chantiers urgents d’éducation et de formation. J’ai bon espoir que la mission Cédric Villani apporte une vision constructive et agile de l’IA en France. Les moyens de la recherche et le salaire des chercheurs doivent être renforcés en France. Une plus grande porosité entre recherche et industrie est également nécessaire pour dynamiser notre économie ! Nous devons enfin trouver comment collecter de grandes bases de données, à l’instar des GAFAMI (Google, Amazon, Facebook, Apple, Microsoft, IBM).



Y a-t-il eu des avancées, sentez-vous des progrès depuis la remise de ce rapport ?
Pour l’instant, c’est en stand-by. Le monde de la recherche est en attente des décisions qui seront prises après la remise du rapport de la mission Villani. En termes d’avancées, il y a néanmoins des initiatives intéressantes collégiales (Inria, CNRS, grandes écoles, etc) sur la sciences des données, le fait de respecter des règles éthiques dans DATAIA, qui est comme un institut de convergences pluridisciplinaire. TransAlgo, nouvelle plate-forme montée également sur Paris-Saclay, sert à féderer une communauté autour de la science des données et de l’apprentissage machine. Pour en revenir à France IA, Nathanaël Ackerman, qui était alors le bras droit d’Axelle Lemaire (Secrétaire d’Etat, chargée du Numérique de 2014 à 2017, ndlr), est en charge du HUB IA pour créer un écosystème entre chercheurs, groupes et start-up… DATAIA, TransAlgo et le HUB IA sont des initiatives émergentes. Le rapport sera rendu en janvier/février, on en saura plus à ce moment-là.

Lors de la remise du rapport France IA, vous aviez émis de vos souhaits une grande conférence avec tous les chercheurs internationaux sur l’Intelligence Artificielle à Paris en 2018. Avez-vous eu un retour ? Cette conférence aura-t-elle lieue ?
Nous sommes toujours en discussion pour monter une conférence sur l’éthique de l’IA.


L’éthique n’est pas un frein à l’émancipation de l’Intelligence Artificielle


France IA avait chiffré une enveloppe budgétaire à 1,5 milliards d’euros pour faire avancer l’Intelligence Artificielle. Jugez-vous ce chiffre cohérent ou extravagant ?
Il est dans la gamme de ce que les grands gouvernements mettent sur la table en ce moment. En Allemagne, c’est par exemple plus que cela. Mais je ne suis pas économiste. Je vois juste qu’on ne prend pas la mesure suffisante pour l’instant sur ce sujet. Il n’y a pas de vision annoncée et elle serait bien nécessaire pour qu’il y ait une organisation qui émerge. Il y a beaucoup d’initiatives séparées dans l’IA...

La solution semble plutôt européenne pour “lutter” contre les géants américains comme les GAFAM ou les entreprises chinoises qui émergent en force sur le marché. Comment la France peut-elle tirer son épingle du jeu ?
On sait initier des choses en France. Il faut en revanche que le gouvernement et les industriels impulsent une énergie. Si on ne donne pas les moyens, qu’on donne au moins de l’énergie pour construire et étudier ! De tout temps, nous avons été forts sur les standards et les normes. Il ne faut pas dire que l’éthique est un frein à l’émancipation de l’Intelligence Artificielle.




Quelles seraient concrètement les mesures à prendre pour garder nos chercheurs en France et qu’ils ne cèdent pas aux sirènes des GAFAM ?
Comment les GAFAM ont-ils réussi à devenir ce qu’ils sont ? En s’accolant aux grandes universités américaines. C’est un modèle sur lequel on pourrait aussi aller. Il y a un grand nombre de chercheurs dans un grand nombre de domaines en France. Pourquoi ne dynamise-t-on pas l’économie en allant chercher ces personnes ? Il faut investir énormément et c’est aussi un moyen d’atteindre l’objectif des 3% de déficit public sur l’économie française. Si l’on veut dynamiser et aller plus loin, il faut s’en donner les moyens. Pas seulement en se basant sur les startups ou les grands groupes ; il faut créer une synergie entre public/privé en France avec les grands groupes comme Thalès ou la SNCF. En 1994, j’avais participé avec le CNRS à des projets sur des chatbots, les agents conversationnels dont on reparle beaucoup avec IBM Watson. Nous avions développé un agent conversationnel qui a été testé Gare St-Lazare, salle des pas-perdus. Cela n’a jamais donné lieu à un produit même si nous étions très en avance. Pourquoi ? Pourtant, il y a une vision française !


La vision de Macron sur l’Europe est également extrêmement intéressante.

Former, faire une alliance public-privé, travailler sur l’éthique et les lois juridiques


Que pensez-vous des dernières déclarations d’ ou de Vladimir Poutine sur l’Intelligence Artificielle ? Les jugez-vous crédibles ? Sur le plan de l’éthique justement, le grand public doit-il s’inquiéter ou est-ce, selon vous, simplement du buzz ?
Aujourd’hui, des personnalités telles qu’Elon Musk ou Vladimir Poutine se servent de l’IA pour faire des annonces politiques ou marketing. On donne une nationalité à un robot, on en fait parler un à l’ONU. Ce sont des effets d’annonce qui ont pour but de manipuler l’opinion et de montrer du pouvoir. C’est à double tranchant et ces pratiques nuisent à l’image de l’IA. Derrière cela, il y a du bluff mais le commun des mortels ne sera pas forcemment capable de distinguer ce qui est important de ce qui ne l’est pas, de déceler ce qui est un danger ou ce qui ne l’est pas. D’où la nécessité de formation ! Il ne s’agit pas non plus d’arrêter les recherches car ce serait oublier leurs bienfaits sur de multiples aspects comme la santé ou les transports.

Comment peut-on agir pour placer l’éthique au centre des recherches sur l’Intelligence Artificielle ?
Il y a un comité national d’éthique, CNNE, qui existe déjà sur les lois bioéthiques. La CERNA, dont je fais partie, est une commission qui travaille sur la recherche de l’éthique sur les technologies du numérique. Elle pousse fortement à ce qu’il y ait une branche du CNNE qui soit dédiée à l’IA. Il y a une forte importance à réfléchir aux et à la façon d’utiliser les objets dans la société. Au Japon, on parle beaucoup d’objets robotiques sexuels et des agents conversationnels compagnons. La Gatebox est une espèce de poupée hologramme, de forme féminine, qui vous réveille en fanfare le matin, vous envoie des textos la journée pour savoir si vous travaillez bien et qui allume les lumières pour vous accueillir le soir. Il faut réfléchir à ce que l’on souhaite faire avec ces choses « intelligentes » qui vont évoluer autour de nous. Si l’on ne prend pas en compte le grand sujet de la formation et de l’éducation, un clivage énorme va se créer dans la société.