Intelligence Artificielle et éthique font-elles bon ménage ?
L'Intelligence Artificielle et l'éthique parviendront-elles un jour à ne faire qu'une ou, au moins, à vivre ensemble ? Homophobe, raciste ou sexiste, tels sont les mots en tout cas aujourd'hui employés par ses détracteurs pour qualifier l'IA.
L'Intelligence Artificielle et l'éthique sont de retour sur le devant de la scène. Depuis la semaine dernière exactement, et la publication d'un projet de recherche de Michal Kosinski et Yilun Wang, deux chercheurs de Stanford, sous le titre : "Les réseaux neuronaux profonds sont plus précis que les humains pour détecter l'orientation sexuelle à partir de la photo d'un visage" ! C'est peu de dire que ce projet de recherche a fait couler beaucoup d'encre. Les plus éminents spécialistes de l'IA et philosophes ont alors donné leurs avis, émis des jugements et, surtout, imaginé des limites pour éviter des dérives à plus long terme. Dans les colonnes du Guardian, l'éditorialiste Matthew Todd, qui se posait d'ailleurs légitimement la question de savoir qui voudrait bien utiliser une IA pour définir s'il était gay ou hétéo, a ainsi rappelé qu'"il y a encore 72 pays dans le monde où les activités sexuelles avec une personne du même sexe sont illégales, 8 où elles sont passibles de la peine de mort"... Des chiffres qui se passent de commentaire !
L'Intelligence Artificielle préfère les hommes...
Sans en arriver jusque-là, l'Intelligence Artificielle est aussi capable de savoir quel visage peut se cacher sous une fausse barbe, fausse moustache, fausses lunettes, voire encore plus fort, sous des cagoules. Une IA conjointement élaborée par des chercheurs britanniques de l'Université de Cambridge et des chercheurs indiens du National Institute of Technology de Warangal et de l'Indian Institute of Science. L'apprentissage profond, ou deep learning, a encore permis de développer cette Intelligence Artificielle qui, ne nous le cachons pas, met à mal le concept d'anonymat dont certains individus voudraient se prévaloir dans un monde où la frontière vie publique/vie privée est de plus en plus mince. Réponse laconique d'Amarjot Singh, à l'origine de cette Intelligence Artificielle du côté de Cambridge : "Il y a plus de bénéfices que de nuisances à tirer de cette technologie."
Voilà un an, d'autres scientifiques, russes cette fois-ci, s'étaient mis en tête d'organiser un concours de beauté avec, pour seul jury, une Intelligence Artificielle entraînée elle aussi au deep learning. Six cent mille hommes et femmes avaient envoyé une photo. Quarante-quatre vainqueurs, selon les catégories, avaient été sélectionnés par le bot. Trente-huit étaient blancs, six étaient asiatiques... Cette semaine en France, la revue Sciences et Avenir a elle organisé un débat autour du sexisme dans l'Intelligence Artificielle. Se poser la question, c'est pratiquement déjà y répondre. Chercheuse au CNRS, Laurence Devillers s'est inquiétée sans dramatiser d'un univers trop masculin. Et d'analyser : "Cela peut avoir plusieurs incidences : on peut se retrouver devant des situations où les ingénieurs et les chercheurs - d'ailleurs sans le faire exprès - trouvent des données en quantité qui sont plus masculines."
L'Intelligence Artificielle teste ses limites
A force de jouer avec nos nerfs ou nos valeurs, l'Intelligence Artificielle a donc testé ses propres limites et quelques personnalités de l'univers de l'IA ont décidé d'intervenir sur le sujet et de faire entendre leur voix. Dans cette dualité entre Intelligence Artificielle et éthique, le problème n'est pas tant du côté de la machine que de celui de l'homme. Le point commun entre toutes ces Intelligences Artificielles, si différentes soient-elles, reste l'homme. Sur France Culture, Jean Gabriel Ganascia, Président du comité d'éthique du CNRS, développe : "Il faut justement lutter contre cette idée qu'une machine, puisqu'elle opère de façon systématique est neutre. Les machines sont fabriquées par les hommes. Même si les apprentissages sont automatiques, il y a toujours des hommes derrière. Il y a un implicite dans la programmation des machines, qui tient à la fois aux descripteurs que l'on va prendre en considération et aux exemples que l'on va donner aux machines". Dans le NY Times, Kate Crawford, chercheuse principale chez Microsoft, ne disait pas autre chose voilà un an et prévenait déjà : "Nous devons être vigilants quant à la façon dont nous concevons et formons ces systèmes d'apprentissage automatiques, sinon nous verrons des formes de biais ancrés dans l'Intelligence Artificielle du futur. [...] Nous risquons de construire une intelligence artificielle qui reflète une vision étroite et privilégiée de la société, avec ses vieux préjugés et stéréotypes familiers."
Sans aucun doute, ce jour-là est arrivé. Quelles que soient les motivations des deux chercheurs de Stanford, comment peut-on vouloir connaitre et imaginer trier les individus selon leur sexualité ? Le monde se résume-t-il d'ailleurs à un clivage hétérosexuel/homosexuel ? Et que penser des 35 000 photos prises sur les sites de rencontres américains pour réaliser cette expérience comparées aux 200 millions utilisées par Apple pour entraîner son IA et parvenir à la reconnaissance faciale sur le nouvel Iphone X ? La liberté et la vie privée sont-ils des valeurs plus importantes que la sécurité à tout prix ? Peut-on vraiment s'étonner qu'une IA trouve les peaux blanches plus belles quand l'échantillon utilisé par les chercheurs pour entraîner leur IA est à 75% européen et... à 1% africain ? Des questions plus que légitimes mais auxquelles une Intelligence Artificielle aura bien du mal à répondre sans l'aide de ses créateurs.