Forecasting.ai

Le blog de Forecasting AI

Blog

>

Actualités

>

Intelligence Artificielle et éthique, Google en opportuniste ?

Intelligence Artificielle et éthique, Google en opportuniste ?

Par G. H.

|

6 octobre 2017

|

Actualités

|

fren

Intelligence Artificielle et éthique, Google a décidé de se saisir de l’affaire ! Comment ? En lançant DeepMind Ethics & Society, une nouvelle unité de recherche sur le sujet. Décryptage.


Du nouveau ! Une semaine après notre dossier sur , Google s’est emparé lui aussi du sujet et a annoncé, mardi, le lancement d’une unité de recherche baptisée “DeepMind “Ethic & Society”". Une information diffusée via le blog de DeepMind, la société britannique spécialisée dans l’IA et rachetée par le géant américain en 2014 pour 500 millions de dollars.

L’Intelligence Artificielle et l’éthique intéressent Google


A première vue, c’est assurément une bonne nouvelle dont il faudrait se féliciter. L’initiative est même séduisante. Que la deuxième marque mondiale en valeurs derrière Apple (selon le dernier classement Interbrand) se décide à monter aux créneaux sur ce thème ouvre forcément de belles perspectives. Et il traduit bien sûr la prégnance dans les conversations de la question de l’éthique dans l’Intelligence Artificielle.

Verity Harding et Sean Legassick, auteurs de l’article et chefs de file de la nouvelle unité de recherche, expliquent d’ailleurs dans leur billet : “Nous croyons que l'IA peut être d'un bénéfice extraordinaire pour le monde, mais seulement si elle est soumise aux normes éthiques les plus élevées.” Et de préciser : Le développement de l'Intelligence Artificielle soulève des questions importantes et complexes. Son impact sur la société - et sur toutes nos vies - n'est pas quelque chose qui devrait être laissé au hasard. Les résultats bénéfiques et les protections contre les préjudices doivent être activement combattus et intégrés dès le début. Mais dans un domaine aussi complexe que l'IA, c'est plus facile à dire qu'à faire.

Cinq principes pour la recherche sur l’Intelligence Artificielle et l’éthique


Alors, pour parvenir à ses fins et justement ne pas le “laisser au hasard”, DeepMind, la société qui a notamment développé AlphaGo, a créé une équipe qui devrait compter 25 personnes (chercheurs externes, professeurs, employés de l’entreprise, etc) d’ici un an et devra respecter cinq principes essentiels afin de mener à bien ses projets : bénéfice social, rigueur et faits, transparence et ouverture, diversité et interdisciplinarité et, enfin, collaboratif et inclusif.




Des principes prometteurs pour des recherches dans des domaines aussi variés que le respect de la vie privée et la transparence, l’impact économique, la gouvernance et la responsabilisation ou, encore, la moralité et les valeurs. Interrogé par Wired.co.uk, Mustafa Suleyman, le co-fondateur de Deep Mind, est lui forcément enthousiaste : “C'est excitant d'être une entreprise qui met sur la table des questions délicates, de façon proactive, en amont, pour le débat public.” Sur Techcrunch, un porte-parole de DeepMind ajoute : “Nous espérons commencer à publier des articles au début de l'année prochaine, et tous les articles produits par l'équipe d'Ethics & Society seront mis à disposition par le biais de programmes d'accès libre. En général, nous croyons fermement à la tradition universitaire de l'examen par les pairs.

Intelligence Artificielle et éthique, la bonne caution de Google ?


De plus près, il faudrait être cependant très naïf pour croire que Google se serait subitement pris d’amour pour l’éthique, tout court, ou pour l’éthique dans l’Intelligence Artificielle. Google, ou ce géant américain dont on sait si peu de choses, qui en sait plus sur vous que vos propres parents et dont le moteur de recherche et ses algorithmes restent un mystère total pour le commun des mortels. DeepMind, filiale de Google, lance une unité de recherche sur l’éthique dans l’Intelligence Artificielle, certes. Mais que peut-il se cacher derrière ?

C’était d’abord presque une obligation pour Google. Lors de son rachat par la firme américaine en 2014, DeepMind avait alors imposé la création d’un Comité d’éthique sur l'Intelligence Artificielle sans que cela soit suivi d’effets, ou si peu. Impossible jusqu’alors de connaître l’identité des membres, leurs missions, voire leur fonctionnement bien que Demis Hassabis, cofondateur de l’entreprise, avait bien confirmé son existence. Peu convaincant jusque-là malgré des recherches en Machine Learning qui ont explosé, comme par hasard, depuis le rachat de la société britannique en 2014, Google corrige un tant soit peu le tir et montre, dans sa communication externe tout du moins, une plus grande transparence.


DeepMind dispose de données sensibles sur la santé des patients sans leur consentement. (DR)

Google a ensuite un autre intérêt à mettre en place une unité de recherche sur l’Intelligence Artificielle et l’éthique, outre une philanthropie qu’il se serait efforcé de masquer jusque-là pour ne pas s’attirer trop de louanges... Connu pour ses succès en Intelligence Artificielle comme le développement d’AlphaGo par exemple, DeepMind est aussi au centre des polémiques depuis quelques mois en Grande-Bretagne pour avoir accès aux données de santé de 1,6 million de patients sans avoir eu besoin de leur consentement. Un accord passé entre le Royal Free London NHS Trust, le système hospitalier londonien, et l’entreprise que la Cnil britannique a remis en cause depuis, estimant ne pas avoir les garanties nécessaires… à la protection des données.

DeepMind remis en cause pour la protection des données


Dans ce contexte, Google peut donc avoir bon dos de s’intéresser à l’éthique dans l’Intelligence Artificielle, surtout par le biais de la filiale d’Alphabet qui est aujourd’hui dans le collimateur de la Cnil britannique pour un possible manquement à la protection des données. Pour rassurer de potentiels clients, des patients qui peuvent légitimement se demander ce qu’il adviendra de leurs données et améliorer l’image de marque de DeepMind, notamment outre-Manche, Google ne pouvait s’y prendre autrement. Passer à l’action et communiquer sur le sujet étaient les meilleures choses à faire.

Enfin, que l’on ne s’y trompe pas non plus, la création de cette unité de recherche, qui n’est donc pas par définition un comité d’éthique, ne présage en rien des futurs process de Google ou de DeepMind. Cette équipe n’est pas indépendante, a d’abord pour charge d’effectuer des recherches externes sur l’Intelligence Artificielle et l’éthique, financées bien sûr par Google DeepMind, et de publier ses principaux résultats. Pas d’agir en interne et de modifier le fonctionnement de la compagnie de la Silicon Valley. Pur opportunisme ou philanthropie exacerbée, les premières publications et les premiers résultats prévus l’année prochaine permettront de juger.