Forecasting.ai

Le blog de Forecasting AI

Blog

>

Actualités

>

IA ne rime pas avec (big) data

IA ne rime pas avec (big) data

Par G.H.

|

20 janvier 2022

|

Actualités

|

fren

La data est-elle le nerf de la guerre ou peut-on s'en passer pour créer une Intelligence Artificielle efficiente ? Forecasting.ai s'est emparé du sujet.


Non, ôtez-vous ça de la tête ! La taille n'a pas forcément à voir avec la performance. Nous parlons bien évidemment ici d'apprentissage automatique par les machines. En effet, des chercheurs de l'Université de Waterloo se sont attelés à la tâche et ont récemment démontré la faisabilité d'un apprentissage en "moins d'un coup" ou, en version originale, "“less than one-shot” learning". Autrement dit, un modèle peut apprendre à identifier quelque chose sans même avoir déjà vu un exemple de cette chose. Comment me direz-vous ?


Dans leur article datant de septembre 2020, intitulé ""Less Than One"-Shot Learning : Learning N Classes From M<N Samples", les chercheurs Ilia Sucholutsky et Matthias Schonlau de l'Université de Waterloo en Ontario ont expliqué comment ils ont réussi à créer un modèle d'apprentissage automatique capable de classer des éléments avec moins d'un exemple par classe.

Apprentissage machine en moins d'un coup


Le principe est finalement simple à comprendre. Prenons l'exemple d'un individu qui doit capturer une licorne sans jamais en avoir vu une auparavant. "Il n'est pas familier avec la faune locale et il n'y a pas de photos de licornes, alors les humains lui montrent une photo de cheval et une photo de rhinocéros, et lui disent qu'une licorne est quelque chose entre les deux", expliquent alors les deux chercheurs. "Avec seulement deux exemples, l'individu a maintenant appris à reconnaître trois animaux différents". En effet, l'individu saura identifier par essence un cheval, un rhinocéros et, par "déduction", une licorne.

Pour réaliser cet apprentissage que l'on baptisera LO-shot, les chercheurs ont choisi un classificateur de type kNN (k-Notest Neighbors), un algorithme d'apprentissage automatique supervisé relativement simple qui s'appuie normalement sur des données étiquetées. A la différence près que ces données étiquetées ne l'ont pas été de la même manière. Le kNN a en effet été alimenté par des données aux étiquettes beaucoup plus souples que celles habituellement utilisées. Ce qui fait dire aux chercheurs dans leur article d'une étiquette souple est simplement "la représentation vectorielle de l'appartenance simultanée d'un point à plusieurs classes". Pour résumer, une photo de rhinocéros était auparavant étiquetée "rhinocéros" quand aujourd'hui elle peut avoir cette étiquette, mais aussi celle de "mammifère", "quadripède", etc.

Moins de données mais de la donnée quand même


En exposant l'algorithme à des échantillons de données qui n'ont pas de relation directe univoque avec une classe spécifique, mais plutôt à des données qui reflètent un spectre continu entre deux points, les chercheurs ont théorisé que l'algorithme serait capable d'induire la classe correcte, même s'il ne l'a pas réellement vue.

Les chercheurs ont entraîné leur algorithme, appelé "soft-label prototype k-NN" (SLaPkNN), sur les étiquettes souples et ont constaté qu'il pouvait classer correctement des classes auxquelles il n'avait pas été exposé dans les données d'entraînement. En effet, pour revenir à l'exemple de la licorne, le SLaPkNN a appris à en identifier une en voyant les photos d'un cheval et d'un rhinocéros et en apprenant que la licorne se trouve quelque part au milieu.

Sans rentrer plus dans les détails de cette recherche, l'on peut cependant constater que les données restent nécessaires pour un entraîner un modèle. Un moins grand nombre certes pour réaliser un apprentissage machine, mais de la donnée quand même.

Démocratisation de l'IA en vue ?


Permettre aux IA d'apprendre avec des données moins abondantes contribuera tout de même à démocratiser le domaine de l'intelligence artificielle. Avec des IA plus petites, le monde universitaire pourra plus facilement poursuivre ses recherches dans le domaine et garder ses meilleurs chercheurs. L'apprentissage LO-shot abaisse en effet les barrières à l'entrée en réduisant les coûts de formation et en diminuant les exigences en matière de données. Il offre également plus de flexibilité aux utilisateurs pour créer de nouveaux ensembles de données et expérimenter de nouvelles approches.

Des petites entreprises auront enfin l'occasion d'entraîner des modèles quand bien même ils ne disposeront pas de données conséquentes. Une nouvelle approche qui pourrait ainsi libérer sous peu de nombreuses sociétés même si la data n'a pas encore dit son dernier mot !