Les scientifiques veulent de plus en plus rapprocher l'IA de l'intelligence humaine. Pour ce faire, ils explorent plusieurs pistes. Une équipe de chercheurs a récemment mené une expérience originale. Ils ont notamment entraîné une IA à des compétences de langage en l'exposant au quotidien d'un bébé.
Une base de données infime pour un apprentissage inédit
Cette idée originale provient d'une équipe de chercheurs de l'Université de New York. Ils ont équipé un bébé australien qui s'appelle Sam d'une mini-caméra frontale. Celle-ci enregistre les vidéos de son quotidien entre ses 6 mois et ses 2 ans.
Durant cette période, les chercheurs ont pu capturer environ 1 % des heures de veille de l'enfant. Ces séquences montrent les activités habituelles de Sam : jeux, conférences, repas, etc. s'accompagne de 250 000 mots, associés aux images correspondant à ce que voit Sam au moment où ils sont prononcés. C'est cette correspondance mots/images que les chercheurs ont voulu reproduire par l'apprentissage automatique.
Leur système, baptisé « Point de vue de l'enfant pour un modèle d'apprentissage contrastif » (CVCL), démarrage de zéro. Pour l'entraîner, les chercheurs se sont orientés sur 60 heures d'enregistrement. Ainsi, à la différence des grands modèles de langage actuels (LLM) comme GPT-4 d'OpenAI ou Gémeaux de Google, nourris avec des quantités massives de données, ils ont voulu tester une approche alternative pour l'apprentissage d'un réseau de neurones.
Des performances prometteuses pour une IA apprenant du langage d'un bébé
Pour entraîner l'IA, les chercheurs ont utilisé deux modèles complémentaires. Le premier est dédié à l'analyseur d'images corrige les problèmes des vidéos. La seconde se concentre sur le texte, c'est-à-dire les mots prononcés par l'enfant. Puis, ils ont combiné les deux modules.
Par la suite, ils ont évalué les performances de leur intelligence artificielle en deux étapes. Dans un premier temps, le modèle a été confronté à des images et des mots qu'elle connaissait déjà, afin de mesurer sa capacité à les associer correctement. Le résultat est encourageant, avec un taux d'associations pertinentes d'environ 62 %.
L'IA a ensuite été testée sur des images absentes de sa base d'entraînement. Là encore, elle a su établir des liens justes entre les images et les mots. Cela démontre la capacité du modèle à généraliser les connaissances qu'il a acquises.
Vers une nouvelle méthode d'apprentissage de l'IA ?
Si les résultats obtenus sont encourageants, il serait prématuré d'en tirer des généralisations hâtives ou de conclure que toutes les IA pourraient apprendre de cette manière. L'expérience menée ne s'appuie en effet que sur les données d'un seul enfantce qui ne permet pas d'affirmer avec certitude que ces conclusions seraient transposables à d'autres situations.
Néanmoins, cette expérience ouvre des perspectives stimulantes. Elle démontre qu'il est envisageable de développer des compétences linguistiques chez une IA de manière similaire à l'apprentissage d'un enfant. Ce type de travaux pourrait influencer les techniques de conception de modèles d'IA.
Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons percevoir une commission d'affiliation.