Vers une plus grande généralisabilité de l’intelligence artificielle
Aujourd'hui, la saison des conférences démarre avec la dixième conférence internationale sur les représentations de l'apprentissage (ICLR 2022), qui se déroulera virtuellement du 25 au 29 avril 2022. Des participants du monde entier se réuniront pour partager leurs travaux de pointe en matière d'apprentissage représentationnel, de l'avancement de l'intelligence artificielle à la science des données, en passant par la vision industrielle, la robotique et plus.
Le premier jour de la conférence, Pushmeet Kohli, notre responsable des équipes AI for Science et Robust and Verified AI, prononcera une conférence sur la manière dont l'IA peut améliorer considérablement les solutions à un large éventail de problèmes scientifiques, de la génomique et de la biologie structurale au quantique. la chimie et même les mathématiques pures.
En plus de soutenir l'événement en tant que sponsors et organisateurs réguliers d'ateliers, nos équipes de recherche présentent cette année 29 articles, dont 10 collaborations. Voici un bref aperçu de nos prochaines présentations orales, sous les projecteurs et par affiches :
Optimiser l'apprentissage
Un certain nombre d'articles clés se concentrent sur les moyens essentiels par lesquels nous rendons le processus d'apprentissage de nos systèmes d'IA plus efficace. Cela va de l'augmentation des performances, à l'avancement de l'apprentissage de quelques tirs et à la création de systèmes efficaces en matière de données qui réduisent les coûts de calcul.
Dans « Méta-apprentissage bootstrapé »un Prix ICLR 2022 pour article exceptionnel gagnant, nous proposons un algorithme qui permet à un agent d'apprendre à apprendre en s'enseignant lui-même. Nous présentons également un algorithme d'amélioration des politiques qui redessine AlphaZéro – notre système qui a appris tout seul pour maîtriser les échecs, le shogi et le Go – pour continuer à s'améliorer même lors de l'entraînement avec un petit nombre de simulations ; un un régulateur qui atténue le risque de perte de capacité dans un large éventail d'agents et d'environnements RL ; et une amélioration architecture pour former efficacement des modèles attentionnels.
Exploration
La curiosité est un élément clé de l’apprentissage humain, car elle contribue à faire progresser les connaissances et les compétences. De même, les mécanismes d’exploration permettent aux agents d’IA d’aller au-delà des connaissances préexistantes et de découvrir l’inconnu ou d’essayer quelque chose de nouveau.
Faire avancer la question »Quand les agents doivent-ils explorer ?», nous étudions quand les agents doivent passer en mode exploration, à quelles échelles de temps il est judicieux de passer en mode exploration et quels signaux déterminent le mieux la durée et la fréquence des périodes d'exploration. Dans un autre article, nous introduisons un «bonus d'exploration de gain d'informations» qui permet aux agents de sortir des limites des récompenses intrinsèques en RL pour pouvoir acquérir davantage de compétences.
IA robuste
Pour déployer des modèles ML dans le monde réel, ils doivent être efficaces lors du passage entre la formation, les tests et entre de nouveaux ensembles de données. Comprendre les mécanismes causals est essentiel, car il permet à certains systèmes de s’adapter, tandis que d’autres peinent à faire face à de nouveaux défis.
En élargissant la recherche sur ces mécanismes, nous présentons un cadre expérimental qui permet une analyse fine analyse de la robustesse aux changements de distribution. La robustesse contribue également à protéger contre les préjudices adverses, qu’ils soient involontaires ou ciblés. Dans le cas de corruptions d'images, nous proposons une technique qui théoriquement optimise les paramètres des modèles image à image pour diminuer les effets de flou, de brouillard et d’autres problèmes courants.
Communication émergente
En plus d'aider les chercheurs en ML à comprendre comment les agents font évoluer leur propre communication pour accomplir des tâches, les agents d'IA ont le potentiel de révéler des informations sur les comportements linguistiques au sein des populations, ce qui pourrait conduire à une IA plus interactive et plus utile.
En collaboration avec des chercheurs d'Inria, Google Research et Meta AI, nous connectons le rôle de la diversité au sein des populations humaines dans la formation du langage à résoudre partiellement une contradiction apparente dans des simulations informatiques avec des agents neuronaux. Ensuite, parce que la construction de meilleures représentations du langage dans l’IA est essentielle à la compréhension de la communication émergente, nous étudions également les l'importance de passer à l'échelle l'ensemble de données, la complexité des tâches et la taille de la population en tant qu'aspects indépendants. Par ailleurs, nous avons également étudié le compromis entre expressivité, complexité et imprévisibilité dans des jeux où plusieurs agents communiquent pour atteindre un seul objectif.
Découvrez l’ensemble de nos travaux à l’ICLR 2022 ici.