Explorer la sécurité, l'adaptabilité et l'efficacité de l'IA pour le monde réel
La semaine prochaine marque le début du 40ème Conférence internationale sur l'apprentissage automatique (ICML 2023), qui aura lieu du 23 au 29 juillet à Honolulu, Hawai'i.
ICML rassemble la communauté de l'intelligence artificielle (IA) pour partager de nouvelles idées, outils et ensembles de données, et établir des liens pour faire progresser le domaine. De la vision par ordinateur à la robotique, des chercheurs du monde entier présenteront leurs dernières avancées.
Notre directeur pour la science, la technologie et la société, Shakir Mohamed, donnera une parler de l'apprentissage automatique à vocation socialerelever les défis liés à la santé et au climat, adopter une vision sociotechnique et renforcer les communautés mondiales.
Nous sommes fiers de soutenir la conférence en tant que sponsor platine et de continuer à travailler avec nos partenaires à long terme. LatinX dans l'IA, Queer dans l’IAet Les femmes dans l’apprentissage automatique.
Lors de la conférence, nous présenterons également des démos sur AlphaFoldnos avancées dans science de la fusionet de nouveaux modèles comme PaLM-E pour la robotique et Phénaki pour générer une vidéo à partir de texte.
Les chercheurs de Google DeepMind présentent cette année plus de 80 nouveaux articles à l'ICML. Comme de nombreux articles ont été soumis auparavant Google Brain et DeepMind unissent leurs forcesles articles initialement soumis dans le cadre d'une affiliation à Google Brain seront inclus dans un Blog de recherche Googletandis que ce blog présente des articles soumis sous une affiliation DeepMind.
L'IA dans le monde (simulé)
Le succès de l’IA capable de lire, d’écrire et de créer repose sur des modèles de base : des systèmes d’IA formés sur de vastes ensembles de données qui peuvent apprendre à effectuer de nombreuses tâches. Nos dernières recherches explorent la manière dont nous pouvons traduire ces efforts dans le monde réel et jettent les bases d’agents d’IA plus généralement capables et incarnés, capables de mieux comprendre la dynamique du monde, ouvrant ainsi de nouvelles possibilités pour des outils d’IA plus utiles.
Dans une présentation orale, nous présentons AdA, un agent d'IA capable de s'adapter pour résoudre de nouveaux problèmes dans un environnement simulé, comme le font les humains. En quelques minutes, AdA peut accomplir des tâches difficiles : combiner des objets de manière inédite, naviguer sur des terrains invisibles et coopérer avec d'autres joueurs.
De même, nous montrons comment nous pourrions utiliser des modèles de langage de vision pour aider à former les agents incarnés – par exemple, en disant à un robot ce qu'il fait.
L’avenir de l’apprentissage par renforcement
Pour développer une IA responsable et digne de confiance, nous devons comprendre les objectifs qui sont au cœur de ces systèmes. Dans l’apprentissage par renforcement, cela peut être défini par la récompense.
Dans une présentation orale, nous visons à régler l'hypothèse de la récompense postulé pour la première fois par Richard Sutton, affirmant que tous les objectifs peuvent être considérés comme maximisant la récompense cumulative attendue. Nous expliquons les conditions précises dans lesquelles cela se produit et clarifions les types d'objectifs qui peuvent – et ne peuvent pas – être capturés par la récompense dans une forme générale de problème d'apprentissage par renforcement.
Lors du déploiement de systèmes d’IA, ils doivent être suffisamment robustes pour le monde réel. Nous regardons comment améliorer former des algorithmes d’apprentissage par renforcement dans le cadre de contraintescar les outils d’IA doivent souvent être limités pour des raisons de sécurité et d’efficacité.
Dans notre recherche, qui a été récompensée par un Prix ICML 2023 pour article exceptionnelnous explorons comment nous pouvons enseigner à des modèles une stratégie complexe à long terme sous incertitude avec jeux d'informations imparfaites. Nous expliquons comment les modèles peuvent jouer pour gagner des parties à deux joueurs même sans connaître la position et les mouvements possibles de l'autre joueur.
Les défis à la frontière de l’IA
Les humains peuvent facilement apprendre, s’adapter et comprendre le monde qui nous entoure. Le développement de systèmes d’IA avancés capables de se généraliser à la manière des humains contribuera à créer des outils d’IA que nous pourrons utiliser dans notre vie quotidienne et à relever de nouveaux défis.
L’IA s’adapte notamment en modifiant rapidement ses prédictions en réponse à de nouvelles informations. Lors d'une présentation orale, nous examinons plasticité dans les réseaux de neurones et comment ces connaissances peuvent être perdues au cours de la formation – et les moyens de prévenir les pertes.
Nous présentons également des recherches qui pourraient aider à expliquer le type d'apprentissage en contexte qui émerge dans les grands modèles de langage en étudiant réseaux de neurones méta-entraînés sur les données sources dont les statistiques changent spontanément, comme dans la prédiction du langage naturel.
Dans une présentation orale, nous présentons une nouvelle famille de réseaux de neurones récurrents (RNN) qui fonctionnent mieux dans les tâches de raisonnement à long terme pour libérer la promesse de ces modèles pour l’avenir.
Enfin, dans 'attribution de crédits quantiles » Nous proposons une approche pour démêler la chance et la compétence. En établissant une relation plus claire entre les actions, les résultats et les facteurs externes, l’IA peut mieux comprendre les environnements complexes du monde réel.