Faire progresser les meilleurs grands modèles, les agents RL optimaux en matière de calcul et les systèmes d'IA plus transparents, éthiques et équitables
La trente-sixième Conférence internationale sur les systèmes de traitement de l'information neuronale (NeuroIPS 2022) se déroulera du 28 novembre au 9 décembre 2022, sous la forme d'un événement hybride, basé à la Nouvelle-Orléans, aux États-Unis.
NeurIPS est la plus grande conférence au monde sur l'intelligence artificielle (IA) et l'apprentissage automatique (ML), et nous sommes fiers de soutenir l'événement en tant que sponsor Diamond, contribuant ainsi à favoriser l'échange des avancées de la recherche dans la communauté de l'IA et du ML.
Les équipes de DeepMind présentent 47 articles, dont 35 collaborations externes dans le cadre de panels virtuels et de sessions d'affiches. Voici une brève introduction à certaines des recherches que nous présentons :
Les meilleurs grands modèles de leur catégorie
Les grands modèles (LM) – des systèmes d'IA génératifs formés sur d'énormes quantités de données – ont abouti à des performances incroyables dans des domaines tels que la génération de langage, de texte, d'audio et d'images. Une partie de leur succès tient à leur ampleur.
Cependant, chez Chinchilla, nous avons créé un Modèle de langage de 70 milliards de paramètres qui surpasse de nombreux modèles plus grands, dont Gopher. Nous avons mis à jour les lois de mise à l'échelle des grands modèles, montrant à quel point les modèles précédemment entraînés étaient trop grands pour la quantité d'entraînement effectuée. Ce travail a déjà façonné d'autres modèles qui suivent ces règles mises à jour, créant des modèles plus simples et meilleurs, et a remporté un Papier de piste principal exceptionnel prix lors de la conférence.
En nous appuyant sur Chinchilla et nos modèles multimodaux NFNets et Perceiver, nous présentons également Flamingo, une famille de modèles de langage visuel d'apprentissage en quelques étapes. Gérant des images, des vidéos et des données textuelles, Flamingo représente un pont entre les modèles de vision uniquement et les modèles de langage uniquement. Un seul modèle Flamingo établit un nouvel état de l'art en matière d'apprentissage en quelques étapes sur un large éventail de tâches multimodales ouvertes.
Et pourtant, l’échelle et l’architecture ne sont pas les seuls facteurs importants pour la puissance des modèles basés sur transformateur. Les propriétés des données jouent également un rôle important, dont nous discutons dans une présentation sur propriétés de données qui favorisent l'apprentissage en contexte dans les modèles de transformateur.
Optimiser l’apprentissage par renforcement
L’apprentissage par renforcement (RL) s’est révélé très prometteur en tant qu’approche pour créer des systèmes d’IA généralisés capables de traiter un large éventail de tâches complexes. Cela a conduit à des avancées dans de nombreux domaines, du Go aux mathématiques, et nous recherchons toujours des moyens de rendre les agents RL plus intelligents et plus simples.
Nous introduisons une nouvelle approche qui améliore les capacités de prise de décision des agents RL de manière efficace en termes de calcul. élargissant considérablement l’échelle des informations disponibles pour leur récupération.
Nous présenterons également une approche conceptuellement simple mais générale pour l'exploration motivée par la curiosité dans des environnements visuellement complexes – un agent RL appelé BYOL-Explorer. Il atteint des performances surhumaines tout en étant robuste au bruit et beaucoup plus simple que les travaux antérieurs.
Avancées algorithmiques
De la compression des données à l’exécution de simulations pour prédire la météo, les algorithmes constituent un élément fondamental de l’informatique moderne. Ainsi, des améliorations progressives peuvent avoir un impact énorme lorsque l’on travaille à grande échelle, en permettant d’économiser de l’énergie, du temps et de l’argent.
Nous partageons une méthode radicalement nouvelle et hautement évolutive pour le configuration automatique des réseaux informatiquesbasé sur un raisonnement algorithmique neuronal, montrant que notre approche très flexible est jusqu'à 490 fois plus rapide que l'état actuel de l'art, tout en satisfaisant la majorité des contraintes d'entrée.
Au cours de la même séance, nous présentons également une exploration rigoureuse de la notion auparavant théorique d'« alignement algorithmique », mettant en évidence la relation nuancée entre les réseaux de neurones graphiques et la programmation dynamiqueet comment les combiner au mieux pour optimiser les performances hors distribution.
Être pionnier de manière responsable
Au cœur de la mission de DeepMind se trouve notre engagement à agir en tant que pionnier responsable dans le domaine de l'IA. Nous nous engageons à développer des systèmes d'IA transparents, éthiques et équitables.
Expliquer et comprendre le comportement des systèmes d’IA complexes est un élément essentiel de la création de systèmes équitables, transparents et précis. Nous proposons un ensemble de desiderata qui capturent ces ambitions et décrivent un moyen pratique de les réaliserqui consiste à entraîner un système d’IA à construire un modèle causal de lui-même, lui permettant d’expliquer son propre comportement de manière significative.
Pour agir de manière sûre et éthique dans le monde, les agents d’IA doivent être capables de raisonner sur les dangers et d’éviter les actions nuisibles. Nous présenterons un travail collaboratif sur une nouvelle mesure statistique appelée préjudice contrefactuelet démontrer comment il surmonte les problèmes avec des approches standard pour éviter de poursuivre des politiques néfastes.
Enfin, nous présentons notre nouvel article qui propose des moyens de diagnostiquer et d'atténuer les échecs d'équité du modèle causés par les changements de distributionmontrant à quel point ces questions sont importantes pour le déploiement de technologies de ML sécurisées dans les établissements de santé.
Découvrez l’ensemble de nos travaux à NeurIPS 2022 ici.