Cette semaine, une startup a appelé IA cognitive a fait un peu de bruit en libérant une démo montrant un intelligence artificielle programme appelé Devin effectuant un travail généralement effectué par des ingénieurs logiciels bien payés. Les chatbots comme ChatGPT et Gemini peuvent générer du code, mais Devin est allé plus loin, en planifiant comment résoudre un problème, en écrivant le code, puis en le testant et en le mettant en œuvre.
Les créateurs de Devin le qualifient de « développeur de logiciels d'IA ». Lorsqu'on lui a demandé de tester comment Meta modèle de langage open source Llama 2 effectué lors de l'accès via différentes sociétés qui l'hébergent, Devin a généré un plan étape par étape pour le projet, généré le code nécessaire pour accéder aux API et exécuter des tests d'analyse comparative, et a créé un site Web résumant les résultats.
Il est toujours difficile de juger les démos mises en scène, mais Cognition a montré que Devin gère un large éventail de tâches impressionnantes. Il séduit les investisseurs et les ingénieurs sur X, recevant beaucoup de mentionset même inspiré quelques mèmes– y compris certains prédisant que Devin le sera bientôt responsable pour une vague de licenciements dans l’industrie technologique.
Devin n'est que l'exemple le plus récent et le plus abouti d'une tendance que je suis depuis un certain temps : l'émergence d'agents d'IA qui, au lieu de simplement fournir des réponses ou des conseils sur un problème présenté par un humain, peuvent agir pour le résoudre. Il y a quelques mois, j'ai essai routier Auto-GPT, un programme open source qui tente d'effectuer des tâches utiles en exécutant des actions sur l'ordinateur d'une personne et sur le Web. Récemment, je testé un autre programme appelé vimGPT pour voir comment les compétences visuelles des nouveaux modèles d'IA peuvent aider ces agents à naviguer plus efficacement sur le Web.
J'ai été impressionné par mes expériences avec ces agents. Pourtant, pour l’instant, tout comme les modèles linguistiques qui les alimentent, ils commettent de nombreuses erreurs. Et lorsqu'un logiciel entreprend des actions et ne se contente pas de générer du texte, une erreur peut entraîner un échec total et des conséquences potentiellement coûteuses ou dangereuses. Réduire l'éventail des tâches qu'un agent peut effectuer, par exemple, pour un ensemble spécifique de tâches d'ingénierie logicielle, semble être un moyen intelligent de réduire le taux d'erreur, mais il existe encore de nombreuses façons potentielles d'échouer.
Les startups ne sont pas les seules à créer des agents IA. Plus tôt cette semaine, j'ai a écrit à propos d'un agent appelé SIMAdéveloppé par Google DeepMind, qui joue à des jeux vidéo, dont le titre vraiment dingue Chèvre Simulateur 3. SIMA a appris en regardant des joueurs humains comment effectuer plus de 600 tâches assez compliquées, comme abattre un arbre ou tirer sur un astéroïde. Plus important encore, il peut effectuer plusieurs de ces actions avec succès, même dans un jeu inconnu. Google DeepMind le qualifie de « généraliste ».
Je soupçonne que Google espère que ces agents finiront par travailler en dehors des jeux vidéo, aidant peut-être à utiliser le Web pour le compte d'un utilisateur ou à exploiter des logiciels pour lui. Mais les jeux vidéo constituent un bon bac à sable pour développer et tester des agents, en fournissant des environnements complexes dans lesquels ils peuvent être testés et améliorés. «Nous travaillons activement à les rendre plus précis», m'a dit Tim Harley, chercheur scientifique chez Google DeepMind. « Nous avons différentes idées. »
Vous pouvez vous attendre à beaucoup plus de nouvelles sur les agents IA dans les mois à venir. Demis Hassabis, PDG de Google DeepMind, m'a dit récemment qu'il envisage de combiner de grands modèles de langage avec le travail que son entreprise a déjà effectué pour former des programmes d'IA permettant de jouer à des jeux vidéo afin de développer des agents plus performants et plus fiables. « C’est définitivement un domaine immense. Nous investissons massivement dans cette direction, et j’imagine que d’autres le font également. dit Hassabis. « Les capacités de ces types de systèmes connaîtront un changement radical lorsqu'ils commenceront à ressembler davantage à des agents. »