Elon Musk a commencé la semaine en postant avec humeur sur X à propos de son a du mal à configurer un nouvel ordinateur portable exécutant Windows. Il y a mis fin en intentant une action en justice accusant OpenAI de développer de manière imprudente une IA au niveau humain et de la remettre à Microsoft.
celui de musc un procès est intenté contre OpenAI et deux de ses dirigeants, Sam Altman, PDG et le président Greg Brockman, qui ont tous deux travaillé avec l'entrepreneur de fusées et de voitures pour a fondé l'entreprise en 2015. Il affirme que les deux hommes ont violé l’« accord fondateur » initial conclu avec Musk, qui, selon lui, engageait l’entreprise à développer AGI ouvertement et « pour le bénéfice de l’humanité ».
La poursuite de Musk allègue que le branche à but lucratif de l'entreprise, créée en 2019 après s'être séparé d'OpenAI, a créé AGI sans transparence et l'a concédé sous licence à Microsoft, qui a investi des milliards dans l'entreprise. Il exige qu’OpenAI soit obligé de divulguer ouvertement sa technologie et qu’il lui soit interdit de l’utiliser pour en tirer un profit financier à Microsoft, Altman ou Brockman.
Une grande partie de l’affaire tourne autour d’une affirmation technique audacieuse et discutable : selon laquelle OpenAI aurait développé ce qu’on appelle l’intelligence artificielle générale, ou AGI, un terme généralement utilisé pour désigner des machines capables d’égaler ou de déjouer les humains.
« En termes d'information et de croyance, GPT-4 est un algorithme AGI », indique le procès, faisant référence au grand modèle de langage qui se cache derrière ChatGPT d'OpenAI. Il cite des études qui ont montré que le système peut obtenir une note de passage à l'examen uniforme du barreau et à d'autres tests standard, comme preuve qu'il a surpassé certaines capacités humaines fondamentales. « GPT-4 n’est pas seulement capable de raisonner. Il raisonne mieux que les humains moyens », affirme la poursuite.
Bien que GPT-4 a été salué comme une avancée majeure quand c'était lancé en mars 2023, la plupart des experts en IA n’y voient pas une preuve que l’AGI a été atteint. « GPT-4 est général, mais il ne s'agit évidemment pas d'AGI au sens où les gens utilisent généralement ce terme », déclare Oren Etzioniprofesseur émérite à l’Université de Washington et expert en IA.
« Cela sera considéré comme une affirmation farfelue », déclare Christophe Manning, professeur à l'Université de Stanford spécialisé dans l'IA et le langage, de l'affirmation de l'AGI dans le procès de Musk. Manning affirme qu'il existe des points de vue divergents sur ce qui constitue l'AGI au sein de la communauté de l'IA. Certains experts pourraient placer la barre plus bas, arguant que la capacité de GPT-4 à exécuter un large éventail de fonctions justifierait de l'appeler AGI, tandis que d'autres préfèrent réserver le terme aux algorithmes qui peuvent déjouer la plupart ou la totalité des humains dans tout. « Selon cette définition, je pense que nous n'avons clairement pas d'AGI et que nous en sommes encore assez loin », dit-il.
Percée limitée
GPT-4 a été remarqué – et a attiré de nouveaux clients pour OpenAI – car il peut répondre à un large éventail de questions, alors que les anciens programmes d'IA étaient généralement dédiés à des tâches spécifiques comme jouer aux échecs ou marquer des images. Le procès de Musk fait référence aux affirmations des chercheurs de Microsoft, dans un document de mars 2023, que « compte tenu de l'étendue et de la profondeur des capacités de GPT-4, nous pensons qu'il pourrait raisonnablement être considéré comme une première version (mais encore incomplète) d'un système d'intelligence générale artificielle (AGI). » Malgré ses capacités impressionnantes, GPT-4 commet encore des erreurs et présente des limites importantes dans sa capacité à analyser correctement des questions complexes.
« J’ai l’impression que la plupart d’entre nous, chercheurs sur le terrain, pensons que les grands modèles de langage (comme GPT-4) sont un outil très important pour permettre aux humains de faire beaucoup plus, mais qu’ils sont limités d’une manière qui les rend loin d’être autonomes. seules les intelligences », ajoute Michael Jordanprofesseur à l'UC Berkeley et figure influente dans le domaine de l'apprentissage automatique.