En juillet de l'année dernière, OpenAI a annoncé la formation d'une nouvelle équipe de recherche qui préparerait l’avènement du supersmart intelligence artificielle capable de déjouer et de maîtriser ses créateurs. Ilya Sutskever, scientifique en chef d'OpenAI et l'un des cofondateurs de la société, a été nommé co-responsable de cette nouvelle équipe. OpenAI a déclaré que l'équipe recevrait 20 % de sa puissance de calcul.
Désormais, « l'équipe de superalignement » d'OpenAI n'existe plus, confirme la société. Cela fait suite aux départs de plusieurs chercheurs impliqués, l'actualité de mardi que Sutskever quittait l'entreprise, et le démission de l'autre colead de l'équipe. Les travaux du groupe seront absorbés par les autres efforts de recherche d'OpenAI.
Le départ de Sutskever a fait la une des journaux car bien qu'il ait aidé le PDG Sam Altman à lancer OpenAI en 2015 et à définir l'orientation de la recherche qui a conduit à ChatGPT, il était également l'un des quatre membres du conseil d'administration qui a licencié Altman en novembre. Altman a été rétabli en tant que PDG cinq jours chaotiques plus tard après une révolte massive du personnel d'OpenAI et la négociation d'un accord dans lequel Sutskever et deux autres dirigeants de l'entreprise ont quitté le conseil d'administration.
Quelques heures après l'annonce du départ de Sutskever mardi, Jan Leike, l'ancien chercheur de DeepMind qui était l'autre responsable de l'équipe de superalignement, posté sur X qu'il avait démissionné.
Ni Sutskever ni Leike n'ont répondu aux demandes de commentaires et n'ont pas publiquement commenté les raisons pour lesquelles ils ont quitté OpenAI. Sutskever a offert un support pour le chemin actuel d'OpenAI dans un post sur X. « La trajectoire de l'entreprise a été tout simplement miraculeuse, et je suis convaincu qu'OpenAI créera une AGI à la fois sûre et bénéfique » sous sa direction actuelle, a-t-il écrit.
La dissolution de l'équipe de superalignement d'OpenAI s'ajoute aux preuves récentes d'un bouleversement au sein de l'entreprise à la suite de la crise de gouvernance de novembre dernier. Deux chercheurs de l'équipe, Leopold Aschenbrenner et Pavel Izmailov, ont été rejeté pour avoir divulgué des secrets d'entreprise, L'information signalé le mois dernier. Un autre membre de l'équipe, William Saunders, a quitté OpenAI en février, selon un message sur un forum Internet dans son nom.
Deux autres chercheurs d'OpenAI travaillant sur la politique et la gouvernance de l'IA semblent également avoir récemment quitté l'entreprise. Cullen O'Keefe a quitté son poste de responsable de la recherche sur les frontières politiques en avril, selon LinkedIn. Daniel Kokotajlo, un chercheur d'OpenAI qui a co-écrit plusieurs articles sur les dangers des modèles d'IA plus performants, « a quitté OpenAI parce qu'il n'avait plus confiance dans son comportement responsable à l'époque de l'AGI », selon un rapport. publier sur un forum Internet dans son nom. Aucun des chercheurs apparemment partis n’a répondu aux demandes de commentaires.
OpenAI a refusé de commenter les départs de Sutskever ou d'autres membres de l'équipe de superalignement, ni l'avenir de ses travaux sur les risques à long terme de l'IA. La recherche sur les risques associés à des modèles plus puissants sera désormais dirigée par John Schulman, qui codirige l'équipe chargée d'affiner les modèles d'IA après la formation.