Un groupe d'anciens et d'actuels OpenAI les employés ont émis une lettre publique avertissant que l'entreprise et ses concurrents construisent intelligence artificielle avec des risques excessifs, sans surveillance suffisante et en muselant les employés qui pourraient être témoins d'activités irresponsables.
« Ces risques vont de l'aggravation des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d'IA autonomes pouvant entraîner l'extinction de l'humanité », lit-on dans la lettre publiée sur droit d'avertir.ai. « Tant qu’il n’y aura pas de contrôle gouvernemental efficace sur ces sociétés, les employés actuels et anciens feront partie des rares personnes qui peuvent les tenir responsables. »
La lettre appelle non seulement OpenAI, mais toutes les sociétés d’IA à s’engager à ne pas punir les employés qui dénoncent leurs activités. Il appelle également les entreprises à mettre en place des moyens « vérifiables » permettant aux travailleurs de fournir des commentaires anonymes sur leurs activités. « Les protections ordinaires des lanceurs d’alerte sont insuffisantes car elles se concentrent sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés », indique la lettre. « Certains d'entre nous craignent raisonnablement diverses formes de représailles, compte tenu de l'histoire de tels cas dans l'industrie. »
OpenAI a été critiqué le mois dernier après un article de Vox a révélé que l'entreprise avait menacé de récupérer les capitaux propres des salariés s'ils ne signaient pas des accords de non-dénigrement leur interdisant de critiquer l'entreprise ou même de mentionner l'existence d'un tel accord. Sam Altman, PDG d'OpenAI, dit sur X récemment qu'il n'était pas au courant de tels arrangements et que la société n'avait jamais récupéré les capitaux propres de qui que ce soit. Altman a également déclaré que la clause serait supprimée, ce qui permettrait aux employés de s'exprimer librement. OpenAI n'a pas répondu à une demande de commentaire au moment de la publication.
OpenAI a également récemment modifié son approche de la gestion de la sécurité. Le mois dernier, un groupe de recherche OpenAI chargé d'évaluer et de contrer les risques à long terme posés par les modèles d'IA les plus puissants de l'entreprise a été effectivement dissous après le départ de plusieurs personnalités et le reste des membres de l'équipe ont été absorbés dans d'autres groupes. Quelques semaines plus tard, la société a annoncé qu'il avait créé un comité de sûreté et de sécurité, dirigé par Altman et d'autres membres du conseil d'administration.
Novembre dernier, Altman a été licencié par le conseil d'administration d'OpenAI pour avoir prétendument omis de divulguer des informations et les avoir délibérément induits en erreur. Après une bagarre très publique, Altman est revenu dans l'entreprise et la majeure partie du conseil d'administration a été évincé.
Les signataires des lettres comprennent des personnes qui ont travaillé sur la sécurité et la gouvernance chez OpenAI, des employés actuels qui ont signé de manière anonyme et des chercheurs qui travaillent actuellement dans des sociétés d'IA rivales. Il a également été approuvé par plusieurs grands chercheurs en IA, notamment Geoffrey Hinton et Yoshua Bengioqui ont tous deux remporté le prix Turing pour la recherche pionnière sur l'IA, et Stuart Russell un expert de premier plan en matière de sécurité de l’IA.
Parmi les anciens employés ayant signé la lettre figurent William Saunders, Carroll Wainwright et Daniel Ziegler, qui ont tous travaillé sur la sécurité de l'IA chez OpenAI.
«Le grand public sous-estime actuellement le rythme auquel cette technologie se développe», déclare Jacob Hilton, un chercheur qui a déjà travaillé sur l'apprentissage par renforcement chez OpenAI et qui a quitté l'entreprise il y a plus d'un an pour poursuivre une nouvelle opportunité de recherche. Hilton affirme que même si des entreprises comme OpenAI s'engagent à renforcer la sécurité de l'IA, il y a peu de surveillance pour garantir que tel est le cas. «Les protections que nous demandons sont destinées à s'appliquer à toutes les entreprises pionnières de l'IA, pas seulement à OpenAI», dit-il.
«Je suis parti parce que je n'avais plus confiance dans le comportement responsable d'OpenAI», explique Daniel Kokotajlo, chercheur qui a auparavant travaillé sur la gouvernance de l'IA chez OpenAI. « Il y a des choses qui se sont produites qui, à mon avis, auraient dû être divulguées au public », ajoute-t-il, refusant de fournir des détails.
Kokotajlo affirme que la proposition de la lettre assurerait une plus grande transparence et il estime qu'il y a de fortes chances qu'OpenAI et d'autres réforment leurs politiques étant donné la réaction négative aux nouvelles d'accords de non-dénigrement. Il affirme également que l’IA progresse à une vitesse inquiétante. « Les enjeux vont devenir beaucoup, beaucoup, beaucoup plus élevés dans les prochaines années, dit-il, « du moins je le crois ».