L'annonce de Raimondo intervient le même jour que Google vanté la publication de nouvelles données mettant en évidence les prouesses de son dernier modèle d'intelligence artificielle, Gemini, le montrant surpassant le GPT-4 d'OpenAI, qui alimente ChatGPT, sur certains benchmarks de l'industrie. Le département américain du Commerce pourrait être averti à temps du successeur de Gemini, si le projet utilise suffisamment les vastes ressources de cloud computing de Google.
Les progrès rapides dans le domaine de l'IA l'année dernière ont incité quelques experts et cadres en IA pour appeler à une pause temporaire dans le développement de quelque chose de plus puissant que GPT-4, le modèle actuellement utilisé pour ChatGPT.
Samuel Hammond, économiste principal à la Foundation for American Innovation, un groupe de réflexion, affirme qu'un défi majeur pour le gouvernement américain est qu'un modèle n'a pas nécessairement besoin de dépasser un seuil de calcul lors de la formation pour être potentiellement dangereux.
Dan Hendrycks, directeur du Center for AI Safety, une organisation à but non lucratif, affirme que cette exigence est proportionnée compte tenu des développements récents de l'IA et des inquiétudes quant à sa puissance. « Les entreprises dépensent plusieurs milliards en formation à l’IA, et leurs PDG préviennent que l’IA pourrait devenir superintelligente dans les deux prochaines années », dit-il. « Il semble raisonnable que le gouvernement soit conscient de ce que font les entreprises d’IA. »
Anthony Aguirre, directeur exécutif du Future of Life Institute, une organisation à but non lucratif qui veille à ce que les technologies transformatrices profitent à l'humanité, est d'accord. « À l’heure actuelle, des expériences géantes sont en cours sans aucune surveillance ni réglementation extérieure », dit-il. « Signaler ces entraînements à l’IA et les mesures de sécurité associées est une étape importante. Mais il reste encore beaucoup à faire. Il existe un fort accord bipartisan sur la nécessité d’une réglementation de l’IA et nous espérons que le Congrès pourra bientôt agir sur ce point.
Raimondo a déclaré vendredi lors de l'événement de la Hoover Institution que les National Institutes of Standards and Technology, NIST, travaillaient actuellement à la définition de normes pour tester la sécurité des modèles d'IA, dans le cadre de la création d'un nouvel institut de sécurité de l'IA du gouvernement américain. Déterminer le degré de risque d'un modèle d'IA implique généralement de sonder un modèle pour tenter d'évoquer un comportement ou un résultat problématique, un processus connu sous le nom de «équipe rouge.»
Raimondo a déclaré que son département travaillait sur des lignes directrices qui aideront les entreprises à mieux comprendre les risques qui pourraient se cacher dans les modèles qu'elles élaborent. Ces lignes directrices pourraient inclure des moyens de garantir que l’IA ne puisse pas être utilisée pour commettre des violations des droits de l’homme, a-t-elle suggéré.
Le décret d'octobre sur l'IA donne au NIST jusqu'au 26 juillet pour mettre en place ces normes, mais certains travaillant avec l'agence affirment que cela manque de fonds ou l'expertise requise pour que cela soit fait de manière adéquate.