Codex, un grand modèle de langage (LLM) formé sur une variété de bases de code, dépasse l'état de l'art précédent dans sa capacité à synthétiser et générer du code. Bien que le Codex offre une multitude d'avantages, les modèles susceptibles de générer du code à une telle échelle présentent des limites importantes, des problèmes d'alignement, le risque d'être mal utilisés et la possibilité d'accélérer le rythme des progrès dans des domaines techniques qui peuvent eux-mêmes avoir des impacts déstabilisateurs ou être mal utilisés. potentiel. Pourtant, ces impacts sur la sécurité ne sont pas encore connus ou restent à explorer. Dans cet article, nous décrivons un cadre d'analyse des dangers construit par OpenAI pour découvrir les dangers ou les risques de sécurité que le déploiement de modèles comme le Codex peut imposer techniquement, socialement, politiquement et économiquement. L'analyse s'appuie sur un nouveau cadre d'évaluation qui détermine la capacité des techniques avancées de génération de code par rapport à la complexité et à l'expressivité des invites de spécification, ainsi que leur capacité à les comprendre et à les exécuter par rapport aux capacités humaines.