Pour minimiser ces risques à mesure que les modèles d’IA continuent de s’améliorer, nous construisons une nouvelle équipe appelée Preparedness. Dirigée par Aleksander Madry, l'équipe de préparation reliera étroitement l'évaluation des capacités, les évaluations et l'équipe rouge interne pour les modèles frontières, depuis les modèles que nous développerons dans un avenir proche jusqu'à ceux dotés de capacités de niveau AGI. L'équipe aidera à suivre, évaluer, prévoir et se protéger contre les risques catastrophiques couvrant plusieurs catégories, notamment :
- Persuasion individualisée
- La cyber-sécurité
- Menaces chimiques, biologiques, radiologiques et nucléaires (CBRN)
- Réplication et adaptation autonomes (ARA)
La mission de l’équipe de préparation comprend également l’élaboration et le maintien d’une politique de développement tenant compte des risques (RDP). Notre RDP détaillera notre approche pour développer des évaluations et un suivi rigoureux des capacités des modèles de frontière, créer un éventail d'actions de protection et établir une structure de gouvernance pour la responsabilité et la surveillance tout au long de ce processus de développement. Le RDP vise à compléter et à étendre nos travaux existants d’atténuation des risques, qui contribuent à la sécurité et à l’alignement de nouveaux systèmes hautement performants, avant et après le déploiement.