Les gouvernements et l’industrie conviennent que, même si l’IA offre d’énormes promesses au bénéfice du monde, des garde-fous appropriés sont nécessaires pour atténuer les risques. Des contributions importantes à ces efforts ont déjà été apportées par les gouvernements américain et britannique, l’Union européenne, l’OCDE, le G7 (via le processus d’IA d’Hiroshima) et d’autres.
Pour tirer parti de ces efforts, des travaux supplémentaires sont nécessaires sur les normes de sécurité et les évaluations afin de garantir que les modèles d’IA d’avant-garde soient développés et déployés de manière responsable. Le Forum sera un véhicule de discussions et d’actions interorganisationnelles sur la sécurité et la responsabilité de l’IA.
Le Forum se concentrera sur trois domaines clés au cours de l’année à venir pour soutenir le développement sûr et responsable de modèles d’IA de pointe :
- Identifier les bonnes pratiques : Promouvoir le partage des connaissances et des meilleures pratiques entre l'industrie, les gouvernements, la société civile et le monde universitaire, en mettant l'accent sur les normes et les pratiques de sécurité afin d'atténuer un large éventail de risques potentiels.
- Faire progresser la recherche sur la sécurité de l’IA : Soutenez l’écosystème de sécurité de l’IA en identifiant les questions de recherche ouvertes les plus importantes sur la sécurité de l’IA. Le Forum coordonnera la recherche pour faire progresser ces efforts dans des domaines tels que la robustesse contradictoire, l'interprétabilité mécaniste, la surveillance évolutive, l'accès indépendant à la recherche, les comportements émergents et la détection des anomalies. Dans un premier temps, l’accent sera fortement mis sur le développement et le partage d’une bibliothèque publique d’évaluations techniques et de références pour les modèles d’IA de pointe.
- Faciliter le partage d’informations entre les entreprises et les gouvernements : Établir des mécanismes fiables et sécurisés pour partager des informations entre les entreprises, les gouvernements et les parties prenantes concernées concernant la sécurité et les risques de l’IA. Le Forum suivra les meilleures pratiques en matière de divulgation responsable dans des domaines tels que la cybersécurité.
Kent Walker, président des affaires mondiales de Google et Alphabet, a déclaré : « Nous sommes ravis de travailler avec d'autres entreprises de premier plan, partageant notre expertise technique pour promouvoir une innovation responsable en matière d'IA. Nous allons tous devoir travailler ensemble pour garantir que l’IA profite à tout le monde.
Brad Smith, vice-président et président de Microsoft, a déclaré: « Les entreprises qui créent une technologie d’IA ont la responsabilité de garantir qu’elle est sûre, sécurisée et qu’elle reste sous contrôle humain. Cette initiative est une étape essentielle pour rassembler le secteur technologique afin de faire progresser l’IA de manière responsable et de relever les défis afin qu’elle profite à l’ensemble de l’humanité.
Anna Makanju, vice-présidente des affaires mondiales, OpenAI, a déclaré : « Les technologies avancées d’IA ont le potentiel de bénéficier profondément à la société, et la capacité de réaliser ce potentiel nécessite une surveillance et une gouvernance. Il est essentiel que les entreprises d’IA, en particulier celles qui travaillent sur les modèles les plus puissants, s’alignent sur un terrain d’entente et mettent en avant des pratiques de sécurité réfléchies et adaptables pour garantir que les outils d’IA puissants bénéficient du plus grand bénéfice possible. Il s’agit d’un travail urgent et ce forum est bien placé pour agir rapidement pour faire progresser la sécurité de l’IA.
Dario Amodei, PDG, Anthropic dit: « Anthropic estime que l’IA a le potentiel de changer fondamentalement le fonctionnement du monde. Nous sommes ravis de collaborer avec l'industrie, la société civile, le gouvernement et le monde universitaire pour promouvoir un développement sûr et responsable de la technologie. Le Frontier Model Forum jouera un rôle essentiel dans la coordination des meilleures pratiques et le partage des recherches sur la sécurité de l’IA aux frontières.