Même l’algorithme d’intelligence artificielle le plus intelligent et le plus astucieux devra vraisemblablement obéir aux lois du silicium. Ses capacités seront limitées par le matériel sur lequel il fonctionne.
Certains chercheurs explorent les moyens d’exploiter cette connexion pour limiter le potentiel dommageable des systèmes d’IA. L’idée est d’encoder les règles régissant la formation et le déploiement d’algorithmes avancés directement dans les puces informatiques nécessaires à leur exécution.
En théorie – domaine où se déroulent actuellement de nombreux débats sur l’IA dangereusement puissante – cela pourrait constituer un nouveau moyen puissant d’empêcher des nations voyous ou des entreprises irresponsables de développer secrètement une IA dangereuse. Et il est plus difficile d’y échapper que les lois ou les traités conventionnels. Un rapport publié plus tôt ce mois-ci par le Centre pour la nouvelle sécurité américaineun groupe de réflexion américain influent sur la politique étrangère, souligne avec quelle prudence le silicium entravé pourrait être exploité pour appliquer une série de contrôles sur l’IA.
Certaines puces comportent déjà des composants fiables conçus pour protéger les données sensibles ou se prémunir contre une utilisation abusive. Les derniers iPhones, par exemple, conservent les informations biométriques d'une personne dans un « enclave sécurisée.» Google utilise un puce personnalisée dans ses serveurs cloud pour garantir que rien n'a été falsifié.
Le document suggère d’exploiter des fonctionnalités similaires intégrées aux GPU – ou d’en graver de nouvelles dans les futures puces – pour empêcher les projets d’IA d’accéder à plus d’une certaine quantité de puissance de calcul sans licence. Étant donné qu’une puissance de calcul importante est nécessaire pour entraîner les algorithmes d’IA les plus puissants, comme ceux à l’origine de ChatGPT, cela limiterait les personnes capables de construire les systèmes les plus puissants.
Le CNAS affirme que les licences pourraient être délivrées par un gouvernement ou un régulateur international et actualisées périodiquement, ce qui permettrait de couper l'accès à la formation en IA en en refusant une nouvelle. « Vous pourriez concevoir des protocoles tels que vous ne puissiez déployer un modèle que si vous avez effectué une évaluation particulière et obtenu un score supérieur à un certain seuil, par exemple pour des raisons de sécurité », explique Tim Fist, chercheur au CNAS et l'un des trois auteurs de l'étude. le papier.
Quelques sommités de l'IA je m'inquiète du fait que l'IA soit maintenant devenant si intelligent qu'il pourrait un jour s'avérer indiscipliné et dangereux. Plus immédiatement, certains experts et gouvernements s’inquiètent du fait que même les modèles d’IA existants pourraient faciliter le développement d’armes chimiques ou biologiques ou automatiser la cybercriminalité. Washington a déjà imposé une série de contrôles à l'exportation de puces IA limiter l'accès de la Chine à l'IA la plus avancée, craignant qu'elle ne soit utilisée à des fins militaires – même si la contrebande et l'ingénierie intelligente ont fourni certaines les moyens de les contourner. Nvidia a refusé de commenter, mais la société a perdu des milliards de dollars de commandes en provenance de Chine en raison des derniers contrôles américains à l'exportation.
Fist of CNAS affirme que même si les restrictions imposées au matériel informatique peuvent sembler extrêmes, il existe un précédent dans la mise en place d'une infrastructure pour surveiller ou contrôler des technologies importantes et faire respecter les traités internationaux. « Si l’on pense à la sécurité et à la non-prolifération nucléaire, les technologies de vérification étaient absolument essentielles pour garantir les traités », explique Fist du CNAS. « Le réseau de sismomètres dont nous disposons désormais pour détecter les essais nucléaires souterrains sous-tend les traités qui stipulent que nous ne testerons pas d’armes souterraines au-dessus d’un certain seuil de kilotonnes. »
Les idées avancées par le CNAS ne sont pas entièrement théoriques. Les puces de formation IA les plus importantes de Nvidia, cruciales pour créer les modèles d'IA les plus puissants, sont déjà livrées avec modules cryptographiques sécurisés. Et en novembre 2023, des chercheurs du Institut du futur de la vieune organisation à but non lucratif dédiée à la protection de l'humanité contre les menaces existentielles, et Sécurité en mithrilune startup de sécurité, a créé une démo qui montre comment le module de sécurité d'un processeur Intel pourrait être utilisé pour un schéma cryptographique pouvant restreindre l'utilisation non autorisée d'un modèle d'IA.