Fournissant une ressource aux décideurs politiques américains, un comité composé de dirigeants et d'universitaires du MIT a publié un ensemble de notes d'orientation qui définit un cadre pour la gouvernance de l’intelligence artificielle. L’approche consiste notamment à étendre les approches actuelles en matière de réglementation et de responsabilité afin de trouver un moyen pratique de superviser l’IA.
L’objectif de ces documents est de contribuer à renforcer le leadership américain dans le domaine de l’intelligence artificielle au sens large, tout en limitant les dommages pouvant résulter des nouvelles technologies et en encourageant l’exploration de la manière dont le déploiement de l’IA pourrait être bénéfique à la société.
Le principal document d’orientation, « Un cadre pour la gouvernance de l’IA aux États-Unis : créer un secteur de l’IA sûr et prospère », suggère que les outils d’IA peuvent souvent être réglementés par des entités gouvernementales américaines existantes qui supervisent déjà les domaines concernés. Les recommandations soulignent également l’importance d’identifier l’objectif des outils d’IA, ce qui permettrait aux réglementations de s’adapter à ces applications.
« En tant que pays, nous réglementons déjà beaucoup de choses à risque relativement élevé et y assurons une gouvernance », déclare Dan Huttenlocher, doyen du MIT Schwarzman College of Computing, qui a aidé à piloter le projet, issu du travail d'un publicitaire. comité ad hoc du MIT. « Nous ne disons pas que cela est suffisant, mais commençons par des domaines dans lesquels l'activité humaine est déjà réglementée et dont la société, au fil du temps, a jugé qu'ils présentaient un risque élevé. Considérer l’IA de cette façon est l’approche pratique.
« Le cadre que nous avons mis en place donne une manière concrète de réfléchir à ces choses », déclare Asu Ozdaglar, vice-doyen des études au MIT Schwarzman College of Computing et chef du département de génie électrique et d'informatique (EECS) du MIT, qui a également aidé à superviser l’effort.
Le projet comprend plusieurs documents politiques supplémentaires et s’inscrit dans un contexte d’intérêt accru pour l’IA au cours de l’année dernière ainsi que de nouveaux investissements considérables de l’industrie dans ce domaine. L’Union européenne tente actuellement de finaliser la réglementation de l’IA en utilisant sa propre approche, qui attribue de larges niveaux de risque à certains types d’applications. Dans ce processus, les technologies d’IA à usage général telles que les modèles linguistiques sont devenues un nouveau point de friction. Tout effort de gouvernance est confronté aux défis liés à la réglementation des outils d’IA généraux et spécifiques, ainsi qu’à une série de problèmes potentiels, notamment la désinformation, les deepfakes, la surveillance, etc.
« Nous avons pensé qu'il était important que le MIT s'implique dans ce projet parce que nous possédons une expertise », explique David Goldston, directeur du bureau du MIT à Washington. « Le MIT est l’un des leaders de la recherche sur l’IA, l’un des lieux où l’IA a fait ses débuts. Puisque nous faisons partie de ceux qui créent des technologies qui soulèvent ces questions importantes, nous nous sentons obligés de contribuer à les résoudre.
Objectif, intention et garde-fous
La note d’orientation principale décrit comment la politique actuelle pourrait être étendue pour couvrir l’IA, en utilisant lorsque cela est possible les agences de régulation et les cadres de responsabilité juridique existants. Les États-Unis ont par exemple des lois strictes en matière de licences dans le domaine de la médecine. Il est déjà illégal de se faire passer pour un médecin ; Si l’IA devait être utilisée pour prescrire des médicaments ou poser un diagnostic sous couvert d’être médecin, il devrait être clair que cela violerait la loi, tout comme le ferait une malversation strictement humaine. Comme le note la note d’orientation, il ne s’agit pas seulement d’une approche théorique ; les véhicules autonomes, qui déploient des systèmes d’IA, sont soumis à la réglementation de la même manière que les autres véhicules.
Une étape importante dans l’élaboration de ces régimes de réglementation et de responsabilité, souligne la note d’orientation, consiste à demander aux fournisseurs d’IA de définir à l’avance le but et l’intention des applications d’IA. L’examen des nouvelles technologies sur cette base permettrait alors de clarifier quels ensembles de réglementations et de régulateurs existants sont pertinents pour un outil d’IA donné.
Cependant, il arrive également que les systèmes d’IA puissent exister à plusieurs niveaux, dans ce que les technologues appellent une « pile » de systèmes qui, ensemble, fournissent un service particulier. Par exemple, un modèle de langage à usage général peut sous-tendre un nouvel outil spécifique. En général, selon les brèves notes, le fournisseur d'un service spécifique peut être le principal responsable des problèmes liés à celui-ci. Cependant, « lorsqu’un système de composants d’une pile ne fonctionne pas comme promis, il peut être raisonnable que le fournisseur de ce composant partage la responsabilité », comme l’indique le premier mémoire. Les constructeurs d'outils à usage général devraient donc également être tenus responsables si leurs technologies sont impliquées dans des problèmes spécifiques.
«Cela rend la réflexion sur la gouvernance plus difficile, mais les modèles de fondation ne doivent pas être complètement laissés de côté», déclare Ozdaglar. « Dans de nombreux cas, les modèles proviennent de fournisseurs et vous développez une application par-dessus, mais ils font partie de la pile. Quelle est la responsabilité là-bas ? Si les systèmes ne sont pas au sommet de la pile, cela ne veut pas dire qu’ils ne doivent pas être pris en compte.
Le fait que les fournisseurs d’IA définissent clairement le but et l’intention des outils d’IA, et qu’ils exigent des garde-fous pour empêcher toute utilisation abusive, pourraient également aider à déterminer dans quelle mesure les entreprises ou les utilisateurs finaux sont responsables de problèmes spécifiques. La note d’orientation indique qu’un bon régime réglementaire devrait être capable d’identifier ce qu’il appelle une situation de « fourchette dans le grille-pain », c’est-à-dire qu’un utilisateur final pourrait raisonnablement être tenu responsable de connaître les problèmes que pourrait engendrer une mauvaise utilisation d’un outil.
Réactif et flexible
Même si le cadre politique implique les agences existantes, il inclut également l’ajout de nouvelles capacités de surveillance. D’une part, la note d’orientation appelle à des progrès dans l’audit des nouveaux outils d’IA, qui pourraient progresser selon diverses voies, qu’elles soient initiées par le gouvernement, pilotées par les utilisateurs ou découlant de procédures de responsabilité juridique. Il faudrait qu'il y ait des normes publiques d'audit, note le papier, qu'elles soient établies par une entité à but non lucratif sur le modèle du Public Company Accounting Oversight Board (PCAOB), ou par l'intermédiaire d'une entité fédérale similaire au National Institute of Standards and Technology (NIST). ).
Et le document appelle à envisager la création d’une nouvelle agence d’« organisme d’autoréglementation » (OAR) approuvée par le gouvernement, sur le modèle fonctionnel de la FINRA, l’autorité de régulation du secteur financier créée par le gouvernement. Une telle agence, axée sur l’IA, pourrait accumuler des connaissances spécifiques à un domaine qui lui permettraient d’être réactive et flexible lorsqu’elle s’engage dans un secteur de l’IA en évolution rapide.
« Ces choses sont très complexes, les interactions entre les humains et les machines, vous avez donc besoin de réactivité », explique Huttenlocher, qui est également professeur Henry Ellis Warren en informatique, intelligence artificielle et prise de décision à l'EECS. « Nous pensons que si le gouvernement envisage de créer de nouvelles agences, il devrait vraiment se pencher sur cette structure SRO. Ils ne remettent pas les clés du magasin, car il s'agit toujours d'un magasin agréé et supervisé par le gouvernement.
Comme le montrent clairement les documents d’orientation, plusieurs autres questions juridiques particulières devront être abordées dans le domaine de l’IA. Les questions de droit d’auteur et autres questions de propriété intellectuelle liées à l’IA font généralement déjà l’objet de litiges.
Et puis il y a ce qu’Ozdaglar appelle les questions juridiques « humaines plus », dans lesquelles l’IA a des capacités qui vont au-delà de ce que les humains sont capables de faire. Il s’agit notamment d’outils de surveillance de masse, et le comité reconnaît qu’ils peuvent nécessiter une considération juridique particulière.
« L'IA permet des choses que les humains ne peuvent pas faire, comme la surveillance ou les fausses nouvelles à grande échelle, qui peuvent nécessiter une attention particulière au-delà de ce qui est applicable aux humains », explique Ozdaglar. « Mais notre point de départ vous permet toujours de réfléchir aux risques, puis à la manière dont ces risques sont amplifiés par les outils. »
L'ensemble des documents d'orientation aborde en détail un certain nombre de questions réglementaires. Par exemple, un article intitulé « Labeling AI-Generated Content : Promises, Perils, and Future Directions » de Chloe Wittenberg, Ziv Epstein, Adam J. Berinsky et David G. Rand, s'appuie sur des expériences de recherche antérieures sur l'engagement des médias et du public. évaluer des approches spécifiques pour désigner le matériel produit par l’IA. Un autre article, « Large Language Models », rédigé par Yoon Kim, Jacob Andreas et Dylan Hadfield-Menell, examine les innovations en matière d'IA basées sur le langage à usage général.
« Cela fait partie de la bonne façon de faire les choses »
Comme le montrent clairement les notes d’orientation, un autre élément d’un engagement efficace du gouvernement sur le sujet consiste à encourager davantage de recherches sur la manière de rendre l’IA bénéfique à la société en général.
Par exemple, le document politique « Pouvons-nous avoir une IA pro-travailleur ? Choisir une voie de machines au service des esprits », de Daron Acemoglu, David Autor et Simon Johnson, explore la possibilité que l'IA puisse augmenter et aider les travailleurs, plutôt que d'être déployée pour les remplacer – un scénario qui offrirait de meilleurs résultats à long terme. croissance économique répartie dans toute la société.
Cette gamme d’analyses, issues de diverses perspectives disciplinaires, est quelque chose que le comité ad hoc a voulu appliquer dès le départ à la question de la réglementation de l’IA – en élargissant la perspective qui peut être portée à l’élaboration des politiques, plutôt que de la restreindre à quelques-unes. questions techniques.
« Nous pensons que les établissements universitaires ont un rôle important à jouer, tant en termes d'expertise en matière de technologie que d'interaction entre la technologie et la société », déclare Huttenlocher. «Cela reflète ce qui sera important pour bien gouverner cela, des décideurs politiques qui réfléchissent ensemble aux systèmes sociaux et à la technologie. C’est ce dont la nation aura besoin.
En effet, note Goldston, le comité tente de combler le fossé entre ceux qui sont enthousiasmés et ceux qui s’inquiètent de l’IA, en s’efforçant de plaider pour qu’une réglementation adéquate accompagne les progrès technologiques.
Comme le dit Goldston, le comité qui publie ces documents n’est « pas un groupe qui s’oppose à la technologie ou qui tente d’étouffer l’IA. Mais c’est néanmoins un groupe qui affirme que l’IA a besoin de gouvernance et de surveillance. Cela fait partie de la façon de procéder correctement. Ce sont des gens qui connaissent cette technologie et qui disent que l’IA doit être surveillée.
Huttenlocher ajoute : « Travailler au service de la nation et du monde est quelque chose que le MIT prend au sérieux depuis de très nombreuses décennies. C’est un moment très important pour cela.
Outre Huttenlocher, Ozdaglar et Goldston, les membres du comité ad hoc sont : Daron Acemoglu, professeur à l'Institut et professeur d'économie Elizabeth et James Killian à l'École des arts, des sciences humaines et sociales ; Jacob Andreas, professeur associé à l'EECS ; David Autor, professeur d'économie Ford ; Adam Berinsky, professeur Mitsui de sciences politiques ; Cynthia Breazeal, doyenne de l'apprentissage numérique et professeure d'arts et de sciences médiatiques ; Dylan Hadfield-Menell, professeur adjoint de développement de carrière Tennenbaum en intelligence artificielle et prise de décision ; Simon Johnson, professeur Kurtz d'entrepreneuriat à la MIT Sloan School of Management ; Yoon Kim, professeur adjoint de développement de carrière NBX à l'EECS ; Sendhil Mullainathan, professeur d'informatique et de sciences comportementales à l'Université de la famille romaine à la Booth School of Business de l'Université de Chicago ; Manish Raghavan, professeur adjoint de technologies de l'information au MIT Sloan ; David Rand, professeur Erwin H. Schell au MIT Sloan et professeur de sciences du cerveau et des sciences cognitives ; Antonio Torralba, professeur Delta Electronics de génie électrique et d'informatique ; et Luis Videgaray, maître de conférences au MIT Sloan.