L’autre soir, j’ai assisté à un dîner de presse organisé par une entreprise appelée Box. Parmi les autres invités figuraient les dirigeants de deux sociétés orientées données, Datadog et MongoDB. Habituellement, les dirigeants présents à ces soirées font preuve de leur meilleur comportement, surtout lorsque la discussion est enregistrée, comme celle-ci. J'ai donc été surpris par un échange avec le PDG de Box, Aaron Levie, qui nous a dit qu'il avait eu un arrêt difficile au dessert parce qu'il prenait l'avion ce soir-là pour Washington, DC. Il se dirigeait vers un marathon d'intérêt spécial appelé TechNet Day, où la Silicon Valley peut rencontrer des dizaines de créatures du Congrès pour façonner ce que le public (non invité) il faudra vivre avec. Et qu’attendait-il de cette législation ? « Le moins possible », répondit Levie. « Je serai seul responsable de l’arrêt du gouvernement. »
Il plaisantait à ce sujet. Sorte de. Il a poursuivi en disant que tout en réglementant les abus évidents de l'IA comme contrefaçons profondes Cela a du sens, il est bien trop tôt pour envisager des contraintes telles que forcer les entreprises à soumettre de grands modèles de langage à des agents d'IA approuvés par le gouvernement, ou analyser les chatbots à la recherche d'éléments tels que les préjugés ou la capacité de pirater l'infrastructure réelle. Il a évoqué l'Europe, qui a déjà adopté des restrictions sur l’IA comme exemple de ce que pas faire. « Ce que fait l’Europe est assez risqué », a-t-il déclaré. « Au sein de l'UE, on pense que si l'on réglemente d'abord, on crée en quelque sorte une atmosphère d'innovation », a déclaré Levie. « Cela s'est avéré empiriquement faux. »
Les remarques de Levie vont à l'encontre de ce qui est devenu une position standard parmi les élites de l'IA de la Silicon Valley, comme Sam Altman. « Oui, régulez-nous ! » ils disent. Mais Levie note que lorsqu’il s’agit de savoir exactement ce que devraient dire les lois, le consensus s’effondre. « En tant qu'industrie technologique, nous ne savons pas ce que nous demandons réellement », a déclaré Levie. « Je n'ai pas assisté à un dîner avec plus de cinq personnes travaillant dans le domaine de l'IA où il existe un accord unique sur la manière de réglementer l'IA. » Ce n’est pas important : Levie pense que les rêves d’un vaste projet de loi sur l’IA sont voués à l’échec. « La bonne nouvelle est que les États-Unis ne pourront jamais se coordonner de cette manière. Il n’y aura tout simplement pas de loi sur l’IA aux États-Unis.
Levie est connu pour son bavardage irrévérencieux. Mais dans ce cas-ci, il est tout simplement plus franc que nombre de ses collègues, dont la position de nous réglementer s'il vous plaît est une forme de corde à linge sophistiquée. Le seul événement public du TechNet Day, du moins autant que j'ai pu le constater, était un panel diffusé en direct discussion sur l'innovation en matière d'IA à laquelle ont participé Kent Walker, président des affaires mondiales de Google, et Michael Kratsios, le plus récent directeur de la technologie aux États-Unis et aujourd'hui cadre chez Scale AI. Le sentiment parmi ces panélistes était que le gouvernement devrait se concentrer sur la protection du leadership américain dans ce domaine. Tout en admettant que la technologie comporte des risques, ils ont fait valoir que les lois existantes couvrent largement les méchancetés potentielles.
Walker de Google semblait particulièrement alarmé par le fait que certains États élaboraient eux-mêmes une législation sur l'IA. « Rien qu'en Californie, 53 projets de loi différents sur l'IA sont actuellement en attente devant le corps législatif », a-t-il déclaré, et il ne se vantait pas. Walker sait bien sûr que ce Congrès peut difficilement maintenir le gouvernement lui-même à flot, et la perspective de voir les deux chambres réussir à jongler avec cette patate chaude au cours d'une année électorale est aussi lointaine que Google réembauchant les huit auteurs de l’article sur le transformateur.
Le Congrès américain a une législation en attente. Et les factures continuent d’affluer – certaines peut-être moins significatives que d’autres. Cette semaine, le représentant Adam Schiff, un démocrate californien, a présenté un projet de loi intitulé la Generative AI Copyright Disclosure Act de 2024. Il exige que les grands modèles linguistiques présentent au bureau du droit d'auteur « un résumé suffisamment détaillé de toutes les œuvres protégées par le droit d'auteur utilisées… dans l'ensemble de données de formation ». On ne sait pas clairement ce que signifie « suffisamment détaillé ». Serait-il acceptable de dire « Nous avons simplement gratté le Web ouvert ? » Les collaborateurs de Schiff m'ont expliqué qu'ils étaient en train d'adopter une mesure dans le cadre du projet de loi européen sur l'IA.