Si 2022 a été l’année du début du boom de l’IA générative, 2023 a été l’année de la panique de l’IA générative. Un peu plus de 12 mois depuis OpenAI a publié ChatGPT et définir un enregistrer pour le produit de consommation connaissant la croissance la plus rapide, il semble également avoir contribué à établir un record d’intervention gouvernementale la plus rapide dans une nouvelle technologie. Les Etats Unis Commission électorale fédérale enquête sur les publicités de campagne trompeuses, le Congrès appelle à une surveillance de la manière dont les sociétés d'IA développent et étiquetent les données de formation pour leurs algorithmes, et le Union européenne a adopté sa nouvelle loi sur l’IA avec des ajustements de dernière minute pour répondre à l’IA générative.
Mais malgré toute leur nouveauté et leur rapidité, les problèmes de l’IA générative sont également douloureusement familiers. OpenAI et ses concurrents qui se précipitent pour lancer de nouveaux modèles d'IA sont confrontés à des problèmes qui persistent depuis près de deux décennies sur les plateformes sociales, cette nouvelle technologie qui a façonné l'ère auparavant. Des entreprises comme Meta n’ont jamais pris le dessus sur la désinformation, les pratiques de travail sommaires et pornographie non consensuelle, pour ne citer que quelques-unes de leurs conséquences involontaires. Aujourd’hui, ces problèmes prennent une nouvelle vie, avec une touche d’IA.
« Ce sont des problèmes tout à fait prévisibles », explique Hany Farid, professeur à la School of Information de l'UC Berkeley, à propos des maux de tête auxquels sont confrontés OpenAI et d'autres. « Je pense qu'ils étaient évitables. »
Un chemin bien parcouru
Dans certains cas, les entreprises d’IA générative s’appuient directement sur une infrastructure problématique mise en place par les entreprises de médias sociaux. Facebook et d'autres en sont venus à s'appuyer sur des réseaux peu rémunérés, modération de contenu externalisée travailleurs – souvent dans les pays du Sud – pour garder à distance les contenus tels que les discours de haine ou les images comportant de la nudité ou de la violence.
Cette même main-d'œuvre est désormais sollicitée pour aider à s'entraîner modèles d’IA génératifs, souvent avec des salaires tout aussi bas et des conditions de travail difficiles. Parce que l’externalisation place les fonctions cruciales d’une plateforme sociale ou d’une entreprise d’IA à distance administrative de son siège social, et souvent sur un autre continent, les chercheurs et les régulateurs peuvent avoir du mal à avoir une image complète de la façon dont un système d’IA ou un réseau social est construit et gouverné.
L’externalisation peut également masquer la véritable intelligence d’un produit. Lorsqu’un élément de contenu disparaît, a-t-il été supprimé par un algorithme ou par l’un des milliers de modérateurs humains ? Lorsqu’un chatbot de service client aide un client, quelle part de crédit revient à l’IA et quelle part au travailleur dans un centre d’externalisation surchauffé ?
Il existe également des similitudes dans la manière dont les entreprises d’IA et les plateformes sociales réagissent aux critiques concernant leurs effets néfastes ou involontaires. Les entreprises d’IA parlent de mettre en place des « garanties » et des politiques « d’utilisation acceptable » sur certains modèles d’IA générative, tout comme les plateformes ont leurs conditions de service concernant le contenu autorisé et non autorisé. Comme pour les règles des réseaux sociaux, les politiques et protections en matière d’IA se sont révélées relativement faciles à contourner.