OpenAI est lutter contre les poursuites d'artistes, d'écrivains et d'éditeurs qui prétendent avoir utilisé leur travail de manière inappropriée pour entraîner les algorithmes derrière ChatGPT et d'autres systèmes d'IA. Mardi, la société a annoncé un outil apparemment conçu pour apaiser les créatifs et les titulaires de droits, en leur accordant un certain contrôle sur la manière dont OpenAI utilise leur travail.
La société annonce qu'elle lancera un outil en 2025 appelé Media Manager qui permettra aux créateurs de contenu de retirer leur travail du développement de l'IA de la société. Dans un article de blogOpenAI a décrit l'outil comme un moyen permettant « aux créateurs et aux propriétaires de contenu de nous dire ce qu'ils possèdent » et de préciser « comment ils souhaitent que leurs œuvres soient incluses ou exclues de la recherche et de la formation en apprentissage automatique ».
OpenAI a déclaré qu'elle travaillait avec « des créateurs, des propriétaires de contenu et des régulateurs » pour développer l'outil et qu'elle entendait « établir une norme pour l'industrie ». L’entreprise n’a nommé aucun de ses partenaires sur le projet ni précisé exactement comment l’outil fonctionnerait.
Les questions ouvertes sur le système incluent la question de savoir si les propriétaires de contenu pourront faire une seule demande pour couvrir tous leurs travaux et si OpenAI autorisera les demandes liées aux modèles déjà formés et lancés. Des recherches sont en cours sur la machine « désapprend » un processus qui ajuste un système d’IA pour supprimer rétrospectivement la contribution d’une partie de ses données d’entraînement, mais la technique n’est pas encore perfectionnée.
Ed Newton-Rex, PDG de la startup Fairly Trained, qui certifie les entreprises d'IA qui utilisent des données de formation d'origine éthique, affirme que le changement apparent d'OpenAI en matière de données de formation est le bienvenu, mais que la mise en œuvre sera critique. « Je suis heureux de voir OpenAI s'intéresser à ce problème. Que cela aide réellement les artistes ou non dépendra de détails, qui n'ont pas encore été fournis », dit-il. La première grande question qui lui vient à l’esprit : s’agit-il simplement d’un outil de désinscription qui permet à OpenAI de continuer à utiliser des données sans autorisation, à moins qu’un propriétaire de contenu ne demande son exclusion ? Ou cela représentera-t-il un changement plus important dans la façon dont OpenAI fonctionne ? OpenAI n'a pas immédiatement renvoyé de demande de commentaire.
Newton-Rex est également curieux de savoir si OpenAI permettra à d'autres sociétés d'utiliser son Media Manager afin que les artistes puissent signaler leurs préférences à plusieurs développeurs d'IA à la fois. « Si ce n'est pas le cas, cela ne fera qu'ajouter encore plus de complexité à un environnement de non-participation déjà complexe », déclare Newton-Rex, ancien cadre chez Stability AI, développeur du logiciel. Générateur d'images à diffusion stable.
OpenAI n'est pas le premier à chercher des moyens permettant aux artistes et autres créateurs de contenu de signaler leurs préférences concernant l'utilisation de leur travail et de leurs données personnelles pour des projets d'IA. D'autres entreprises technologiques, d'Adobe à Tumblr, proposent également outils de désinscription concernant la collecte de données et l’apprentissage automatique. La startup Spawning a lancé un registre appelé Ne pas s'entraîner il y a près de deux ans et les créateurs ont déjà ajouté leurs préférences pour 1,5 milliard d'œuvres.
Jordan Meyer, PDG de Spawning, déclare que la société ne travaille pas avec OpenAI sur son projet Media Manager, mais qu'elle est prête à le faire. « Si OpenAI est en mesure de faciliter l'enregistrement ou le respect des désinscriptions universelles, nous intégrerons volontiers leur travail dans notre suite », dit-il.