OpenAI a publié mercredi un projet de documentation expliquant comment il souhaite que ChatGPT et ses autres technologies d'IA se comportent. Une partie du long Document de spécification du modèle révèle que la société envisage de se lancer dans la pornographie et d’autres contenus explicites.
OpenAI politiques d'utilisation interdit actuellement les contenus sexuellement explicites ou même suggestifs, mais une note de « commentaire » sur une partie de la spécification du modèle liée à cette règle indique que la société réfléchit à la manière d'autoriser un tel contenu.
« Nous étudions si nous pouvons fournir de manière responsable la possibilité de générer du contenu NSFW dans des contextes adaptés à l'âge via l'API et ChatGPT », indique la note, utilisant un terme familier pour désigner le contenu considéré comme non sûr pour les contextes de travail. « Nous sommes impatients de mieux comprendre les attentes des utilisateurs et de la société en matière de comportement des modèles dans ce domaine. »
Le document Model Spec indique que le contenu NSFW, ou non sûr pour le travail, « peut inclure de l'érotisme, du sang extrême, des insultes et des grossièretés non sollicitées ». Il n'est pas clair si les explorations d'OpenAI sur la manière de créer de manière responsable du contenu NSFW envisagent d'assouplir légèrement sa politique d'utilisation, par exemple pour permettre la génération de textes érotiques, ou plus largement pour autoriser des descriptions ou des représentations de violence.
En réponse aux questions de WIRED, la porte-parole d'OpenAI, Grace McGuire, a déclaré que le Model Spec était une tentative « d'apporter plus de transparence sur le processus de développement et d'obtenir un échantillon représentatif des perspectives et des commentaires du public, des décideurs politiques et d'autres parties prenantes ». Elle a refusé de partager des détails sur ce qu'implique l'exploration d'OpenAI sur la génération de contenu explicite, ou sur les commentaires que l'entreprise a reçus sur l'idée.
Plus tôt cette année, le directeur de la technologie d'OpenAI Mira Murati dit le le journal Wall Street qu'elle était « pas certain» si l'entreprise permettait à l'avenir de réaliser des représentations de nudité avec son outil de génération vidéo Sora.
La pornographie générée par l'IA est rapidement devenue l'une des applications les plus importantes et les plus troublantes du type de technologie d’IA générative OpenAI a été pionnier. Ce qu’on appelle la pornographie deepfake – des images ou des vidéos explicites réalisées avec des outils d’IA qui représentent de vraies personnes sans leur consentement – est devenue un outil courant de harcèlement contre les femmes et les filles. En mars, WIRED a rendu compte de ce qui semble être le États-Unis : premiers mineurs arrêtés pour avoir distribué des nus générés par l'IA sans consentementaprès que la police de Floride a inculpé deux adolescents pour avoir réalisé des images représentant d'autres collégiens.
« Les violations de la vie privée, y compris les vidéos sexuelles deepfakes et autres images intimes synthétisées non consensuelles, sont endémiques et profondément préjudiciables », déclare Danielle Keats Citron, professeur à la faculté de droit de l'Université de Virginie qui a étudié le problème. « Nous disposons désormais de preuves empiriques claires démontrant que ces coûts d'abus ciblaient les opportunités cruciales des individus, notamment celles de travailler, de parler et d'être physiquement en sécurité. »
Citron qualifie d’alarmante l’adoption potentielle par OpenAI du contenu explicite de l’IA.
Étant donné que les politiques d'utilisation d'OpenAI interdisent l'usurpation d'identité sans autorisation, les images explicites non consensuelles resteraient interdites même si l'entreprise autorisait les créateurs à générer du matériel NSFW. Mais il reste à voir si l’entreprise pourrait effectivement modérer la génération explicite pour empêcher les mauvais acteurs d’utiliser ces outils. Microsoft a apporté des modifications à l'un de ses outils d'IA générative après 404 médias ont rapporté qu'il avait été utilisé pour créer des images explicites de Taylor Swift qui ont été distribuées sur la plateforme sociale X.
Reportage supplémentaire de Reece Rogers