Meta, comme d'autres grandes entreprises technologiques, a passé l'année dernière à promettre d'accélérer le déploiement de technologies génératives. intelligence artificielle. Aujourd'hui, elle reconnaît qu'elle doit également réagir aux aléas de la technologie, en annonçant une politique élargie de marquer les images générées par l'IA publiées sur Facebook, Instagram et Threads avec des étiquettes d'avertissement pour informer les gens de leurs origines artificielles.
Pourtant, il est peu probable qu'une grande partie des médias synthétiques susceptibles d'apparaître sur les plateformes de Meta soient couvertes par la nouvelle politique, ce qui laisse de nombreuses lacunes par lesquelles des acteurs malveillants pourraient se glisser. «C'est un pas dans la bonne direction, mais avec des défis», déclare Sam Gregory, directeur de programme de l'association à but non lucratif Witness, qui aide les gens à utiliser la technologie pour défendre les droits humains.
Meta étiquette déjà les images générées par l'IA et réalisées à l'aide de ses propres outils d'IA générative avec la balise « Imagined with AI », en partie en recherchant le « filigrane » numérique que ses algorithmes intègrent dans leur sortie. Meta indique désormais que dans les mois à venir, elle étiquetera également les images d'IA réalisées avec des outils proposés par d'autres sociétés qui intègrent des filigranes dans leur technologie.
Cette politique est censée réduire le risque de propagation de fausses informations ou de désinformation par des images générées par l’IA et présentées comme des photos. Mais bien que Meta ait déclaré travailler pour soutenir la technologie de divulgation en cours de développement chez Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock, la technologie n'est pas encore largement déployée. Et de nombreux outils de génération d’images IA sont disponibles sans filigrane sur leur sortie, la technologie devenant de plus en plus facile d’accès et de modification. « La seule manière pour qu'un tel système soit efficace est la participation d'un large éventail d'outils et de plates-formes génératives », explique Gregory.
Même si le filigrane bénéficie d’un large soutien, on ne sait pas exactement quelle sera la solidité de la protection qu’il offrira. Il n’existe pas de norme universellement déployée, mais la Coalition for Content Provenance and Authenticity (C2PA), une initiative fondée par Adobe, a aidé les entreprises à commencer à aligner leur travail sur ce concept. Mais la technologie développée jusqu’à présent n’est pas infaillible. Dans un étude publiée l'année dernièreles chercheurs ont découvert qu'ils pouvaient facilement supprimer les filigranes ou les ajouter à des images qui n'avaient pas été générées par l'IA pour donner l'impression que c'était le cas.
Faille malveillante
Hany Farid, professeur à l'École d'information de l'Université de Berkeley qui a conseillé l'initiative C2PA, affirme que toute personne intéressée par l'utilisation malveillante de l'IA générative se tournera probablement vers des outils qui ne filigranent pas leurs résultats ou ne trahissent pas leur nature. Par exemple, les créateurs du faux appel automatisé L'utilisation de la voix du président Joe Biden ciblant certains électeurs du New Hampshire le mois dernier n'a ajouté aucune révélation sur ses origines.
Et il pense que les entreprises devraient se préparer à ce que les mauvais acteurs ciblent la méthode qu’ils tentent d’utiliser pour identifier la provenance du contenu. Farid soupçonne que plusieurs formes d'identification pourraient devoir être utilisées de concert pour identifier de manière robuste les images générées par l'IA, par exemple en combinant le filigrane avec une technologie basée sur le hachage utilisée pour créer des listes de surveillance pour les images générées par l'IA. matériel d'abus sexuel sur des enfants. Et le filigrane est un concept moins développé pour les médias générés par l’IA autres que les images, tels que l’audio et la vidéo.
« Alors que les entreprises commencent à inclure des signaux dans leurs générateurs d'images, elles n'ont pas commencé à les inclure dans les outils d'IA qui génèrent de l'audio et de la vidéo à la même échelle. Nous ne pouvons donc pas encore détecter ces signaux et étiqueter ce contenu provenant d'autres entreprises. » Le porte-parole de Meta, Kevin McAlister, reconnaît. « Alors que l'industrie travaille à cette fonctionnalité, nous ajoutons une fonctionnalité permettant aux utilisateurs de divulguer lorsqu'ils partagent une vidéo ou un audio généré par l'IA afin que nous puissions y ajouter une étiquette. »
Les nouvelles politiques de Meta pourraient l'aider à détecter davantage de faux contenus, mais tous les médias manipulés ne sont pas générés par l’IA. Une décision publiée lundi par le conseil de surveillance composé d'experts indépendants de Meta, qui examine certains appels à la modération, a confirmé la décision de l'entreprise de laisser tomber un vidéo du président Joe Biden qui a été modifié pour donner l'impression qu'il touche de manière inappropriée la poitrine de sa petite-fille. Mais le conseil d'administration a déclaré que même si la vidéo, qui n'était pas générée par l'IA, ne violait pas les politiques actuelles de Meta, elle devrait réviser et développer ses règles pour les « médias manipulés » couvrent plus que le simple contenu généré par l’IA.
McAlister, le porte-parole de Meta, a déclaré que la société « examine les orientations du conseil de surveillance et répondra publiquement à ses recommandations dans les 60 jours, conformément aux statuts ». Farid dit que cette lacune dans les politiques de Meta et l'accent technique mis uniquement sur les images filigranées générées par l'IA suggèrent que le plan de l'entreprise pour l'ère de la génération IA est incomplet.