Malgré des années de preuves du contraire, de nombreux républicains croient encore que la victoire du président Joe Biden en 2020 était illégitime. Un certain nombre de candidats refusant les élections ont remporté leurs primaires lors du Super Tuesday, notamment Brandon Gille gendre de l'expert de droite Dinesh D'Souza et promoteur du démystifié 2000 Mules film. À l’approche des élections de cette année, les allégations de fraude électorale restent monnaie courante pour les candidats de droite, alimentées par la désinformation, en ligne et hors ligne.
Et l’avènement de l’IA générative pourrait potentiellement aggraver le problème. UN nouveau rapport du Center for Countering Digital Hate (CCDH), une organisation à but non lucratif qui suit les discours de haine sur les plateformes sociales, a constaté que même si les entreprises d'IA générative affirment avoir mis en place des politiques pour empêcher que leurs outils de création d'images ne soient utilisés pour diffuser des élections, liée à la désinformation, les chercheurs ont quand même réussi à contourner leurs mesures de protection et à créer les images.
Alors que certaines images présentaient des personnalités politiques, à savoir le président Joe Biden et Donald Trump, d’autres étaient plus génériques et, s’inquiète Callum Hood, chercheur en chef au CCDH, pourraient être plus trompeuses. Certaines images créées à la demande des chercheurs, par exemple, montraient des milices à l'extérieur d'un bureau de vote, montraient des bulletins de vote jetés à la poubelle ou des machines à voter falsifiées. Dans un cas, les chercheurs ont pu inciter Dream Studio de StabilityAI à générer une image du président Biden dans un lit d’hôpital, l’air malade.
«La véritable faiblesse résidait dans les images qui pouvaient être utilisées pour tenter de prouver de fausses allégations d'élections volées», explique Hood. « La plupart des plateformes n'ont pas de politiques claires à ce sujet, ni de mesures de sécurité claires non plus. »
Les chercheurs du CCDH ont testé 160 invites sur ChatGPT Plus, Midjourney, Dream Studio et Image Creator, et ont découvert que Midjourney était le plus susceptible de produire des images trompeuses liées aux élections, dans environ 65 % des cas. Les chercheurs n’ont pu inciter ChatGPT Plus à le faire que 28 % du temps.
«Cela montre qu'il peut y avoir des différences significatives entre les mesures de sécurité mises en place par ces outils», explique Hood. «Si l'un d'eux comble si efficacement ces faiblesses, cela signifie que les autres ne s'en soucient pas vraiment.»
En janvier, OpenAI annoncé il prenait des mesures pour « s’assurer que notre technologie ne soit pas utilisée d’une manière qui pourrait nuire à ce processus », notamment en interdisant les images qui décourageraient les gens de « participer aux processus démocratiques ». En février, Bloomberg a rapporté que Midjourney envisageait d'interdire la création d'images politiques dans son ensemble. Dream Studio interdit générer du contenu trompeur, mais ne semble pas avoir de politique électorale spécifique. Et même si Image Creator interdit la création de contenu susceptible de menacer l'intégrité des élections, il permet toujours aux utilisateurs de générer des images de personnalités publiques.
Kayla Wood, porte-parole d'OpenAI, a déclaré à WIRED que la société s'efforce de « améliorer la transparence sur le contenu généré par l'IA et de concevoir des mesures d'atténuation, comme le refus des demandes qui demandent la génération d'images de personnes réelles, y compris des candidats. Nous développons activement des outils de provenance, notamment en mettant en œuvre des informations d’identification numériques C2PA, pour aider à vérifier l’origine des images créées par DALL-E 3. Nous continuerons à nous adapter et à apprendre de l’utilisation de nos outils.
Microsoft, OpenAI, StabilityAI et Midjourney n'ont pas répondu aux demandes de commentaires.
Hood craint que le problème de l'IA générative soit double : non seulement les plates-formes d'IA générative doivent empêcher la création d'images trompeuses, mais les plates-formes doivent également être capables de les détecter et de les supprimer. UN rapport récent de IEEE Spectrum a découvert que le propre système de Meta pour filigraner le contenu généré par l'IA était facilement contourné.
«Pour l’instant, les plateformes ne sont pas particulièrement bien préparées à cela. Les élections seront donc l’un des véritables tests de sécurité autour des images d’IA », déclare Hood. « Nous avons besoin à la fois d’outils et de plateformes pour faire beaucoup plus de progrès dans ce domaine, en particulier en ce qui concerne les images qui pourraient être utilisées pour promouvoir des allégations d’élections volées ou pour décourager les gens de voter. »