Les experts savent que l’IA générative est sur le point de changer radicalement le paysage de l’information, et que les problèmes qui affectent depuis longtemps les plateformes technologiques – comme la désinformation, les escroqueries et les contenus haineux – sont susceptibles d’être amplifiés, malgré les garde-fous que les entreprises disent avoir mis en place.
Il existe plusieurs façons de savoir si quelque chose a été créé ou manipulé à l’aide de l’IA : des personnes ou des campagnes peuvent avoir confirmé son utilisation ; les vérificateurs des faits ont peut-être analysé et démystifié quelque chose qui circule dans le monde ; ou peut-être que le contenu de l’IA est clairement utilisé pour quelque chose comme la satire. Parfois, si nous avons de la chance, c'est filigrané, ce qui signifie qu'il y a quelque chose indiquant qu'il a été généré ou modifié par l'IA. Mais la réalité est que cela ne représente probablement qu’une partie de ce qui existe déjà. Même notre propre ensemble de données est presque certainement sous-estimé.
Et cela nous amène à une autre question : comme l’a dit le journaliste britannique Peter Pomerantsev : « Quand rien n’est vrai, tout est possible ». Dans un écosystème d'information où tout peut être une IA générative, il est facile pour les politiciens ou les personnalités publiques de dire que quelque chose de réel est faux – ce qu'on appelle le « dividende du menteur ». Cela signifie que les gens sont moins susceptibles de croire aux informations, même si elles sont vraies. Quant aux vérificateurs de faits et aux journalistes, nombreux sont ceux qui ne disposent pas des outils nécessaires pour évaluer si quelque chose a été créé ou manipulé par l’IA. Quoi que nous réserve cette année, ce ne sera probablement que la pointe de l’iceberg.
Mais ce n’est pas parce que quelque chose est faux que c’est mauvais. Les deepfakes ont trouvé leur place dans la satire, les chatbots peuvent (parfois) fournir de bonnes informations et une campagne de sensibilisation personnalisée peut permettre aux gens de se sentir vus par leurs représentants politiques.
C'est un meilleur des mondes, mais c'est pourquoi nous le suivons.
Le salon de discussion
Dans le cadre de notre Projet d'IAnous demandons à nos lecteurs de nous soumettre toutes les instances d'IA générative que vous rencontrerez dans la nature cette année électorale.
Pour avoir une meilleure idée de la façon dont nous évaluerons les soumissions (ou même des éléments que nous trouverons) et pour nous en envoyer une, regarde ce lien ici. Si vous ne savez pas si quelque chose a été créé à partir d'une IA générative ou simplement d'un produit ordinaire faux pas cherenvoyez-le quand même et nous l'examinerons.
💬 Laissez un commentaire sous cet article.
Lectures FILAIRES
Vouloir plus? Abonnez-vous maintenant pour un accès illimité à WIRED.
Que lisons-nous d'autre
🔗 TikTok dit avoir supprimé une campagne d'influence originaire de Chine: TikTok a déclaré la semaine dernière avoir supprimé des milliers de comptes liés à 15 campagnes d'influence chinoises sur ses plateformes. (Le Washington Post)
🔗 Ramaswamy exhorte BuzzFeed à supprimer des emplois et à diffuser des voix plus conservatrices: Vivek Ramaswamy, l'ancien candidat républicain à la présidentielle, est désormais un investisseur activiste dans BuzzFeed. Il souhaite que la publication courtise les lecteurs conservateurs et qu’elle dise qu’elle a « menti » dans ses reportages sur Donald Trump et Covid, entre autres sujets. (Bloomberg)
🔗 OpenAI crée un conseil de surveillance avec Sam Altman après la dissolution de l'équipe de sécurité: Le nouveau conseil d'administration fera des recommandations sur la sûreté et la sécurité et disposera de 90 jours pour « développer davantage les processus et les garanties d'OpenAI », selon le blog de l'entreprise. (Bloomberg)
Le téléchargement
Une dernière chose! Cette semaine, sur le podcast, j'ai parlé avec notre rédactrice et animatrice Leah Feiger du projet d'élections par l'IA. Donnez-lui un écouter!
En plus de parler du nouveau projet (pouvez-vous dire que je suis excité ?), Leah et moi avons été rejoints par Nilesh Christopher, qui a rendu compte du rôle des deepfakes dans Les élections en Inde pour WIRED. Le plus important à retenir : les élections indiennes se terminent bientôt et de nombreuses entreprises d'IA générative en plein essor du pays recherchent de nouveaux marchés susceptibles d'être intéressés par leurs outils, peut-être même en venant à une élection près de chez vous.
C'est tout pour aujourd'hui. Merci encore pour votre abonnement. Vous pouvez me contacter par email et X.
Image source : Getty Images