Plusieurs années avant la sortie de ChatGPT, mon groupe de recherche, le Social Decision-Making Laboratory de l’Université de Cambridge, se demandait s’il était possible que les réseaux neuronaux génèrent de la désinformation. Pour y parvenir, nous avons formé le prédécesseur de ChatGPT, GPT-2, sur des exemples de théories du complot populaires, puis lui avons demandé de générer de fausses nouvelles pour nous. Cela nous a donné des milliers d’informations trompeuses mais plausibles. Quelques exemples : « Certains vaccins sont chargés de produits chimiques et de toxines dangereux » et « Les responsables gouvernementaux ont manipulé les cours des actions pour cacher des scandales ». La question était : est-ce que quelqu’un croirait ces affirmations ?
Nous créé le premier outil psychométrique pour tester cette hypothèse, que nous avons appelé le Misinformation Susceptibility Test (MIST). En collaboration avec VousGov, nous avons utilisé les gros titres générés par l’IA pour tester la sensibilité des Américains aux fausses nouvelles générées par l’IA. Les résultats étaient préoccupants : 41 % des Américains pensaient à tort que le gros titre sur le vaccin était vrai, et 46 % pensaient que le gouvernement manipulait le marché boursier. Un autre récent étudepublié dans la revue Sciencea montré non seulement que GPT-3 produit une désinformation plus convaincante que les humains, mais également que les gens ne peuvent pas faire la distinction de manière fiable entre la désinformation générée par les humains et celle générée par l’IA.
Ma prédiction pour 2024 est que la désinformation générée par l’IA arrivera lors d’élections près de chez vous, et vous ne vous en rendrez probablement même pas compte. En fait, vous avez peut-être déjà été exposé à quelques exemples. En mai 2023, un virus faux L'histoire d'un attentat à la bombe contre le Pentagone était accompagnée d'une image générée par l'IA montrant un gros nuage de fumée. Cela a provoqué un tollé dans l’opinion publique et même une chute du marché boursier. Le candidat républicain à la présidentielle, Ron DeSantis, a utilisé fausses images de Donald Trump serrant Anthony Fauci dans ses bras dans le cadre de sa campagne politique. En mélangeant des images réelles et générées par l’IA, les politiciens peuvent brouiller les frontières entre réalité et fiction et utiliser l’IA pour renforcer leurs attaques politiques.
Avant l’explosion de l’IA générative, les sociétés de cyber-propagande du monde entier devaient rédiger elles-mêmes des messages trompeurs et recourir à des usines à trolls humains pour cibler les personnes à grande échelle. Avec l’aide de l’IA, le processus de génération de titres d’actualité trompeurs peut être automatisé et militarisé avec une intervention humaine minimale. Par exemple, le micro-ciblage – la pratique consistant à cibler des personnes avec des messages basés sur des données de trace numérique, telles que leurs likes sur Facebook – était déjà une préoccupation lors des élections précédentes, même si son principal obstacle était la nécessité de générer des centaines de variantes du même message. pour voir ce qui fonctionne sur un groupe donné de personnes. Ce qui était autrefois coûteux et exigeant en main-d’œuvre est désormais bon marché et facilement disponible sans aucune barrière à l’entrée. L'IA a effectivement démocratisé la création de désinformation : toute personne ayant accès à un chatbot peut désormais amorcer le modèle sur un sujet particulier, qu'il s'agisse de l'immigration, du contrôle des armes à feu, du changement climatique ou des questions LGBTQ+, et générer des dizaines de fausses nouvelles très convaincantes en quelques minutes. En fait, des centaines de sites d'information générés par l'IA apparaissent déjà, propager fausses histoires et vidéos.
Pour tester l'impact d'une telle désinformation générée par l'IA sur les préférences politiques des citoyens, des chercheurs de l'Université d'Amsterdam a créé une vidéo deepfake d'un homme politique offensant sa base électorale religieuse. Par exemple, dans la vidéo, l'homme politique a plaisanté : « Comme dirait le Christ, ne me crucifiez pas pour cela. » Les chercheurs ont découvert que les électeurs chrétiens religieux qui ont regardé la vidéo deepfake avaient des attitudes plus négatives envers le politicien que ceux du groupe témoin.
C’est une chose de tromper les gens avec la désinformation générée par l’IA lors d’expériences. C'en est une autre d'expérimenter notre démocratie. En 2024, nous verrons davantage de deepfakes, de clonage de voix, de manipulations d’identité et de fausses nouvelles produites par l’IA. Les gouvernements limiteront sérieusement, voire interdiront, l’utilisation de l’IA dans les campagnes politiques. Parce que s’ils ne le font pas, l’IA sapera les élections démocratiques.