Léa Feiger : Parfois, vous pouvez le relier à des entreprises spécifiques.
Vittoria Elliott : Oui.
Léa Feiger : C’est ce qui fait l’IA générative elle-même.
Vittoria Elliott : Ouais, totalement. Par exemple, il y a eu une falsification de l'ancien Premier ministre du Pakistan, Imran Khan, qui était emprisonné pour corruption. Son parti a été disqualifié pour s'être présenté aux élections générales du début de cette année. Il a pu prononcer des discours de campagne grâce à l’IA générative.
Léa Feiger : Sauvage.
Vittoria Elliott : Pour ce faire, ils ont utilisé ElevenLabs, qui est la même société qui a été utilisée pour le faux appel automatisé de Joe Biden plus tôt cette année. Parfois, nous connaissons les entreprises impliquées, mais souvent non.
Léa Feiger : Comment ces entreprises ont-elles annoncé qu’elles aborderaient les élections cette année ?
Vittoria Elliott : Eh bien, des entreprises plus légitimes comme Midjourney et ChatGPT, OpenAI, Google, et cetera, ont déclaré : « Nous allons mettre des garde-fous. Nous n'autoriserons pas la génération d'images politiques. » ChatGPT, qui est basé sur du texte, a déclaré : « Ce n'est pas cool d'utiliser notre outil pour générer des éléments politiques pour des campagnes », ou quoi que ce soit, « Vous ne pouvez pas exécuter un chatbot au-dessus de notre interface », en gros. Mais ils ne font pas grand chose pour l’appliquer. Il y a eu un rapport du Center For Countering Digital Hate que nous avons couvert en mars, dans lequel ils ont consulté tous ces générateurs d'images et ils disaient simplement : « Donnez-nous une image de Trump faisant cela, donnez-nous une image de Biden faisant cela. » Et cela l’a fait la plupart du temps. Pour ChatGPT, Dean Phillips, qui était un membre du Congrès qui s'est brièvement présenté à la présidence.
Léa Feiger : Ancien candidat à la présidence, le membre du Congrès Dean Phillips.
Vittoria Elliott : Nous avons créé un chatbot appelé Dean.bot au-dessus de l'interface ChatGPT d'OpenAI et il n'a été supprimé que lorsque la presse a dit : « Hé, n'est-ce pas contraire à vos politiques ?
Léa Feiger : Je m'en souviens très bien. Ce dont je me souviens aussi de ce moment, c'est que Dean Phillips avait en réalité de nombreux soutiens dans la Silicon Valley. C'est un peu flou. C'est comme : « Oui, vous ne devriez pas utiliser Dean.bot, mais nous vous aimons et vous soutenons également. » Il y a là un va-et-vient bizarre. Ce que Dean, par exemple, disait à propos de l'IA générative et de la législation contre elle, Sam Altman était dedans.
Vittoria Elliott : Ouais. C'est juste aux États-Unis. Par exemple, en Indonésie, une entreprise a créé une application appelée Pemilu pour les élections indonésiennes. Le fondateur de cette application a affirmé avoir construit quelque chose sur ChatGPT qui leur permettait d'écrire des discours de campagne dans plusieurs langues locales.
Léa Feiger : Ouah.
Vittoria Elliott : Il s'agissait d'extraire des informations pour leur permettre d'adapter les messages à des données démographiques particulières, qu'il s'agisse de jeunes, de femmes, etc.
Léa Feiger : Eh bien, parlons d’efficacité quand vous avez un pays avec autant de langues.
Vittoria Elliott : Ouais. C'est dispersé sur plusieurs îles, avec des besoins différents.