Il y a un mois, la société de conseil Accenture a présenté à un client potentiel un argumentaire inhabituel et accrocheur pour un nouveau projet. Au lieu du diaporama habituel, le client a vu contrefaçons profondes de plusieurs vrais employés debout sur une scène virtuelle, offrant des descriptions parfaitement livrées du projet sur lequel ils espéraient travailler.
«Je voulais qu'ils rencontrent notre équipe», explique Renato Scaff, directeur général principal chez Accenture, qui a eu l'idée. «C'est aussi une façon pour nous de nous différencier de la concurrence.»
Les deepfakes ont été générés – avec le consentement des employés – par Touchcast, une société dans laquelle Accenture a investi et qui propose une plateforme de présentations interactives mettant en vedette des avatars de personnes réelles ou synthétiques. Les avatars de Touchcast peuvent répondre à des questions écrites ou orales à l'aide de modèles d'IA qui analysent les informations pertinentes et génèrent des réponses à la volée.
«Il y a un élément effrayant», dit Scaff à propos de ses employés deepfake. « Mais il y a un plus grand élément de cool. »
Les deepfakes sont une arme puissante et dangereuse de désinformation et de atteinte à la réputation. Mais cette même technologie est adoptée par les entreprises qui y voient plutôt une nouvelle façon intelligente et accrocheuse d’atteindre et d’interagir avec les clients.
Ces expériences ne se limitent pas au secteur des entreprises. Monica Arés, directrice exécutive du laboratoire d'innovation, d'éducation numérique et d'analyse de l'Imperial College Business School de Londres, a créé des deepfakes de vrais professeurs qui, espère-t-elle, pourraient être un moyen plus engageant et plus efficace de répondre aux questions et requêtes des étudiants en dehors du Salle de classe. Arés affirme que la technologie a le potentiel d'augmenter la personnalisation, de fournir de nouvelles façons de gérer et d'évaluer les étudiants et de stimuler l'engagement des étudiants. « Vous avez toujours l'apparence d'un humain qui vous parle, donc cela semble très naturel », dit-elle.
Comme c’est souvent le cas de nos jours, c’est à l’IA que l’on doit ce démêlage de la réalité. Il est depuis longtemps possible pour les studios hollywoodiens de copier les voix, les visages et les manières des acteurs avec des logiciels, mais ces dernières années, l'IA a rendu une technologie similaire largement accessible et pratiquement gratuite. Outre Touchcast, des sociétés dont Synthésie et HeyGen offrir aux entreprises un moyen de générer des avatars d'individus réels ou faux pour les présentations, le marketing et le service client.
Edo Segal, fondateur et PDG de Touchcast, estime que les avatars numériques pourraient constituer une nouvelle façon de présenter et d'interagir avec le contenu. Son entreprise a développé une plateforme logicielle appelée Genything qui permettra à chacun de créer son propre jumeau numérique.
Dans le même temps, les deepfakes deviennent une préoccupation majeure à l’approche d’élections dans de nombreux pays, dont les États-Unis. Le mois dernier, Appels automatisés générés par l'IA mettant en vedette un faux Joe Biden ont été utilisés pour diffuser de la désinformation électorale. Taylor Swift est également devenue récemment une cible du porno deepfake générés à l’aide d’outils d’image d’IA largement disponibles.
« Les images deepfakes sont certainement quelque chose que nous trouvons préoccupant et alarmant. » Ben Buchanan, le conseiller spécial de la Maison Blanche pour l'IA, a déclaré à WIRED dans une récente interview. Le deepfake Swift « est un point de données clé dans une tendance plus large qui touche de manière disproportionnée les femmes et les filles, qui sont dans une écrasante majorité la cible de harcèlement et d’abus en ligne », a-t-il déclaré.
Un nouveau Institut américain de sécurité de l'IA, créé en vertu d'un décret de la Maison Blanche publié en octobre dernier, développe actuellement des normes pour le filigrane des médias générés par l'IA. Meta, Google, Microsoft et d'autres entreprises technologiques développent également technologie conçue pour détecter les contrefaçons d’IA dans ce qui est en train de devenir une course aux armements en matière d’IA aux enjeux élevés.
Certaines utilisations politiques du deepfakery mettent cependant en évidence le double potentiel de la technologie.
Imran Khan, ancien Premier ministre du Pakistan, a prononcé un discours de ralliement aux partisans de son parti samedi dernier, bien qu'il soit détenu derrière les barreaux. L'ancienne star du cricket, emprisonné dans ce que son parti a qualifié de coup d'État militaire, a prononcé son discours en utilisant un logiciel deepfake qui a évoqué une copie convaincante de lui assis derrière un bureau et prononçant des mots qu'il n'a jamais réellement prononcés.
À mesure que la manipulation vidéo basée sur l’IA s’améliore et devient plus facile à utiliser, l’intérêt des entreprises et des consommateurs pour les utilisations légitimes de la technologie est susceptible de croître. Le géant chinois de la technologie Baidu a récemment développé une manière pour les utilisateurs de son application chatbot afin de créer des deepfakes pour envoyer les vœux du Nouvel An lunaire.
Même pour les premiers utilisateurs, le risque d’utilisation abusive n’est pas totalement exclu. « Il ne fait aucun doute que la sécurité doit être primordiale », déclare Scaff d'Accenture. « Une fois que vous avez un jumeau synthétique, vous pouvez lui faire faire et dire n'importe quoi. »