Tu ne devrais faire confiance à personne les réponses qu'un chatbot vous envoie. Et vous ne devriez probablement pas lui faire confiance informations personnelles soit. C'est particulièrement vrai pour « Copines IA » ou « petits amis IA » selon de nouvelles recherches.
Une analyse de 11 chatbots dits romantiques et compagnons, publiée mercredi par la Fondation Mozilla, a trouvé une litanie de problèmes de sécurité et de confidentialité avec les robots. Collectivement, les applications, qui ont été téléchargées plus de 100 millions de fois sur les appareils Android, rassemblent d'énormes quantités de données personnelles ; utiliser des trackers qui envoient des informations à Google, Facebook et à des entreprises en Russie et en Chine ; permettre aux utilisateurs d'utiliser des mots de passe faibles ; et manquent de transparence sur leur propriété et les modèles d’IA qui les alimentent.
Depuis le lancement d'OpenAI ChatGPT Dans le monde en novembre 2022, les développeurs se sont précipités pour déployer de grands modèles de langage et créer des chatbots avec lesquels les gens peuvent interagir et payer pour s'abonner. L'étude de Mozilla donne un aperçu de la façon dont cette ruée vers l'or a pu négliger la vie privée des gens, ainsi que des tensions entre les technologies émergentes et la manière dont elles collectent et utilisent les données. Cela indique également comment les messages de discussion des personnes pourraient être exploités par des pirates informatiques.
De nombreux services de « petite amie IA » ou de chatbot romantique se ressemblent. Ils présentent souvent des images de femmes générées par l’IA qui peuvent être sexualisées ou accompagnées de messages provocateurs. Les chercheurs de Mozilla ont examiné une variété de chatbots, y compris des applications de grande et petite taille, dont certaines prétendent être des « petites-amies ». D’autres offrent aux gens un soutien par le biais de l’amitié ou de l’intimité, ou autorisent les jeux de rôle et autres fantasmes.
« Ces applications sont conçues pour collecter une tonne d'informations personnelles », explique Jen Caltrider, responsable du projet de l'équipe Privacy Not Included de Mozilla, qui a mené l'analyse. « Ils poussent vers le jeu de rôle, beaucoup de sexe, beaucoup d'intimité, beaucoup de partage. » Par exemple, des captures d'écran du chatbot EVA AI affichent un texte disant « J'adore quand vous m'envoyez vos photos et votre voix » et demandant si quelqu'un est « prêt à partager tous vos secrets et désirs ».
Caltrider affirme qu'il existe de nombreux problèmes avec ces applications et sites Web. De nombreuses applications peuvent ne pas savoir clairement quelles données elles partagent avec des tiers, où elles sont basées ou qui les crée, explique Caltrider, ajoutant que certaines permettent aux utilisateurs de créer des mots de passe faibles, tandis que d'autres fournissent peu d'informations sur l'IA qu'elles utilisent. utiliser. Les applications analysées présentaient toutes des cas d’utilisation et des faiblesses différents.
Prenez Romantic AI, un service qui vous permet de « créer votre propre petite amie IA ». Les images promotionnelles sur sa page d'accueil montrent un chatbot envoyant un message disant : « Je viens d'acheter une nouvelle lingerie. Veux tu le voir? » Les documents de confidentialité de l'application, selon le Analyse Mozilla, disent qu'il ne vendra pas les données des gens. Cependant, lorsque les chercheurs ont testé l’application, ils ont constaté qu’elle « envoyait 24 354 trackers publicitaires en une minute d’utilisation ». L'IA romantique, comme la plupart des entreprises mises en évidence dans les recherches de Mozilla, n'a pas répondu à la demande de commentaires de WIRED. D’autres applications surveillées disposaient de centaines de trackers.
En général, explique Caltrider, les applications ne savent pas clairement quelles données elles peuvent partager ou vendre, ni comment elles utilisent exactement certaines de ces informations. « La documentation juridique était vague, difficile à comprendre, pas très spécifique – une sorte de passe-partout », explique Caltrider, ajoutant que cela pourrait réduire la confiance que les gens devraient avoir dans les entreprises.