Google a admis que son IA Gémeaux Le modèle « a raté la cible » après une vague de critiques sur ce que beaucoup ont perçu comme un « parti pris anti-blanc ». De nombreux utilisateurs ont signalé que le système produisait des images de personnes d’origines ethniques et de genres divers, même si cela était historiquement inexact. L'entreprise dit Jeudi, il « suspendrait » la capacité de générer des images de personnes jusqu'à ce qu'il puisse déployer un correctif.
Lorsqu'on leur a demandé de créer une image des Vikings, Gemini a montré exclusivement des Noirs en costume traditionnel viking. Une demande des « pères fondateurs » a rendu les peuples autochtones en tenues coloniales ; un autre résultat dépeint George Washington comme noir. Lorsqu'on lui a demandé de produire un image d’un pape, le système ne montrait que des personnes d’origines ethniques autres que blanches. Dans certains cas, les Gémeaux dit il ne pouvait produire aucune image de personnages historiques comme Abraham Lincoln, Jules César et Galilée.
De nombreux commentateurs de droite ont sauté sur la question pour suggérer qu'il s'agit là d'une preuve supplémentaire du parti pris anti-blanc des Big Tech, avec l'entrepreneur Mike Solana. en écrivant que « l’IA de Google est une folle anti-blanche ».
Mais la situation met surtout en évidence que les systèmes d’IA générative ne sont tout simplement pas très intelligents.
« Je pense que ce sont tout simplement de mauvais logiciels », a écrit mercredi Gary Marcus, professeur émérite de psychologie et de sciences neuronales à l'Université de New York et entrepreneur en IA. Sous-pile.
Google a lancé son modèle Gemini AI il y a deux mois en tant que rival du modèle GPT dominant d'OpenAI, qui alimente ChatGPT. La semaine dernière, Google a déployé une mise à jour majeure avec la version limitée de Gemini Pro 1.5 ce qui a permis aux utilisateurs de gérer de grandes quantités d’entrées audio, texte et vidéo.
Gemini a également créé des images historiquement erronées, comme celle représentant l’équipage d’Apollo 11 mettant en vedette une femme et un homme noir.
Mercredi, Google a reconnu que son système ne fonctionnait pas correctement.
« Nous travaillons à améliorer immédiatement ce type de représentations », a déclaré à WIRED Jack Krawczyk, directeur principal de la gestion des produits chez Gemini Experiences de Google, dans un communiqué envoyé par courrier électronique. « La génération d'images IA de Gemini génère un large éventail de personnes. Et c’est généralement une bonne chose car des gens du monde entier l’utilisent. Mais ici, on manque le but. »
Krawczyk a expliqué la situation plus loin dans un post sur X (anciennement Twitter) : « Nous concevons nos capacités de génération d'images pour refléter notre base d'utilisateurs mondiale, et nous prenons la représentation et les préjugés au sérieux. Nous continuerons à le faire pour les invites ouvertes (les images d'une personne promenant un chien sont universelles !). Les contextes historiques sont plus nuancés et nous les ajusterons davantage pour y tenir compte.
Il a également répondu directement à certaines critiques en fournissant des captures d'écran de ses propres interactions avec Gemini, qui a suggéré que les erreurs n'étaient pas universelles.
Mais les problèmes produits par Gemini ont été rapidement exploités par les croisés anti-woke en ligne, qui ont affirmé à plusieurs reprises que Google était « raciste » ou « infecté par le virus de l’esprit éveillé ».