Lorsque les réponses bizarres et trompeuses aux requêtes de recherche générées par le nouveau Fonctionnalité de présentation de l'IA est devenue virale sur les réseaux sociaux la semaine dernière, la société a publié des déclarations qui minimisent généralement l'idée que la technologie avait des problèmes. Jeudi soir, la responsable des recherches de l'entreprise, Liz Reid, a admis que les erreurs avaient mis en évidence les domaines qui nécessitaient des améliorations, écrivant que « nous voulions expliquer ce qui s'est passé et les mesures que nous avons prises ».
Le message de Reid faisait directement référence à deux des résultats de l’IA Overview les plus viraux et les plus incorrects. On a vu les algorithmes de Google endosser manger des pierres parce que cela « peut être bon pour vous », et l’autre a suggéré d’utiliser de la colle non toxique pour épaissir la sauce à pizza.
La consommation de roche n'est pas un sujet sur lequel beaucoup de gens écrivent ou posent des questions en ligne, il n'y a donc pas beaucoup de sources sur lesquelles s'appuyer pour un moteur de recherche. Selon Reid, l'outil d'IA a trouvé un article de The Onionun site Web satirique, qui avait été republié par un éditeur de logiciels, et avait interprété à tort les informations comme étant factuelles.
Quant à Google disant à ses utilisateurs de mettre de la colle sur la pizza, Reid a effectivement attribué l'erreur à un échec du sens de l'humour. « Nous avons vu des aperçus de l'IA contenant du contenu sarcastique ou troll provenant de forums de discussion », a-t-elle écrit. « Les forums sont souvent une excellente source d'informations authentiques et de première main, mais dans certains cas, ils peuvent donner lieu à des conseils peu utiles, comme utiliser de la colle pour que le fromage colle à la pizza. »
Il est probablement préférable de ne pas créer de menu de dîner généré par l’IA sans le lire attentivement au préalable.
Reid a également suggéré qu'il serait injuste de juger de la qualité de la nouvelle approche de recherche de Google sur la base de captures d'écran virales. Elle a affirmé que l'entreprise avait effectué des tests approfondis avant son lancement et que les données de l'entreprise montraient que les gens appréciaient les aperçus de l'IA, notamment en indiquant que les gens sont plus susceptibles de rester sur une page découverte de cette façon.
Pourquoi ces échecs embarrassants ? Reid a qualifié les erreurs qui ont retenu l'attention de résultat d'un audit à l'échelle d'Internet qui n'était pas toujours bien intentionné. « Il n'y a rien de tel que d'avoir des millions de personnes qui utilisent cette fonctionnalité avec de nombreuses recherches inédites. Nous avons également constaté de nouvelles recherches absurdes, apparemment destinées à produire des résultats erronés.
Google affirme que certaines captures d'écran largement distribuées des aperçus de l'IA qui ont mal tourné étaient fausses, ce qui semble être vrai d'après les propres tests de WIRED. Par exemple, un utilisateur sur X a posté une capture d'écran qui semblait être un aperçu de l'IA répondant à la question « Un cafard peut-il vivre dans votre pénis ? avec une confirmation enthousiaste du moteur de recherche que c'est normal. Le message a été vu plus de cinq millions de fois. Cependant, après une inspection plus approfondie, le format de la capture d'écran ne correspond pas à la façon dont les aperçus de l'IA sont réellement présentés aux utilisateurs. WIRED n'a pas pu recréer quoi que ce soit de proche de ce résultat.
Et ce ne sont pas seulement les utilisateurs des réseaux sociaux qui ont été trompés par des captures d’écran trompeuses de fausses présentations d’IA. Le New York Times a publié une correction à son rapport sur la fonctionnalité et a précisé que AI Overviews n'a jamais suggéré aux utilisateurs de sauter du Golden Gate Bridge s'ils souffrent de dépression – ce n'était qu'un mème sombre sur les réseaux sociaux. « D'autres ont laissé entendre que nous avions obtenu des résultats dangereux sur des sujets tels que laisser des chiens dans les voitures, fumer pendant la grossesse et la dépression », a écrit Reid jeudi. « Ces aperçus de l'IA ne sont jamais apparus. »
Pourtant, le message de Reid montre également clairement que tout n'allait pas bien avec la forme originale de la nouvelle grande mise à niveau de la recherche de Google. L’entreprise a apporté « plus d’une douzaine d’améliorations techniques » aux aperçus de l’IA, a-t-elle écrit.
Seuls quatre sont décrits : une meilleure détection des « requêtes absurdes » qui ne méritent pas un aperçu de l'IA ; rendre la fonctionnalité moins dépendante du contenu généré par les utilisateurs à partir de sites comme Reddit ; proposer moins souvent des aperçus de l'IA dans les situations où les utilisateurs ne les ont pas trouvés utiles ; et renforcer les garde-fous qui désactivent les résumés de l’IA sur des sujets importants tels que la santé.
Il n'y avait aucune mention dans le billet de blog de Reid d'une réduction significative des résumés de l'IA. Google affirme qu'il continuera à surveiller les commentaires des utilisateurs et à ajuster les fonctionnalités si nécessaire.