Lorsque le PDG de Google, Sundar Pichai, a envoyé ce mois-ci par courrier électronique à ses employés les priorités de l'entreprise pour 2024, le développement responsable de l'IA figurait en tête de liste. Certains employés se demandent désormais si Google peut être à la hauteur de cet objectif. La petite équipe qui servait de principal organisme de surveillance interne de l’éthique de l’IA a perdu son chef et est en cours de restructuration, selon quatre personnes proches des changements. Un porte-parole de Google affirme que son travail se poursuivra sous une forme plus forte à l'avenir, mais refuse de fournir des détails.
L'équipe d'innovation responsable de Google, connue sous le nom de RESIN, était située au sein du bureau de conformité et d'intégrité, au sein de la division des affaires mondiales de l'entreprise. Il a examiné les projets internes pour vérifier leur compatibilité avec Les principes de l'IA de Google qui définissent les règles de développement et d'utilisation de la technologie, rôle crucial pour l'entreprise des courses pour concourir en IA générative. RESIN a mené plus de 500 examens l'année dernière, notamment pour le Chatbot bardeselon un rapport annuel sur les principes de l'IA, les travaux que Google a publiés ce mois-ci.
Le rôle de RESIN semble incertain depuis que sa dirigeante et fondatrice Jen Gennai, directrice de l'innovation responsable, a soudainement quitté ce poste ce mois-ci, disent les sources, qui ont parlé sous couvert d'anonymat pour discuter des changements de personnel. Le profil LinkedIn de Gennai la répertorie comme conseillère en éthique et conformité en IA chez Google depuis ce mois-ci, ce qui, selon des sources, suggère qu'elle partira bientôt en fonction de la manière dont les départs passés de l'entreprise se sont déroulés.
Google a divisé l'équipe d'environ 30 personnes de Gennai en deux. Certains resteront en place tandis que d'autres seront transférés à Trust and Safety, qui lutte contre les abus des services de Google et réside également dans la division des affaires mondiales. Personne ne semble avoir été licencié, selon des sources. La justification des changements et la manière dont les responsabilités seront réparties n'ont pas pu être apprises. Certaines sources affirment qu’on ne leur a pas dit comment les révisions des principes de l’IA seront traitées à l’avenir.
Le porte-parole de l'entreprise, Brian Gabriel, refuse de dire comment le travail de RESIN sur les projets d'IA sera géré à l'avenir, mais décrit ce remaniement comme un signal de l'engagement de Google en faveur du développement responsable de l'IA. Cette décision « a placé cette équipe particulière d’IA responsable au centre de nos efforts bien établis en matière de confiance et de sécurité, qui sont intégrés dans nos évaluations et nos plans de produits », dit-il. «Cela nous aidera à renforcer et à étendre notre travail d'innovation responsable dans l'ensemble de l'entreprise.»
Vous avez un conseil ?
Google est connu pour remanier fréquemment ses rangs, mais RESIN est resté largement intact depuis la création du groupe. Bien que d'autres équipes, et des centaines de personnes supplémentaires, travaillent sur la surveillance de l'IA chez Google, RESIN était la plus importante, avec une mission couvrant tous les services de base de Google.
Outre le départ de son dirigeant, Gennai, RESIN a également vu partir ce mois-ci l'un de ses membres les plus influents, Sara Tangdall, spécialiste principale de l'éthique des principes de l'IA. Elle est désormais directrice responsable des produits IA chez Salesforce, selon son profil LinkedIn. Tangdall a refusé de commenter et Gennai n'a pas répondu aux appels à commentaires.
Soulèvement de l'IA
Google a créé son équipe d'innovation responsable en 2018, peu de temps après que des experts en IA et d'autres personnes de l'entreprise l'aient rendu public. s'est levé en signe de protestation contre un contrat du Pentagone appelé Project Maven qui utilisait les algorithmes de Google pour analyser les images de surveillance des drones. RESIN est devenu le principal gestionnaire d'un ensemble de Principes de l'IA introduits après les manifestations, qui affirme que Google utilisera l’IA au profit des gens, et jamais pour fabriquer des armes ou porter atteinte aux droits de l’homme. Gennai a aidé à rédiger les principes.
Les équipes de Google pouvaient soumettre des projets à l'examen de RESIN, qui fournissait des commentaires et bloquait parfois des idées considérées comme enfreignant les principes de l'IA. Le groupe a arrêté la sortie de Générateurs d'images IA et algorithmes de synthèse vocale qui pourrait être utilisé pour créer des deepfakes.
La recherche de conseils sur les principes de l'IA n'est pas obligatoire pour la plupart des équipes, contrairement aux évaluations pour risques pour la vie privée, qui chaque projet doit subir. Mais Gennai a déclaré que les premières évaluations des systèmes d’IA s’avèrent payantes en évitant des violations éthiques coûteuses. « Si elle est mise en œuvre correctement, l'IA responsable améliore les produits en découvrant et en s'efforçant de réduire les dommages que les préjugés injustes peuvent causer, en améliorant la transparence et en augmentant la sécurité. » a-t-elle déclaré lors d'une conférence Google en 2022.