Si vous craignez que les algorithmes de sélection des candidats puissent s'interposer entre vous et l'emploi de vos rêves, lisez l'ouvrage de Hilke Schellmann L'algorithme ne vous soulagera pas. Le nouveau livre du journaliste d'investigation et professeur de journalisme à l'Université de New York démystifie la manière dont les services RH utilisent des logiciels d'automatisation qui non seulement propagent des préjugés, mais échouent dans leur mission : trouver le meilleur candidat pour le poste.
Schellmann s'est fait passer pour un chercheur d'emploi potentiel pour tester certains de ces logiciels, qui vont des tests de CV aux tests basés sur des jeux vidéo en passant par les évaluations de personnalité analysant les expressions faciales, les intonations vocales et le comportement sur les réseaux sociaux. Un outil l'a jugée très adaptée à un emploi, même si elle a dit des bêtises en allemand. Un algorithme d’évaluation de la personnalité lui a attribué des notes élevées pour sa « stabilité » sur la base de son utilisation de Twitter et une note faible sur la base de son profil LinkedIn.
De quoi vous donner envie de supprimer votre compte LinkedIn et d'adopter propriété familiale, mais Schellmann a aussi des idées édifiantes. Dans une interview qui a été éditée pour plus de longueur et de clarté, elle a suggéré comment la société pourrait freiner les technologies RH biaisées et a offert des conseils pratiques aux demandeurs d'emploi sur la façon de vaincre les robots.
Caitlin Harrington : Vous avez parlé de l'utilisation de l'IA dans le recrutement de Le journal de Wall Street, Revue technologique du MITet Le gardien au cours des dernières années. À quel moment avez-vous pensé que j'avais un livre ici ?
Hilke Schellmann: L'une d'entre elles, c'est lorsque j'ai assisté à l'une des premières conférences sur les technologies RH en 2018 et que j'ai découvert les outils d'IA qui arrivaient sur le marché. Il y avait environ 10 000 personnes, des centaines de vendeurs, de nombreux acheteurs et de grandes entreprises. J'ai réalisé qu'il s'agissait d'un marché gigantesque et qu'il prenait le pas sur les RH.
Les éditeurs de logiciels présentent souvent leurs produits comme un moyen d’éliminer les préjugés humains lors du recrutement. Mais bien sûr, l’IA peut absorber et reproduire le biais des données de formation qu’il ingère. Vous avez découvert un outil de sélection de CV qui ajustait les scores d'un candidat lorsqu'il détectait l'expression « Afro-Américain » sur son CV.
Schellmann : Bien sûr, les entreprises diront que leurs outils ne sont pas biaisés, mais comment ont-ils été testés ? Quelqu'un qui ne travaille pas dans l'entreprise s'est-il penché sur cette question ? Le manuel d'une entreprise indiquait que l'IA de son recrutement avait été formée sur les données d'étudiants âgés de 18 à 25 ans. Ils ont peut-être simplement trouvé quelque chose de très spécifique aux 18-25 ans qui ne s'applique pas aux autres travailleurs sur lesquels l'outil a été utilisé.
Les dégâts qu'un responsable du recrutement humain peut causer sont limités, et nous devrions évidemment essayer d'éviter cela. Mais un algorithme utilisé pour évaluer des centaines de milliers de travailleurs, s’il est défectueux, peut nuire à bien plus de personnes que n’importe quel être humain.
De toute évidence, les vendeurs ne veulent pas que les gens regardent dans les boîtes noires. Mais je pense que les employeurs hésitent également à chercher, car ils ont alors un déni plausible. S'ils découvrent des problèmes, 500 000 personnes pourraient avoir postulé pour un emploi et pourraient avoir une réclamation. C'est pourquoi nous devons exiger plus de transparence et de tests.