Responsabilité et sécurité
S'inspirer de la philosophie pour identifier des principes équitables pour une IA éthique
À mesure que l’intelligence artificielle (IA) devient plus puissante et plus profondément intégrée dans nos vies, les questions sur la manière dont elle est utilisée et déployée sont d’autant plus importantes. Quelles valeurs guident l’IA ? À qui appartiennent ces valeurs ? Et comment sont-ils sélectionnés ?
Ces questions mettent en lumière le rôle joué par les principes – les valeurs fondamentales qui guident les décisions, grandes et petites, en matière d’IA. Pour les humains, les principes contribuent à façonner la façon dont nous vivons nos vies et notre perception du bien et du mal. Pour l’IA, ils façonnent son approche d’une série de décisions impliquant des compromis, comme le choix entre donner la priorité à la productivité ou aider ceux qui en ont le plus besoin.
Dans un article publié aujourd'hui dans le Actes de l'Académie nationale des sciences, nous nous inspirons de la philosophie pour trouver des moyens de mieux identifier les principes qui guideront le comportement de l’IA. Plus précisément, nous explorons comment un concept connu sous le nom de « voile de l’ignorance » – une expérience de pensée destinée à aider à identifier des principes équitables pour les décisions de groupe – peut être appliqué à l’IA.
Dans nos expériences, nous avons constaté que cette approche encourageait les gens à prendre des décisions basées sur ce qu’ils pensaient être juste, que cela leur profite directement ou non. Nous avons également découvert que les participants étaient plus susceptibles de sélectionner une IA qui aidait les plus défavorisés lorsqu’ils raisonnaient derrière le voile de l’ignorance. Ces informations pourraient aider les chercheurs et les décideurs politiques à sélectionner les principes d’un assistant d’IA d’une manière équitable pour toutes les parties.
Un outil pour une prise de décision plus juste
L’un des objectifs clés des chercheurs en IA a été d’aligner les systèmes d’IA sur les valeurs humaines. Cependant, il n’existe pas de consensus sur un ensemble unique de valeurs ou de préférences humaines pour régir l’IA : nous vivons dans un monde où les gens ont des origines, des ressources et des croyances diverses. Comment devrions-nous sélectionner les principes de cette technologie, compte tenu d’opinions aussi diverses ?
Même si ce défi est apparu pour l’IA au cours de la dernière décennie, la grande question de savoir comment prendre des décisions équitables a une longue lignée philosophique. Dans les années 1970, le philosophe politique John Rawls a proposé le concept du voile de l’ignorance comme solution à ce problème. Rawls a soutenu que lorsque les gens choisissent les principes de justice pour une société, ils devraient imaginer qu’ils le font sans connaître leur propre position particulière dans cette société, y compris, par exemple, leur statut social ou leur niveau de richesse. Sans ces informations, les gens ne peuvent pas prendre de décisions dans leur propre intérêt et devraient plutôt choisir des principes équitables pour toutes les personnes impliquées.
A titre d’exemple, pensez à demander à un ami de couper le gâteau lors de votre fête d’anniversaire. Une façon de garantir que la taille des tranches est équitablement proportionnée est de ne pas leur dire quelle tranche leur appartiendra. Cette approche consistant à retenir des informations est apparemment simple, mais elle a de nombreuses applications dans des domaines allant de la psychologie à la politique, pour aider les gens à réfléchir à leurs décisions dans une perspective moins intéressée. Il a été utilisé comme méthode pour parvenir à un accord de groupe sur des questions controversées, allant de la détermination de la peine à la fiscalité.
S'appuyant sur cette fondation, le précédent DeepMind recherche ont proposé que la nature impartiale du voile de l’ignorance puisse contribuer à promouvoir l’équité dans le processus d’alignement des systèmes d’IA sur les valeurs humaines. Nous avons conçu une série d’expériences pour tester les effets du voile de l’ignorance sur les principes que les gens choisissent pour guider un système d’IA.
Maximiser la productivité ou aider les plus défavorisés ?
Dans un « jeu de récolte » en ligne, nous avons demandé aux participants de jouer à un jeu de groupe avec trois joueurs informatiques, dans lequel le but de chaque joueur était de récolter du bois en récoltant des arbres dans des territoires séparés. Dans chaque groupe, certains joueurs ont eu de la chance et ont été affectés à une position privilégiée : des arbres peuplaient densément leur champ, leur permettant de récolter efficacement du bois. D'autres membres du groupe étaient désavantagés : leurs champs étaient clairsemés, ce qui nécessitait plus d'efforts pour ramasser les arbres.
Chaque groupe était assisté par un système d'IA unique qui pouvait passer du temps à aider chaque membre du groupe à récolter des arbres. Nous avons demandé aux participants de choisir entre deux principes pour guider le comportement de l'assistant IA. Selon le « principe de maximisation », l’assistant IA viserait à augmenter le rendement des récoltes du groupe en se concentrant principalement sur les champs les plus denses. Conformément au « principe de priorisation », l’assistant IA se concentrerait sur l’aide aux membres des groupes défavorisés.
Nous avons placé la moitié des participants derrière le voile de l'ignorance : ils étaient confrontés au choix entre différents principes éthiques sans savoir quel domaine serait le leur – ils ne savaient donc pas à quel point ils étaient avantagés ou désavantagés. Les participants restants ont fait leur choix en sachant s'ils étaient dans une meilleure ou une pire situation.
Encourager l’équité dans la prise de décision
Nous avons constaté que si les participants ne connaissaient pas leur position, ils préféraient systématiquement le principe de priorisation, dans lequel l'assistant IA aidait les membres défavorisés du groupe. Ce modèle est apparu de manière constante dans les cinq variantes du jeu et a traversé les frontières sociales et politiques : les participants ont montré cette tendance à choisir le principe de priorisation indépendamment de leur appétit pour le risque ou de leur orientation politique. En revanche, les participants qui connaissaient leur propre position étaient plus susceptibles de choisir le principe qui leur profitait le plus, qu'il s'agisse du principe de priorisation ou du principe de maximisation.
Lorsque nous avons demandé aux participants pourquoi ils avaient fait leur choix, ceux qui ne connaissaient pas leur position étaient particulièrement susceptibles d'exprimer des préoccupations quant à l'équité. Ils ont souvent expliqué qu’il était juste que le système d’IA se concentre sur l’aide aux personnes les plus défavorisées du groupe. En revanche, les participants qui connaissaient leur poste discutaient beaucoup plus fréquemment de leur choix en termes d’avantages personnels.
Enfin, une fois le jeu de récolte terminé, nous avons posé une situation hypothétique aux participants : s'ils devaient rejouer au jeu, sachant cette fois qu'ils seraient dans un champ différent, choisiraient-ils le même principe que la première fois ? ? Nous nous sommes particulièrement intéressés aux individus qui bénéficiaient auparavant directement de leur choix, mais qui ne bénéficieraient pas du même choix dans un nouveau jeu.
Nous avons constaté que les personnes qui avaient déjà fait des choix sans connaître leur position étaient plus susceptibles de continuer à approuver leur principe, même lorsqu'elles savaient que cela ne les favoriserait plus dans leur nouveau domaine. Cela fournit une preuve supplémentaire que le voile de l'ignorance encourage l'équité dans la prise de décision des participants, les conduisant à des principes qu'ils étaient prêts à respecter même lorsqu'ils n'en bénéficiaient plus directement.
Des principes plus équitables pour l’IA
La technologie de l’IA a déjà un effet profond sur nos vies. Les principes qui régissent l’IA façonnent son impact et la manière dont ces avantages potentiels seront distribués.
Notre recherche a porté sur un cas où les effets de différents principes étaient relativement clairs. Ce ne sera pas toujours le cas : l’IA est déployée dans de nombreux domaines qui s’appuient souvent sur un grand nombre de des règles pour les guider, potentiellement avec des effets secondaires complexes. Néanmoins, le voile de l’ignorance peut encore potentiellement éclairer la sélection des principes, contribuant ainsi à garantir que les règles que nous choisissons sont équitables pour toutes les parties.
Pour garantir que nous construisons des systèmes d’IA qui profitent à tous, nous avons besoin de recherches approfondies avec un large éventail de contributions, d’approches et de commentaires provenant de toutes les disciplines et de la société. Le voile de l’ignorance peut constituer un point de départ pour la sélection des principes sur lesquels aligner l’IA. Il a été déployé efficacement dans d'autres domaines pour faire ressortir des préférences plus impartiales. Nous espérons qu’avec des recherches plus approfondies et une attention particulière au contexte, cela pourra contribuer à jouer le même rôle pour les systèmes d’IA construits et déployés dans la société d’aujourd’hui et de demain.
En savoir plus sur l'approche de DeepMind sécurité et éthique.