Le ministère américain de la Justice n'a pas réussi à convaincre un groupe de législateurs américains que les services de police des États et locaux ne reçoivent pas de subventions fédérales pour acheter des outils de « police » basés sur l'IA, connus pour être inexacts, voire susceptibles d'exacerber les préjugés observés depuis longtemps dans Forces de police américaines.
Sept membres du Congrès ont écrit dans une lettre au DOJ, obtenu pour la première fois par WIRED, que les informations qu'ils ont obtenues de l'agence n'avaient fait qu'attiser leurs inquiétudes concernant le programme de subventions à la police du DOJ. Rien dans ses réponses jusqu'à présent, ont déclaré les législateurs, n'indique que le gouvernement a pris la peine d'enquêter pour savoir si les départements bénéficiant de subventions ont acheté des logiciels de police discriminatoires.
« Nous vous exhortons à suspendre toutes les subventions du ministère de la Justice pour les systèmes de police prédictive jusqu'à ce que le DOJ puisse garantir que les bénéficiaires de subventions n'utiliseront pas ces systèmes d'une manière qui aurait un impact discriminatoire », indique la lettre. Le ministère de la Justice avait auparavant reconnu qu'il n'avait pas vérifié si les services de police utilisaient le financement accordé dans le cadre du programme Edward Byrne Memorial Justice Assistance Grant Program pour acheter des outils de police dits prédictifs.
Dirigés par le sénateur Ron Wyden, un démocrate de l'Oregon, les législateurs affirment que le DOJ est tenu par la loi de « vérifier périodiquement » si les bénéficiaires de subventions se conforment au titre VI de la loi nationale sur les droits civils. Il est manifestement interdit au DOJ, expliquent-ils, de financer des programmes qui discriminent sur la base de la race, de l’origine ethnique ou de l’origine nationale, que ce résultat soit intentionnel ou non.
Des enquêtes indépendantes dans la presse ont révélé que les outils de police « prédictifs » populaires, formés à partir de données historiques sur la criminalité, reproduisent souvent des préjugés de longue date, offrant aux forces de l'ordre, au mieux, un vernis de légitimité scientifique tout en perpétuant la surveillance excessive des quartiers à prédominance noire et latino-américaine. . Un titre d’octobre de The Markup déclare sans ambages : «Les logiciels de police prédictive sont terribles pour prédire les crimes.» L'histoire raconte comment les chercheurs de la publication ont récemment examiné 23 631 prédictions policières en matière de criminalité et ont trouvé qu'elles étaient exactes dans environ 1 % du temps.
« Les systèmes de police prédictive s'appuient sur des données historiques déformées par des rapports de criminalité falsifiés et des arrestations disproportionnées de personnes de couleur », ont écrit Wyden et les autres législateurs, prédisant :comme de nombreux chercheurs l'ont fait– que la technologie ne sert qu’à créer des boucles de rétroaction « dangereuses ». Le communiqué note que « des prédictions biaisées sont utilisées pour justifier des contrôles et des arrestations disproportionnés dans les quartiers minoritaires », biaisant encore davantage les statistiques sur les lieux où les crimes ont lieu.
Les sénateurs Jeffrey Merkley, Ed Markey, Alex Padilla, Peter Welch et John Fetterman ont également cosigné la lettre, tout comme la représentante Yvette Clarke.
Les législateurs ont demandé qu'un prochain rapport présidentiel sur le maintien de l'ordre et l'intelligence artificielle étudie l'utilisation d'outils de police prédictive aux États-Unis. « Le rapport devrait évaluer l’exactitude et la précision des modèles de police prédictive pour l’ensemble des classes protégées, leur interprétabilité et leur validité », pour inclure, ajoutent-ils, « toute limite à l’évaluation de leurs risques posée par le manque de transparence de la part des entreprises qui les développent. »
Si le DOJ souhaite continuer à financer la technologie après cette évaluation, affirment les législateurs, il devrait au moins établir des « normes de preuves » pour déterminer quels modèles prédictifs sont discriminatoires, puis rejeter le financement de tous ceux qui ne les respectent pas.