L’intelligence artificielle n’est pas un concept récent. Mais c'est surtout sa capacité générative qui représente une nouveauté majeure. Et cette nouvelle forme d'IA progresse si rapidement qu'elle suscite des inquiétudes quant à ses dangers potentiels. En Europe, l'Union européenne a élaboré l'AI Act, un texte législatif visant à encadrer son développement. Le document devrait être soumis au vote prochainement, et une version préliminaire vient de fuiter dans la presse.
La mise en place d'une autorité de contrôle
De nombreux experts, ne le faites pas Elon Musk, ont plaidé en faveur de la création d'un régulateur pour l'IA. Son rôle serait de contrôler la conception de nouvelles IA afin de s'assurer qu'elles ne présentent aucun danger. L'Europe a franchi cette étape avec l'AI Actun texte législatif visant à encadrer l'IA tout en stimulant son développement.
Le 22 janvier 2024, les 22 pays membres de l'UE ont reçu une version non finalisée de l'AI Act. Son adoption formelle est prévue lors du Coreper le 2 février. Le document de près de 900 pages sur 4 colonnes, daté du 21 janvier, présente dans sa colonne de droite le texte approuvé.
D'après ce document, l'AI Act prévoit la création d'une nouvelle entité régulatrice. Sa mission sera d'établir des normes de référence afin de distinguer les modèles d'intelligence artificielle à risque systémique élevé des autres. Ce régulateur sera également chargé de surveiller l'émergence de nouveaux risques sociétaux Pouvoir découler des technologies d'IA. Il mènera aussi des enquêtes en cas d'infractions présumées aux règles établies. Cependant, le financement des coûts opérationnels du bureau et d'autres aspects reste encore à définir.
L'AI Act classe les IA en 4 catégories de risque et prévoit des sanctions
L'AI Act prévoit une classification des systèmes d'IA en quatre niveaux de risque, avec des règles plus strictes pour ceux qui respectent comme à haut risque. Cela concerne en particulier les IA déployées dans des secteurs sensibles comme l'éducation. Ces systèmes à haut risque seront soumis à diverses obligations spécifiques. Cette classification étau à renforcer la supervision des technologies IA ayant un impact significatif sur la société.
Le texte offre également la possibilité aux citoyens de déposer des plaintes concernant les problématiques IA. Les entités à l'origine des préjudices causés par ces IA pourraient se voir infliger des amendes. Le montant va dépendre de la nature de l'infraction : diffusion d'informations fausses ou biaisées, non-respect des obligations légales en matière d'IA, ou développement d'outils d'intelligence artificielle interdits.
La France réticente à une régulation trop stricte de l'IA
Certains pays, dont la France, l'Italie et l'Allemagne, cherchent à repousser l'adoption de l'AI Act pour obtenir des assouplissements. La France, notamment, craint une autorité de contrôle trop contraignante qui pourrait nuire à ses pépites nationales de l'IA comme Mistral IA. Ces pays préféreraient la mise en place d'une autorégulation basée sur des codes de conduite.. Pourtant, l'objectif de l'AI Act n'est pas de freiner l'innovation, mais de réguler l'IA de manière à garantir un développement sûr et responsable.
Lors du vote prévu le 2 février sur l'AI Act, les gouvernements européens n'auront d'autre choix que d'approuver ou de rejeter le texte dans son intégralité. Ils se prononceront par un vote « oui » ou « non » sur ce projet de réglementation.