Un compromis entre défense des droits fondamentaux et logique économique
Il est le résultat d’un compromis entre les États membres qui craignent qu’une régulation excessive entrave le développement de leurs entreprises technologiques émergentes et des députés européens soucieux de défendre les droits fondamentaux des citoyens face aux risques du recours aux intelligences artificielles.
En matière de droit fondamentaux les discussions ont inclus la prise en compte des technologies génératives telles que ChatGPT, avec un accent sur la transparence des algorithmes. Car ce système, comme ceux capables de créer des sons ou des images, ont révélé au grand public le potentiel immense de l’intelligence artificielle. Mais aussi certains risques. La diffusion sur les réseaux sociaux de fausses photographies, plus vraies que nature, a par exemple alerté sur le danger de manipulation de l’opinion.
L'objectif est donc de garantir que les systèmes d'intelligence artificielle sur le marché européen respectent les droits fondamentaux et les valeurs de l'UE, tout en stimulant l'investissement et l'innovation.
Un encadrement limité
Le compromis impose des règles aux systèmes d'intelligence artificielle génératifs, avec des contraintes renforcées seulement pour les plus puissants. Le texte reprend pour l’essentiel les principes des réglementations européennes existantes en matière de sécurité des produits qui imposent des contrôles qui ne reposent que sur la bonne volonté des entreprises elles-mêmes. Il n’est prévu d’imposer des règles plus strictes qu’aux seuls systèmes jugés à «haut risque», essentiellement ceux utilisés dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre. Ils seront soumis à une série d’obligations comme celles de prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque. La législation prévoit un encadrement particulier des systèmes d’intelligence artificielle qui interagissent avec les humains : elle les obligera à informer l’utilisateur qu’il est en relation avec une machine.
Les interdictions seront donc rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l’identification biométrique à distance des personnes dans les lieux publics pour éviter une surveillance de masse des populations. Sur ce dernier point, les États ont toutefois obtenu des exemptions pour certaines missions des forces de l’ordre comme la lutte contre le terrorisme.
A la différence des codes de conduite volontaires de certains pays, la législation européenne sera dotée de moyens de surveillance et de sanctions avec la création d’un office européen de l’IA, au sein de la Commission européenne. Il pourra infliger des amendes jusqu’à 7% du chiffre d’affaires, avec un plancher de 35 millions d’euros, pour les infractions les plus graves.
Un accord provisoire qui reste encore à finaliser
Cet accord provisoire sur la législation sur l'intelligence artificielle (IA) conclu entre le Parlement européen et le Conseil doit cependant être complété par un travail technique pour finaliser le texte. Cela promet encore des négociations intenses entre tenants des intérêts des entreprises du secteur et défenseurs des droits fondamentaux des citoyens européens. L'accord devrait entrer en vigueur deux ans après son adoption formelle.