Information
Equipo Nizkor
        Derechos | Equipo Nizkor

09juin23

English | Español


Loi sur l'IA de l'UE : première réglementation de l'intelligence artificielle


L'utilisation de l'intelligence artificielle dans l'UE sera réglementée par la loi sur l'IA, la première loi globale sur l'IA au monde. Découvrez comment elle vous protégera.

Dans le cadre de sa stratégie numérique, l'UE souhaite réglementer l'intelligence artificielle (IA) pour garantir de meilleures conditions de développement et d'utilisation de cette technologie innovante. L'IA peut apporter de nombreux avantages, tels que de meilleurs soins de santé, des transports plus sûrs et plus propres, une fabrication plus efficace, ainsi qu'une énergie moins chère et plus durable.

En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l'UE pour l'IA. Il propose que des systèmes d'IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu'ils présentent pour les utilisateurs. Les différents niveaux de risque impliqueront plus ou moins de réglementation. Une fois approuvées, ces règles seront les premières au monde sur l'IA.

Ce que le Parlement veut dans la législation sur l'IA

La priorité du Parlement est de veiller à ce que les systèmes d'IA utilisés dans l'UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Les systèmes d'IA devraient être supervisés par des personnes plutôt que par l'automatisation, afin d'éviter des résultats néfastes.

Le Parlement souhaite également établir une définition uniforme et neutre sur le plan technologique de l'IA qui pourrait être appliquée aux futurs systèmes d'IA.

Loi sur l'IA : des règles différentes pour différents niveaux de risque

Les nouvelles règles établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l'IA. Bien que de nombreux systèmes d'IA présentent un risque minimal, ils doivent être évalués.

Risque inacceptable

Les systèmes d'IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Ils comprennent:

  • la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques : par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants
  • un score social : classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles
  • une catégorisation et une identification biométriques des personnes
  • des systèmes d'identification biométrique en temps réel et à distance, tels que la reconnaissance faciale

Certaines exceptions peuvent être autorisées à des fins d'application de la loi. Les systèmes d'identification biométrique à distance « en temps réel » seront autorisés dans un nombre limité de cas graves, tandis que les systèmes d'identification biométrique à distance a posteriori, où l'identification a lieu après un délai important, seront autorisés à poursuivre des crimes graves et seulement après l'approbation du tribunal.

Risque élevé

Les systèmes d'IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque et seront divisés en deux catégories.

1. Les systèmes d'IA qui sont utilisés dans les produits relevant de la législation de l'UE sur la sécurité des produits. Cela comprend les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs.

2. Les systèmes d'IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l'UE :

  • la gestion et l'exploitation des infrastructures critiques
  • l'éducation et la formation professionnelle
  • l'emploi, la gestion des travailleurs et l'accès au travail indépendant
  • l'accès et la jouissance des services privés essentiels et des services et avantages publics
  • les forces de l'ordre
  • la gestion de la migration, de l'asile et du contrôle des frontières
  • l'aide à l'interprétation juridique et à l'application de la loi.

Tous les systèmes d'IA à haut risque seront évalués avant leur mise sur le marché et tout au long de leur cycle de vie.

IA généraliste et générative

L'IA générative, comme ChatGPT, devrait se conformer aux exigences de transparence :

  • indiquer que le contenu a été généré par l'IA
  • concevoir le modèle pour l'empêcher de générer du contenu illégal
  • publier des résumés des données protégées par le droit d'auteur utilisées pour la formation

Les modèles d'IA à usage général à fort impact susceptibles de présenter un risque systémique, tels que le modèle d'IA plus avancé GPT-4, devraient faire l'objet d'évaluations approfondies et signaler tout incident grave à la Commission.

Risque limité

Les systèmes d'IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Après avoir interagi avec les applications, l'utilisateur peut alors décider s'il souhaite continuer à l'utiliser. Les utilisateurs doivent être informés lorsqu'ils interagissent avec l'IA. Cela inclut les systèmes d'IA qui génèrent ou manipulent du contenu image, audio ou vidéo (par exemple, les deepfakes, des contenus faux qui sont rendus crédibles par l'IA).

Prochaines étapes

Le 9 décembre 2023, le Parlement est parvenu à un accord provisoire avec le Conseil sur la loi sur l'IA. Le texte convenu devra maintenant être formellement adopté par le Parlement et le Conseil pour entrer en vigueur.

Les commissions du marché intérieur et celle des libertés civiles du Parlement voteront sur l'accord lors d'une prochaine réunion.

[Source : Parlement européen, Bruxelles, 09juin23. Mis à jour le : 19déc23]

Equipo Nizkor Radio Nizkor

Droit à la privée
small logoThis document has been published on 24Jan24 by the Equipo Nizkor and Derechos Human Rights. In accordance with Title 17 U.S.C. Section 107, this material is distributed without profit to those who have expressed a prior interest in receiving the included information for research and educational purposes.