Rechercher
Fermer ce champ de recherche.

Les législateurs de l’UE parviennent à un accord sur le règlement sur l’intelligence artificielle (AI Act), mais des défis restent à relever

Europe takes a step towards regulating Artificial Intelligence with the political agreement on the AI Act

Les discussions techniques vont-elles être finalisées avant les élections européennes ?

 

Le dernier cycle de négociations interinstitutionnelles a fait l’objet d’une attention particulière au cours des derniers jours. Les négociateurs ont célébré ce qu’ils décrivent comme un « accord historique » qui fera de l’Europe « le meilleur endroit au monde pour développer l’intelligence artificielle », selon le commissaire Thierry Breton.

Toutefois, la session de négociations s’étalant sur 36 heures en l’espace de 2 jours n’a pas mis fin aux discussions. Pas moins de dix réunions techniques ont été programmées pour traduire l’accord politique en des termes juridiques appropriés, d’ici février. Comme nous l’avons vu dans de nombreux dossiers législatifs récents, le diable peut parfois se cacher dans les détails : un simple mot ou une virgule peut remettre sur la table des questions sensibles et faire dérailler les discussions. Pour l’instant, la France, l’Allemagne, l’Italie, la Hongrie et la Pologne ont souligné qu’elles restaient prudentes, tant qu’une version consolidée du texte n’est pas disponible, tandis que la Finlande, la Suède et la Slovaquie ont déjà exprimé des doutes sur l’accord en ce qui concerne les pouvoirs des forces de l’ordre et les prérogatives en matière de sécurité nationale.

 

Une fois finalisé, le texte devra recevoir l’aval du Parlement et du Conseil pour devenir un règlement européen. S’il est approuvé avant les élections européennes de juin 2024, cela signifie que les nouvelles règles s’appliqueront dès 2026.

L’accord politique peut être brièvement résumé comme suit – n’hésitez pas à nous contacter si vous avez besoin de plus de détails !

 

1. Garde-fous pour les systèmes d’intelligence artificielle à usage général et les modèles de fondation

A noter que les terminologies et définitions utilisées ici devraient être affinées et clarifiées pendant les discussions techniques.

L’acte sur l’IA comprendra probablement des dispositions concernant ce que l’on appelle les systèmes d’« intelligence artificielle à usage général » incluant les modèles d’IA tels que ChatGPT ou Google Bard. Les modèles d’IA à usage général seraient définis de manière générale comme tout modèle formé avec une grande quantité de données en utilisant l’auto-supervision à grande échelle et capable d’effectuer un large éventail de tâches. Les modèles utilisés avant la mise sur le marché pour des activités de recherche, de développement et de prototypage resteraient toutefois en dehors du champ d’application de la loi sur l’IA.

La version finale du texte comporterait un ensemble d’exigences horizontales pour tous les fournisseurs de tels systèmes d’IA, y compris une obligation de transparence concernant les ensembles de données utilisés pour former les algorithmes et une obligation de fournir des informations sur l’utilisation et le fonctionnement du modèle. En plus de cela, l’accord prévoirait des exigences plus strictes pour les modèles d’IA ayant un impact élevé (ou systémique) sur la société. Il s’agirait notamment d’évaluer et d’atténuer les risques systémiques ou d’imposer la réalisation de tests pour détecter les erreurs ou les dysfonctionnements.

Les efforts de la France et de l’Allemagne pour protéger leurs champions de l’IA semblent avoir porté leurs fruits, puisque l’accord politique inclurait une dérogation sur mesure pour les modèles open-source non systémiques. Toutefois, le président français Emmanuel Macron ayant critiqué l’accord par la suite, la France tentera probablement de modifier ces dispositions.

 

2. Compromis entre le Conseil et le Parlement sur la liste des applications interdites et les dérogations pour les autorités chargées du maintien de l’ordre

Le Conseil a réussi à obtenir des concessions importantes de la part du Parlement sur l’utilisation de l’identification biométrique par les forces de l’ordre, qui était la principale source de désaccord entre les deux parties. En contrepartie de l’introduction de plusieurs exemptions pour cette utilisation de l’identification biométrique, le Parlement européen semble avoir obtenu une extension de la liste des utilisations interdites de l’IA telles que les systèmes biométriques catégorisant les personnes sur la base de données sensibles comme l’orientation sexuelle ou les croyances religieuses.

La loi sur l’IA comporterait une définition des « données biométriques » différente de celle prévue par le règlement général sur la protection des données (RGPD). La définition de l’Acte sur l’IA aurait une portée plus large, puisque l’identification des personnes ne serait plus un critère. Toute donnée liée aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique serait donc considérée comme une donnée biométrique.

 

3. Des obligations claires pour les systèmes d’IA à haut risque

Les discussions sur la réglementation des systèmes d’IA à haut risque – le cœur de l’Acte sur l’IA – se sont déroulées sans heurts. Le Conseil et le Parlement ont clarifié les critères utilisés pour considérer un système comme « à haut risque » et ont ajouté la possibilité pour les fournisseurs d’auto-évaluer si leurs systèmes appartiennent ou non à cette catégorie. Toutefois, cette dérogation s’appliquerait à un nombre limité de cas d’usages tels que les systèmes uniquement destinés à améliorer les résultats des tâches effectuées par une personne physique.

L’idée d’introduire une évaluation de l’impact sur les droits fondamentaux, initialement proposée par le Parlement, a également été discutée. Toutefois, le champ d’application de cette évaluation est plus limité, puisqu’elle ne s’appliquerait qu’aux organismes du secteur public et aux acteurs privés fournissant des services publics essentiels.

 

4. Une architecture de gouvernance modifiée

L’accord final prévoit une gouvernance à trois niveaux : une nouvelle autorité de surveillance de l’UE (l’Office européen de l’IA) chargée de faire appliquer les dispositions relatives aux modèles d’IA à usage général et à fort impact, des organismes nationaux coordonnant leurs activités au sein d’un nouveau conseil de l’IA (AI Board) et un comité scientifique.

 

5. Une mise en œuvre progressive

Les dispositions devraient entrer en vigueur progressivement. Les dispositions relatives aux interdictions devraient entrer en application six mois après l’entrée en vigueur du règlement, douze mois pour les dispositions sur la gouvernance de l’IA à usage général et vingt-quatre mois pour toutes les autres dispositions.

 

Anca Caruntu, Benjamin de Vanssay

Partager

Articles similaires