Règlement 2024/1689 concernant l’intelligence artificielle du 13 juin 2024 (AI Act)

AI-IA-39245503-scaled-1.jpeg

Les principes généraux

Règlement 2024/1689 du 13 juin 2024 (AI Act)

L’Union européenne a déterminé un corpus général et horizontal d’encadrement des technologies d’IA (1).

Les objectifs principaux sont :

• la création d’un marché unique par le développement et l’utilisation d’une IA digne de confiance ;

• l’organisation d’un niveau élevé de protection pour les personnes physiques et morales des secteurs privés et publics.

Le pilotage juridique des intelligences artificielles

Règlement 2024/1689 du 13 juin 2024 (AI Act)

Basées sur les valeurs de l’Union, les prestations concernent les éléments suivants :

 

Le pilotage de la protection de ces valeurs fondamentales s’effectue en fonction des risques potentiels tels que :

Les acteurs régulés

Règlement 2024/1689 du 13 juin 2024 (AI Act)

Les principaux acteurs sont !

• les fournisseurs établis dans l’Union et les mandataires pour les fournisseurs tiers ;

• les importateurs et les distributeurs ;

• les déployeurs (organismes utilisateurs).

Les activités régulées

Règlement 2024/1689 du 13 juin 2024 (AI Act)

Les opérations sont :

• la conception (faiblement encadrée) ;

• les essais en conditions réelles ;

• la mise sur le marché ;

• la mise en service ;

• l’utilisation des résultats produits au sein de l’Union ou provenant de fournisseurs tiers.

Les technologies de l'IA

Règlement 2024/1689 du 13 juin 2024 (AI Act)

• Typologie

Elles comprennent les deux familles :

• l’IA symbolique (ou système expert) ;

• l’IA statistique (dont les réseaux de neurones).

• Nomenclature

Dans ce cadre, la régulation concerne :

• les systèmes d’IA (un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels) ;

• les modèles d’IA à usage général (un modèle d’IA, y compris lorsque ce modèle d’IA est entraîné à l’aide d’un grand nombre de données utilisant l’auto-supervision à grande échelle, qui présente une généralité significative et est capable d’exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peut être intégré dans une variété de systèmes ou d’applications en aval, à l’exception des modèles d’IA utilisés pour des activités de recherche, de développement ou de prototypage avant leur mise sur le marché) ;

• les systèmes d’IA à usage général (un système d’IA qui est fondé sur un modèle d’IA à usage général et qui a la capacité de répondre à diverses finalités, tant pour une utilisation directe que pour une intégration dans d’autres systèmes d’IA).

Les systèmes d'IA

Règlement 2024/1689 du 13 juin 2024 (AI Act)

 La clarification est la suivante.

• Les systèmes d’IA relevant des pratiques interdites

Il en est ainsi des systèmes ayant pour objet :

• d’opérer en dessous du seuil de conscience (article 5 1 a) ;

• d’exploiter la vulnérabilité des personnes (article 5 1 b) ;

• de classer et d’attribuer une notation sociale (article 5 1 c) ;

• de prédire la commission d’infractions (article 5 1 d) ;

• de réaliser des bases de données de reconnaissance faciale par moissonnage non ciblé d’images en provenance de l’internet et des dispositifs de vidéosurveillance  (article 5 1 e) ;

• d’inférer les émotions (article 5 1 f) ;

• de déterminer des catégorisations biométriques (article 5 1 g) ;

• de piloter un identifiant biométrique en temps réel dans des espaces publics à des fins répressives sauf sauf si et dans la mesure où cette utilisation est strictement nécessaire eu égard à l’un des objectifs suivants :

• la recherche ciblée de victimes spécifiques d’enlèvement, de la traite ou de l’exploitation sexuelle d’êtres humains, ainsi que la recherche de personnes disparues ;

• la prévention d’une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique de personnes physiques ou d’une menace réelle et actuelle ou réelle et prévisible d’attaque terroriste ;

• la localisation ou l’identification d’une personne soupçonnée d’avoir commis une infraction pénale, aux fins de mener une enquête pénale, d’engager des poursuites ou d’exécuter une sanction pénale pour des infractions visées au règlement et punissables dans l’État membre concerné d’une peine ou d’une mesure de sûreté privatives de liberté d’une durée maximale d’au moins quatre ans.

Les systèmes d'IA (suite)

Règlement 2024/1689 du 13 juin 2024 (AI Act)

• Les systèmes d’IA à haut risque

La clarification est la suivante.

Un système d’IA mis sur le marché ou mis en service, qu’il soit ou non indépendant des produits visés aux points a) et b), est considéré comme étant à haut risque lorsque les deux conditions suivantes sont remplies :

a) le système d’IA est destiné à être utilisé comme composant de sécurité d’un produit couvert par la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, ou le système d’IA constitue lui-même un tel produit ;

b) le produit dont le composant de sécurité visé au point a) est le système d’IA, ou le système d’IA lui-même en tant que produit, est soumis à une évaluation de conformité par un tiers en vue de la mise sur le marché ou de la mise en service de ce produit conformément à la législation d’harmonisation de l’Union dont la liste figure à l’annexe I du règlement.

Outre les systèmes d’IA à haut risque susvisés, les systèmes d’IA visés à l’annexe III sont considérés comme étant à haut risque.

Les systèmes d'IA (suite)

Règlement 2024/1689 du 13 juin 2024 (AI Act)

• Les systèmes d’IA à usage général

Ils résultent des systèmes qui mettent en œuvre ou intègrent des modèles d’IA à usage général.

• Les modèles d’IA à usage général

Ils sont classés en deux catégories :

• le modèle sans risque systémique ;

• le modèle avec  risque systémique.

• Les systèmes avec obligation de transparence

Ces systèmes présentant des risques faibles, les exigences concernant l’obligation d’information sont :

• les modalités d’interaction avec le système d’IA ;

• les précisions sur la fourniture des contenus réalisés par des systèmes d’IA.

Les sanctions

Règlement 2024/1689 du 13 juin 2024 (AI Act)

Elles concernent :

• les systèmes d’IA au sein de l’Union ;

• les institutions, organes et organismes de l’Union ;

• les modèles d’IA à usage général.

• Les systèmes d’IA au sein de l’Union

Les amendes administratives sont réparties en trois catégories .

Les sanctions (suite)

Règlement 2024/1689 du 13 juin 2024 (AI Act)

• Les institutions, organes et organismes de l’Union

Les amendes administratives concernent les deux catégories suivantes :

• Les fournisseurs de modèles d’IA à usage général

Les amendes administratives sont distribuées selon les quatre catégories suivantes :

Les institutions

Règlement 2024/1689 du 13 juin 2024 (AI Act)

la régulation est organisée selon le schéma suivant :

Le calendrier

Règlement 2024/1689 du 13 juin 2024 (AI Act)

Les dates principales sont les suivantes :

Perspectives

Règlement 2024/1689 du 13 juin 2024 (AI Act)

Cette régulation devrait, à terme, devenir un processus juridique d’universalité pour une planète humaniste engagée selon les 17 objectifs de développement durable de l’ONU.

Note de bas de page :

  1. Règlement (UE) 2024-1689 du 13 06 2024

Alain Bensoussan

Avocat, Spécialiste en droit des nouvelles technologies de l’informatique

Pour en apprendre davantage

À l'aube d'une ère où l'intelligence artificielle (IA) est en passe de devenir un compagnon quotidien...

La cobotique juridique #2 : L’art de l’invite. Comment réussir les prestations juridiques entre 20 et 80% de la version finale...

Retour en haut