
La réglementation européenne sur l’IA entre en vigueur en août 2024
Suite à la première proposition de la Commission européenne en avril 2021, le Parlement européen a adopté le règlement de l’UE sur l’intelligence artificielle. Celui-ci a été publié au Journal officiel de l’Union européenne en juillet 2024 et est désormais disponible dans les 24 langues officielles des États membres de l’UE. Le règlement entrera officiellement en vigueur en août 2024, même si la plupart des dispositions ne s’appliqueront que deux ans plus tard. Toutefois, des délais différents s’appliquent pour certaines dispositions. Le règlement fixe des obligations aux entreprises qui développent et/ou utilisent des systèmes d’intelligence artificielle dans l’Union européenne.
Calendrier de réglementation de l’UE sur l’IA
Le règlement de l’UE sur l’IA sera élaboré et mis en œuvre selon le calendrier suivant :
Avril 2021 : Première proposition de la Commission européenne
Mars 2024 : Adopté par le Parlement européen
Juillet 2024 : publication officielle au Journal officiel de l’UE
Août 2024 : Le règlement entre en vigueur
Mi-2025 : mise en œuvre complète dans tous les États membres de l’UE
Qu’est-ce que le règlement européen sur l’intelligence artificielle ?
La loi européenne sur l’IA 2024 est un règlement de la Commission européenne qui vise à garantir que les systèmes d’IA sont utilisés de manière « sûre, transparente, traçable, non discriminatoire et respectueuse de l’environnement » . Le règlement vise à réglementer la manière dont les systèmes d’IA peuvent être gérés de manière appropriée par les « fournisseurs » et les « exploitants » de systèmes d’IA en fonction des risques qu’ils présentent. Un « fournisseur » de systèmes d’IA est, au sens large, une entreprise qui propose ou développe un système d’IA sous sa propre marque. Les opérateurs sont ceux qui utilisent les technologies d’IA. Toute entreprise peut donc appartenir à ce groupe. Plus le risque du système d’IA est élevé, plus les exigences réglementaires sont strictes.
Quelques points clés de la loi européenne sur l’IA
- Classification basée sur les risques : L’AI Act classe les systèmes d’IA en différents niveaux de risque, chacun avec des exigences réglementaires spécifiques pour gérer leurs impacts potentiels.
- Exigences de transparence : les systèmes d’IA à haut risque doivent répondre à des exigences strictes de transparence et de tenue de registres pour garantir la responsabilité et la traçabilité.
- Surveillance humaine : certains systèmes d’IA nécessitent une surveillance humaine pour atténuer les risques et maintenir des normes éthiques.
Niveaux de risque dans la loi européenne sur l’IA
L’AI Act définit quatre niveaux de risque pour les systèmes d’IA, chacun étant associé à des exigences réglementaires spécifiques :

Source : Publication officielle de la Commission européenne sur la loi IA
Risque inacceptable
Les systèmes d’IA qui tombent en dessous de ce niveau de risque constituent une menace évidente et sont strictement interdits. Les exemples incluent la manipulation du comportement au moyen de techniques cognitives telles que des jouets à commande vocale qui incitent les enfants à adopter un comportement dangereux, ou des systèmes d’évaluation sociale qui catégorisent les personnes en fonction de leur comportement ou de leurs caractéristiques personnelles.
Systèmes d’IA à haut risque
Les systèmes d’IA de cette catégorie peuvent avoir des impacts significatifs sur la santé, la sécurité ou les droits fondamentaux. Citons par exemple l’IA dans la gestion des infrastructures critiques, l’éducation, l’emploi et l’application de la loi. Tous les systèmes d’IA présentant un potentiel de risque élevé doivent être soumis à des tests rigoureux avant d’être mis sur le marché et tout au long de leur durée de vie. Les individus ont le droit de signaler leurs préoccupations concernant les systèmes d’IA aux autorités nationales compétentes.
Risque limité
Ces systèmes d’IA présentent un faible risque et sont soumis à des exigences de transparence. Par exemple, les utilisateurs qui interagissent avec des chatbots doivent être informés qu’ils parlent à une IA. Les fournisseurs doivent également veiller à ce que les contenus générés par l’IA, en particulier sur des sujets d’intérêt public, soient clairement identifiés comme générés artificiellement, qu’il s’agisse de texte, d’audio ou de vidéo.
Risque minime ou nul
Les systèmes d’IA présentant un risque minime ou nul ne sont pas soumis à des exigences réglementaires supplémentaires. Les exemples incluent les jeux vidéo contrôlés par l’IA et les filtres anti-spam.
Conformité et IA : ce que les entreprises devraient faire
Comme l’a expliqué le Conseil européen dans un communiqué de presse de mai , il est important d’évaluer l’impact sur les droits fondamentaux avant qu’un système d’IA à haut risque ne soit déployé par certaines entreprises fournissant des services publics.
Il y a quelques points que les fournisseurs de systèmes d’IA doivent garder à l’esprit :
- Réaliser une évaluation des risques en déterminant la catégorie de risque du système d’IA et en mettant en œuvre les mesures de protection nécessaires.
- Créez une documentation technique pour démontrer la conformité et soumettez-la aux autorités pour examen.
- Développez le système d’IA pour enregistrer automatiquement les événements afin de détecter les risques et les modifications du système.
- Créer des lignes directrices pour les opérateurs afin de garantir que les exigences sont respectées.
Bien que les opérateurs n’aient pas les mêmes obligations que les fournisseurs, la loi sur l’IA leur impose de se conformer aux directives d’utilisation, de garantir la conformité organisationnelle et technique et de réaliser une évaluation d’impact sur la protection des données avant de déployer des systèmes d’IA à haut risque.
Le non-respect de la loi européenne sur l’IA peut entraîner des amendes allant de 35 millions d’euros, soit 7 % du chiffre d’affaires mondial, à 7,5 millions d’euros, soit 1,5 % du chiffre d’affaires, selon la gravité de l’infraction et la taille de l’entreprise.
Les objectifs numériques de l’Europe et la stratégie européenne en matière de données définies pour 2030 visent à promouvoir une concurrence loyale et à accroître la transparence des services en ligne. Pour les entreprises, cela signifie qu’elles doivent s’assurer que leurs processus soutiennent ces valeurs de protection des données. Les lois récemment adoptées, notamment la loi sur les services numériques et la loi sur les marchés numériques , soulignent l’importance d’une concurrence loyale et de la transparence. En abordant les processus internes et en les examinant à un stade précoce, les fournisseurs et les utilisateurs de systèmes d’IA peuvent éviter les amendes et accroître la confiance des consommateurs. Améliorez vos processus de conformité dès aujourd’hui en cliquant ici pour commencer.