Voir les avis d'experts

Intelligence artificielle

Un pas vers une intelligence artificielle fiable et sûre

La Loi sur l’IA

Daniel Errea

Consultant en Projets européens

Parfois, la fiction n’est pas si éloignée de la réalité. Les films dépeignent continuellement des paradigmes dans lesquels les robots et l’intelligence artificielle finissent par dominer la société ou par transformer la réalité en dystopie. Évidemment, c’est loin d’être le cas, mais il est vrai que l’intelligence artificielle (IA) a évolué rapidement, imprégnant de nombreux aspects de notre vie, révolutionnant les industries et transformant la façon dont nous interagissons avec la technologie.

Cependant, à mesure que les systèmes d’IA deviennent de plus en plus complexes et influents, leur fiabilité suscite des inquiétudes. Des problèmes tels que la partialité, le manque de transparence, la responsabilité et les risques pour les valeurs humaines questionnent le développement et le déploiement responsables de l’IA.

Afin de répondre à ces préoccupations, les gouvernements et les régulateurs du monde entier prennent des mesures, et les institutions européennes ne font pas exception. La semaine dernière, le Parlement européen a adopté sa position de négociation sur un ensemble de règles regroupées dans la loi sur l’IA. Le texte final fera l’objet de discussions avec les États membres, l’objectif étant de parvenir à un accord d’ici la fin de l’année.

La Loi sur l’IA de l’UE

Proposée en avril 2021 par la Commission européenne, cette mesure vise à créer un cadre réglementaire harmonisé pour les systèmes d’IA, tout en favorisant l’innovation et en respectant les normes éthiques. Ci-dessous, nous détaillons ses caractéristiques.

Approche fondée sur le risque

La loi classe les systèmes d’IA en quatre niveaux de risque : inacceptable, élevé, limité et minimal. Les systèmes à haut risque, tels que ceux utilisés dans les infrastructures critiques, les soins de santé ou l’application de la loi, seront soumis aux exigences les plus strictes, notamment en matière de transparence, de documentation et de surveillance humaine. En adoptant cette approche, la loi garantit que les mesures réglementaires sont proportionnées aux risques posés par les différentes applications de l’IA, en concentrant les efforts sur les domaines à haut risque tout en autorisant l’innovation dans les domaines à moindre risque.

Interdiction des pratiques inacceptables en matière d’IA

Cette mesure interdit explicitement certaines pratiques d’IA considérées comme inacceptables en raison de leur potentiel à enfreindre les droits fondamentaux ou à causer des dommages importants. Il s’agit notamment des systèmes qui manipulent le comportement humain ou utilisent des techniques subliminales, ainsi que ceux qui créent des deepfakes à des fins malveillantes. La loi vise ainsi à protéger les droits des personnes et à prévenir l’utilisation abusive de l’IA.

Transparence et explicabilité

La loi donne la priorité à la transparence et à l’explicabilité afin d’accroître la confiance dans les systèmes d’IA. Elle stipule que les utilisateurs doivent être informés lorsqu’ils interagissent avec l’un d’entre eux, afin qu’ils sachent qu’ils n’ont pas affaire à un être humain, mais à un système automatisé. En outre, les systèmes d’IA à haut risque doivent fournir des informations détaillées sur leurs capacités et leurs limites. Ces exigences permettent aux utilisateurs de prendre des décisions en connaissance de cause et encouragent la responsabilisation quant à l’utilisation des résultats produits par l’IA.

Gouvernance des données

Reconnaissant l’importance de la qualité des données et de l’atténuation des biais, la loi souligne que les données doivent être transparentes et traçables et répondre à certaines exigences de qualité. Elle encourage ainsi l’utilisation d’ensembles de données diversifiés et de grande qualité afin d’éviter les résultats biaisés et la discrimination.

Suivi et responsabilité

La loi souligne également l’importance de la surveillance humaine. Les systèmes d’IA à haut risque doivent être dotés de mécanismes d’intervention et de contrôle humains adéquats. Cela permet de s’assurer que les décisions cruciales ne reposent pas uniquement sur les algorithmes d’IA et que les humains conservent le contrôle des résultats. Les développeurs et les fournisseurs de systèmes d’IA doivent être tenus responsables de leurs produits. Le non-respect de la loi peut entraîner des amendes importantes, ce qui encourage les développeurs de systèmes d’IA à donner la priorité aux considérations éthiques et à assumer la responsabilité de l’impact social de leurs technologies.

Engagement sous forme d’opportunités de financement

La Commission européenne alloue 317,50 millions d’euros sous forme de subventions pour soutenir des projets innovants dans le domaine de l’IA dans le cadre du cluster 4 du pilier II d’Horizon Europe. Les appels à projets se concentrent sur le développement éthique des technologies numériques et industrielles, où les utilisateurs finaux et les travailleurs sont responsabilisés dans le développement des technologies.

L’objectif de la Commission européenne est de développer un environnement numérique digne de confiance, basé sur un internet plus résilient, durable et décentralisé, de donner aux utilisateurs finaux plus de contrôle sur leurs données et leur identité numérique, et de permettre de nouveaux modèles sociaux et commerciaux qui respectent les valeurs européennes.

Prochaines étapes

L’introduction de la loi européenne sur l’IA représentera une étape importante dans sa réglementation et la garantie de sa fiabilité, car elle vise à protéger les droits des individus tout en favorisant l’innovation et la compétitivité en Europe. Le chemin vers une IA digne de confiance ne s’achèvera toutefois pas avec l’adoption de ces règles. Il reste encore quelques étapes à franchir, qui sont détaillées ci-dessous.

  • Coopération internationale : encourager la coopération internationale et la collaboration entre les gouvernements, les organisations et les experts afin d’établir des normes communes et des bonnes pratiques pour une IA fiable.
  • Lignes directrices éthiques : élaborer et adopter des lignes directrices éthiques complètes couvrant des principes tels que l’équité, la transparence, la responsabilité, la protection de la vie privée et la robustesse. Le respect de ces principes favorisera la confiance des utilisateurs et des parties prenantes.
  • Essais et certification robustes : mettre en place des processus d’essais et de certification rigoureux pour les systèmes d’IA, en particulier ceux qui sont classés comme présentant un risque élevé. Des évaluations complètes des performances, de la fiabilité et de la sécurité des systèmes d’IA peuvent contribuer à garantir leur fiabilité et à prévenir les dommages potentiels.
  • Poursuite de la recherche et du développement : les avancées dans ces domaines contribueront à l’amélioration des systèmes d’IA et permettront de remédier aux éventuels biais, erreurs ou conséquences involontaires.
  • Sensibilisation et éducation du public : donner aux citoyen(ne)s les moyens de prendre des décisions éclairées sur l’utilisation de l’IA et de participer aux débats sur son impact sociétal. La culture numérique et la promotion de la compréhension contribueront à une utilisation plus responsable et plus éclairée des technologies de l’IA.
  • Évaluation et adaptation continues : évaluer régulièrement l’efficacité et l’impact de la loi européenne sur l’IA et procéder aux adaptations nécessaires pour faire face aux nouveaux défis et aux évolutions technologiques.

En prenant ces mesures, nous pouvons favoriser un écosystème d’IA fiable qui profite aux individus, aux organisations et à la société dans son ensemble. La Loi sur l’IA de l’UE constitue une base, mais des efforts collectifs et un engagement continu sont nécessaires pour surmonter les difficultés et faire en sorte que cette technologie reste une force positive. Ensemble, nous pouvons façonner son avenir, en donnant la priorité aux valeurs humaines, à l’équité et à la transparence, en inspirant confiance dans cette technologie qui est en train de remodeler notre monde.

Notre expert(e)

Daniel Errea

Siège de Pampelune

Consultant en Projets européens

This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.