Intelligence artificielle: les eurodéputés s’apprêtent à adopter une loi inédite

Ce projet de loi avait été présenté par la Commission européenne en avril 2021. L’apparition fin 2022 de ChatGPT, de la start-up californienne OpenAI, capable de rédiger des dissertations, poèmes ou traductions en quelques secondes, lui a donné une nouvelle dimension.

- Publicité -

Ce système a révélé l’énorme potentiel de l’IA mais aussi ses risques.

La diffusion de fausses photos ou vidéos, plus vraies que nature, a ainsi alerté sur le danger de manipulation de l’opinion.

Lors du débat mardi au Parlement européen, le corapporteur du texte Brando Benifei (sociaux-démocrates) a souligné que le texte présenté au vote des eurodéputés constituait la « première loi contraignante du monde sur l’intelligence artificielle ».

 

– Législation « pionnière » –

Grâce à ce texte, « les pratiques inacceptables en Europe seront maintenant interdites comme la reconnaissance des émotions sur le lieu de travail ou la déduction de l’appartenance ethnique ou religieuse d’une personne sur la base des données biométriques ».

C’est une réglementation « historique, pionnière », a ajouté le corapporteur Dragos Tudorache (Renew, centristes et libéraux), souhaitant que l’UE « joue son rôle sur la scène internationale », et « non seulement crée des règles mais les exporte ».

La législation prévoit une approche à deux niveaux. Les modèles d’IA à « usage général » devront respecter des obligations de transparence ainsi que les règles européennes en matière de droit d’auteur.

Quant aux systèmes considérés comme à « haut risque » – utilisés par exemple dans les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre -, ils seront soumis à des exigences plus strictes.

Ils devront par exemple prévoir la mise en place d’une analyse d’impact obligatoire sur les droits fondamentaux.

Les images, textes ou vidéos générés artificiellement (deep fakes) devront être clairement identifiés comme tels.

Le texte prévoit aussi d’interdire les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l’identification biométrique à distance des personnes dans les lieux publics.

Sur ce dernier point, les Etats ont toutefois obtenu des exemptions pour certaines missions des forces de l’ordre comme la prévention d’une menace terroriste ou la recherche ciblée de victimes.

La législation européenne sera dotée de moyens de surveillance et de sanctions avec la création d’un office européen de l’IA, au sein de la Commission européenne. Il pourra infliger des amendes allant de 7,5 millions d’euros ou 1,5% du chiffre d’affaires à 35 millions d’euros ou 7% du chiffre d’affaires mondial, en fonction de l’infraction et de la taille de l’entreprise.

Le commissaire européen Thierry Breton, chargé du dossier, a qualifié le texte de « juste équilibre entre la gestion des risques, et la promotion de l’innovation ».

 

– « Règles floues » –

Mais le monde de la tech s’est montré circonspect.

« Nombre de ces nouvelles règles restent floues et pourraient ralentir le développement et le déploiement d’applications innovantes », estime ainsi Boniface de Champris, un responsable Europe du CCIA, un lobby du secteur.

De leur côté, l’Observatoire des multinationales (France), Corporate Europe Observatory (Belgique) et LobbyControl (Allemagne) redoutent que les lobbys affaiblissent la mise en œuvre des règles entourant l’IA.

« De nombreux détails de la loi sur l’IA restent ouverts et doivent être clarifiés (…), par exemple en ce qui concerne les normes, les seuils ou les obligations de transparence. La composition du conseil consultatif de la nouvelle agence européenne pour l’IA reste également floue », ont-ils averti dans un communiqué commun.

Une fois entériné par les eurodéputés, le texte devra encore être formellement approuvé par le Conseil pour être intégré à la législation de l’UE.

 

© Agence France-Presse

- Publicité -
EN CONTINU

l'édition du jour

- Publicité -