Vous êtes ici

L’IA pour le meilleur et pour le pire


15 mars 2024

Le Parlement européen a adopté le mercredi 13 mars une première législation européenne sur l’intelligence artificielle (IA). Elle cherche à trouver un équilibre entre la protection des droits fondamentaux des citoyens sans freiner le développement de ce secteur en pleine évolution.

« C’est historique : l’Europe a mis sur pied la première réglementation de l’intelligence artificielle au monde », se félicite Thierry Breton, commissaire européen au Marché intérieur. Le mercredi 13 mars, le Parlement européen a adopté à une large majorité "l’IA act". Cette législation protège les droits fondamentaux des citoyens. Elle exige plus de transparence des logiciels et algorithmes entraînés par l’Homme, qui sont en mesure de générer des contenus de manière autonome.

Proposée en 2021 par la Commission, "l’IA act" inquiétait : quid de l’innovation européenne qui risquait d’être freinée par les réglementations ? Cette tension entre sécurité et progrès technologique a dominé les négociations pendant de longues années. Les États membres, soucieux de protéger leurs intérêts nationaux, et les groupes politiques du Parlement sont finalement parvenus à un compromis entre la protection des droits humains et l’innovation européenne en matière d’IA. Sans précédent législatif, trouver cet accord n’a pas été une mince affaire. Les intelligences artificielles sont nouvelles, et le secteur évolue à vitesse grand V.

ChatGPT, qui rentre dans la catégorie des IA à usage général, doit répondre à des règles de transparence © Elsa Rancel

Quatre niveaux de risque

« Il y a du bon et du mauvais dans l’IA. Certaines permettent de détecter les tumeurs cancéreuses, d’autres incitent à s’automutiler », alerte l’eurodéputée danoise Christel Schaldemose (S&D, sociaux-démocrates). La nouvelle législation établit quatre niveaux de dangerosité : minime, limité, élevé et inacceptable. Les IA qui rentreront dans la dernière catégorie seront interdites. C’est le cas des systèmes de notation sociale ou des programmes qui visent à manipuler le comportement humain. 

Contre l’avis initial du Parlement, les États membres ont finalement obtenu des exceptions à l’interdiction de la surveillance de masse par des caméras à reconnaissance faciale dans les lieux publics. Celles-ci concerneront la recherche de certaines victimes ou suspects et la prévention des attentats terroristes. Une concession accordée aux forces de l’ordre que regrette la Fédération européenne de défense des droits numériques (EDRi), qui s’en est inquiétée en décembre 2023 : « Ces exceptions ouvrent la voie à une utilisation dangereuse, discriminatoire et de surveillance de masse. »

Les IA qui représentent un risque élevé, comme celles gérant les ressources humaines, l’accès aux services essentiels (crédit bancaires, services publics, prestations sociales…) devront aussi se soumettre à des exigences de transparence. L’objectif est d’éviter toute discrimination fondée sur le genre, l’origine sociale ou raciale. Selon l’eurodéputé italien Brando Benifei du parti des sociaux-démocrates, « certaines IA éliminent les personnes non blanches quand il s’agit de choisir les CV. »

Les intelligences artificielles à usage quotidien comme ChatGPT ne sont pas exclues de l’exigence de transparence. Les entreprises devront publier une liste suffisamment détaillée des contenus qui nourrissent leur logiciel. Les créateurs pourront ainsi plus facilement faire valoir leur droit d’auteur quand leur production sera utilisée dans la base de données. Toutes les productions générées par une IA devront être mentionnées comme telles grâce à un marqueur numérique, afin de limiter l’impact des deepfakes, les vidéos truquées.

En cas de non respect des règles relatives aux pratiques prohibées, les sanctions pourront aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires. 

Un « hub numérique de l’avenir »

L’Europe comme « hub numérique de l’avenir », c’est l’autre objectif du règlement, selon l'eurodéputé roumain Dragoş Turodache (Renew, libéraux). Lors de la première proposition en 2021, des entreprises du secteur de la tech critiquaient le texte, relevant un déséquilibre entre la régulation des pratiques et l’incitation à l’innovation. Des pays comme la France, avec la start-up Mistral AI qui a développé un chatbot et l’Allemagne avec le traducteur automatique DeepL, ne voulaient pas mettre à mal le développement de leur bijou technologique face à la concurrence de la Chine et des États-Unis. Des craintes reprises par les eurodéputés libéraux de droite et du centre. « Nous devons utiliser le potentiel de l’IA sans peur. L’Europe ne doit pas gâcher cette occasion », estime Dita Charanzová, eurodéputée tchèque (Renew). 

La réglementation se veut aussi compréhensive à l’égard des PME, les petites et moyennes entreprises, et prévoit des procédures pour les accompagner au mieux. Elles pourront s’auto-évaluer avant de déployer tout système d’IA et les coûts pour se conformer à la nouvelle législation pourront être réduits voire abolis pour certains domaines d’activités, comme la recherche.

« Cette législation n’est que le début d’un long voyage », avertit Dragoş Turodache (Renew). L’intelligence artificielle va forger un « monde nouveau », des algorithmes et techniques inédites vont surgir. L’UE se dit ainsi prête à réagir et à répondre à des questions d’ordre éthique et moral face aux futures formes d’IA, sans freiner ce secteur en plein développement. 

Aurore Ployer et Elsa Rancel

Imprimer la page