Nouvelles Du Monde

Nouvelles règles pour l’intelligence artificielle – DW – 13 mars 2024

Nouvelles règles pour l’intelligence artificielle – DW – 13 mars 2024

2024-03-13 21:21:00

Pourquoi l’intelligence artificielle (IA) est-elle réglementée ?

L’impact qu’aura l’utilisation de l’intelligence artificielle dans presque tous les domaines de la vie est énorme. Il existe d’énormes opportunités pour les entreprises commerciales, mais aussi des dangers pour les utilisateurs. Même le développeur du modèle de langage ChatGPT, Sam Altman, met en garde à ce sujet. Certains scientifiques voient même une menace pour l’humanité si l’intelligence artificielle développe des applications agressives sans contrôle humain. C’est pourquoi l’UE a été la première grande région économique au monde à élaborer une réglementation globale pour l’IA. L’objectif est une IA compréhensible, transparente, juste, sûre et respectueuse de l’environnement, comme indiqué dans le projet de loi de la Commission européenne. Dans le même temps, il est important dans l’UE que les entreprises bénéficient également du paquet législatif. “La loi sur l’IA sera la rampe de lancement permettant aux entreprises européennes de prendre la tête de la course mondiale à une IA digne de confiance”, a déclaré mercredi le commissaire européen à l’Industrie, Thierry Breton.

Le commissaire européen Thierry Breton à un pupitre de la Commission
Le commissaire à l’Industrie, Thierry Breton : « Nous sommes les premiers et établissons des normes. »Image : UE/Lukasz Kobus

Quelles applications d’IA sont réglementées ?

Les produits d’IA sont divisés en quatre classes de risque : inacceptable, à haut risque, IA générative et à faible risque. Ils sont réglementés en conséquence :

Verboten

Les systèmes qui obligent les gens à modifier leur comportement, par exemple les jouets qui encouragent les enfants à commettre des actes dangereux, ne sont pas acceptables. Cela inclut également des systèmes de capture biométrique télécommandés qui reconnaissent les visages en temps réel. Les applications d’IA qui divisent les gens en classes en fonction de certaines caractéristiques telles que le sexe, la couleur de la peau, le comportement social ou l’origine sont interdites. Il devrait y avoir des exceptions pour l’armée, les services secrets et les autorités d’enquête.

Lire aussi  Snapchat apporte le contrôle parental en Inde via l'outil intégré à l'application "Family Center" • TechCrunch
Une image de caméra de personnes avec des informations de reconnaissance faciale au-dessus
La reconnaissance faciale de masse pour classifier les personnes doit être interdite dans l’UEImage : David Mcnew/AFP/Getty Images

Seulement avec approbation

Les programmes d’IA qui présentent un risque élevé sont soumis à un examen avant d’être approuvés pour la commercialisation afin d’éviter tout impact sur les droits fondamentaux. Ces applications risquées incluent les voitures autonomes, la technologie médicale, l’approvisionnement en énergie, l’aviation et les jouets. Mais ils incluent également la surveillance des frontières, le contrôle des migrations, le travail de la police, la gestion du personnel dans les entreprises ou l’enregistrement de données biométriques sur les cartes d’identité. Les programmes conçus pour aider à interpréter et à appliquer la législation européenne sur l’IA sont également considérés comme à haut risque et devraient être réglementés.

Transparence requise

Selon le législateur européen, les systèmes qui génèrent de nouveaux contenus et évaluent d’énormes quantités de données, appelés IA génératives, comme ChatGPT de la filiale Microsoft OpenAI, présentent un risque moyen. Les fabricants devraient être obligés de rendre transparent le fonctionnement de l’IA et la manière dont elle l’empêche de générer du contenu illégal. Il convient de divulguer comment l’IA a été formée et quelles données protégées par le droit d’auteur ont été utilisées. Tout le contenu généré avec ChatGPT, par exemple, doit être étiqueté.

Uniquement de petites éditions

Selon les nouvelles règles de l’UE, le risque est faible lors de l’utilisation de programmes qui manipulent et recréent des vidéos, des audios ou des photos. Cela inclut également ce que l’on appelle les « deep fakes », qui sont déjà une pratique courante sur de nombreux réseaux sociaux. Les programmes de service qui soutiennent les clients appartiennent également à cette classe de risque. Seules des règles minimales de transparence sont fournies ici. Les utilisateurs doivent être conscients qu’il s’agit d’une application d’IA et qu’ils ne communiquent pas avec des humains. Vous pouvez alors décider vous-même si vous souhaitez continuer à utiliser le programme AI ou non.

Lire aussi  Port du voile : ces clubs de foot qui refusent les règles de la FFF « tant que ça ne crée pas de problème »
Deux poupées en gros plan
Les jouets qui observent les enfants et tentent de les contrôler ne sont pas autorisésImage : Dirk Shadd/ZUMA/photo alliance

A quand la nouvelle loi ?

Outre le vote au Parlement, la loi doit encore être formellement approuvée par les États membres. Ceci est attendu ce printemps. La majorité de la loi ne devient applicable que deux ans après son entrée en vigueur officielle. Certaines réglementations prévoient des délais plus courts. Les interdictions prévues par la loi devraient commencer à prendre effet au bout de six mois environ.

L’intelligence artificielle à la conquête des voitures

Pour visionner cette vidéo, veuillez activer JavaScript et envisager de passer à un navigateur Web qui prend en charge la vidéo HTML5

Quelles sont les réactions ?

La loi a reçu une large approbation au Parlement européen. Au final, 523 des 705 parlementaires européens ont voté pour la loi. Néanmoins, les réactions au sein du Parlement sont également mitigées.

Alors que le député vert Sergueï Lagodinksy décrit la loi comme un « bond quantique vers une réglementation éthique et durable de l’IA », la députée de gauche Cornelia Ernst a également des critiques. Elle regrette notamment que le Parlement n’ait pas pu mettre en œuvre une interdiction générale de la reconnaissance faciale en temps réel. Cette décision a été “pratiquement annulée par une longue liste d’exceptions”, a expliqué Ernst dans un communiqué de presse.

Lire aussi  Les consultations d'un physicien médical avec des patients peuvent contribuer à réduire l'anxiété et à accroître la satisfaction à l'égard des soins radiologiques

Le député CDU Axel Voss doutait “que la loi sur l’IA soit vraiment adaptée pour réguler une technologie en constante évolution”. Le texte de la loi est extrêmement vague et le système d’application est trop complexe.

La loi a également été accueillie avec des sentiments mitigés dans le monde des affaires. L’association professionnelle de l’industrie allemande de l’information et des télécommunications Bitkom a expliqué avant le vote que la loi laissait encore de nombreuses questions sans réponse et a plaidé pour une mise en œuvre juridiquement sûre et favorable à l’innovation en Allemagne. L’accent doit être mis en particulier sur les opportunités offertes par l’IA, a expliqué le président de Bitkom, Ralf Wintergerst, sur le site Internet de l’association.

L’Association fédérale des organisations de consommateurs a accueilli favorablement en principe la loi sur l’IA, mais constate des lacunes dans la protection des consommateurs. Ramona Pop, membre du conseil d’administration, a appelé les législateurs allemands à donner la priorité aux intérêts des consommateurs lors du contrôle des systèmes d’IA et de l’application des règles.

L’article est basé sur une version antérieure et a été mis à jour le 13 mars.



#Nouvelles #règles #pour #lintelligence #artificielle #mars
1710381532

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT