Loi sur l’IA : l’association allemande de l’IA critique le droit de l’UE

Loi sur l’IA : l’association allemande de l’IA critique le droit de l’UE

2023-06-16 17:07:56

Après des mois de vote, le Parlement européen a adopté cette semaine un ensemble de lois visant à réglementer les services d’IA tels que ChatGPT. L’Association allemande de l’IA critique le projet.

Cette semaine, le Parlement européen a voté une réglementation européenne de l’intelligence artificielle (image d’archive)
Getty Images/John Thys

Après environ 18 mois de négociations, le Parlement européen a adopté cette semaine le paquet législatif pour le règlement prévu sur l’intelligence artificielle. Le projet a été présenté par la Commission européenne. Le paquet législatif est en discussion depuis 2021 et vise à déterminer comment les entreprises technologiques et les startups en Europe devraient traiter les plateformes d’IA telles que le populaire chatbot ChatGPT d’OpenAI.

La loi a été saluée par beaucoup comme une étape majeure, mais elle a également fait l’objet de nombreuses critiques. Par exemple par Daniel Abbou, directeur général de l’AI Association, qui compte plus de 400 membres en Allemagne. “La loi IA peut freiner l’innovation européenne”, critique-t-il. Abbou est favorable à une réglementation générale de l’IA en Europe. Mais il pense également que la loi imposera une bureaucratie supplémentaire aux startups qui souhaitent concurrencer les grandes entreprises technologiques américaines.

Quatre niveaux de risque

Le cœur de la loi sur l’IA est une soi-disant “approche basée sur les risques”, dans laquelle chaque IA est divisée en quatre catégories différentes. Du risque élevé pour la société comme les véhicules autonomes, au risque minimal comme les jeux vidéo. Selon la catégorie à laquelle appartient un service ou un produit, les entreprises doivent se conformer à un certain nombre de réglementations en matière de transparence et de protection des données.

lire aussi

Pourquoi cette startup IA récemment lancée a-t-elle touché plus de 100 millions d’euros ?

La loi interdit également les outils de reconnaissance faciale dans les espaces publics et les systèmes biométriques capables de reconnaître des caractéristiques sensibles telles que le sexe, la couleur de la peau et l’origine ethnique. Cette année, le Parlement européen a également créé un cadre juridique pour les systèmes d’IA tels que ChatGPT : les contenus générés par une IA doivent désormais être identifiés comme tels. Et les données propriétaires utilisées pour former l’IA doivent également être prises en compte.

Sam Altman, PDG d’OpenAI, qui a un partenariat de plusieurs milliards de dollars avec Microsoft, a déclaré en mai que le pire scénario était que son entreprise pourrait faire faillite dans l’UE si elle ne pouvait pas se conformer à toutes les exigences réglementaires. Quelques jours plus tard, il se prononce en faveur d’une réglementation générale.

« Soyons réalistes : les entreprises américaines ont développé leurs modèles sans réglementation et avec beaucoup d’argent. Maintenant qu’ils ont ces modèles qui sont numéro un dans le monde, ils disent que nous avons besoin d’une réglementation », explique Abbou de l’AI Association. “La législation européenne sur l’intelligence artificielle risque d’augmenter encore plus leur part de marché.”

Les députés défendent le projet de loi

Les députés ne partageaient pas cette position. Ils ont adopté la loi européenne sur l’IA cette semaine avec un total de 499 voix pour, 28 contre et 93 abstentions. Selon Svenja Hahn, membre du Parlement européen, la législation aidera les PME et les startups à tester leurs services dans un environnement sûr, également appelé “bac à sable” parmi les programmeurs. “La loi IA doit renforcer les innovations au lieu de mettre des obstacles sur le chemin des développeurs et des utilisateurs”, a déclaré le parlementaire dans un communiqué. “Avec la position parlementaire, nous pouvons faire de l’UE un hotspot pour la recherche et l’innovation dans le domaine de l’intelligence artificielle.”

L’eurodéputé promet de réduire les obligations bureaucratiques que la loi IA impose aux PME et startups européennes. “Les grandes entreprises technologiques peuvent en gérer les coûts plus facilement que les petites entreprises européennes.” C’est pourquoi elle souhaite introduire une liste de contrôle pour une classification plus claire de “si une IA est à haut risque et quelles exigences suivent ensuite”, a-t-elle écrit dans un déclaration.

Daniel Abbou de l’association AI a également des choses positives à dire sur la législation. Par exemple, que les 27 pays de l’UE auront les mêmes règles du jeu, comme il l’appelle : “C’est un avantage, car même en Allemagne, il existe des réglementations différentes en matière de protection des données d’un État à l’autre”, dit-il.

L’association proposera néanmoins quelques correctifs pour éviter que les services européens d’IA ne soient ralentis par la législation. Par exemple, la définition de l’IA dans la proposition adoptée par le Parlement est “définitivement trop large” et devrait être révisée, a déclaré Abbou.

lire aussi

Les Allemands sont les meilleurs chercheurs en IA – mais pourquoi ne parvenons-nous pas à créer les meilleurs produits ?

Il voit également un besoin de discussion lorsqu’il s’agit d’évaluer quand quelque chose est considéré comme une application à haut risque : “Nous ne parlons pas de données biométriques, mais de toutes les données RH qui ne tombent pas automatiquement dans cette catégorie à haut risque”, dit-il. Abbou a déclaré qu’il avait toujours espoir qu’il pourrait encore y avoir des modifications à la loi sur l’IA.



#Loi #sur #lIA #lassociation #allemande #lIA #critique #droit #lUE
1686924947

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.