La loi de l’UE sur l’IA est entrée en vigueur le 1er août 2024 et la plupart de ses dispositions s’appliqueront après une période de mise en œuvre de deux ans (c’est-à-dire à partir d’août 2026), période pendant laquelle diverses législations, normes et orientations supplémentaires seront publiées pour aider les organisations dans leurs efforts de conformité. . Une exception importante est l’interdiction des systèmes d’IA interdits, énoncée à l’article 5, qui entre en vigueur le 2 février 2025.
L’article 5 est indépendant de l’opérateur et (contrairement à d’autres exigences de la loi sur l’IA), il ne change pas en fonction du rôle ou de l’identité de l’opérateur. Elle s’applique donc, entre autres, à la mise sur le marché, à la mise en service ou à l’utilisation :
- Systèmes d’IA pour notation sociale par des acteurs publics et privés, et pas seulement par ou pour le compte des autorités publiques comme initialement envisagé.
- Des systèmes d’IA pour déduire des émotions dans les domaines du travail et des établissements d’enseignement.
- Des systèmes d’IA qui créer ou étendre des bases de données de reconnaissance faciale grâce à la récupération non ciblée d’images faciales provenant d’Internet ou de séquences de vidéosurveillance.
- Les systèmes d’IA liés à l’évaluation ou prédire le risque qu’une personne physique commette une infraction pénalebasée uniquement sur le profilage ou l’évaluation des traits et caractéristiques de la personnalité.
- Des systèmes de catégorisation biométrique qui catégoriser individuellement les personnes physiques en fonction de leur données biométriques pour déduire ou déduire la race, les opinions politiques, l’appartenance syndicale, les croyances religieuses ou philosophiques, la vie sexuelle ou l’orientation sexuelle.
D’autres pratiques interdites concernent le déploiement de techniques subliminales, manipulatrices ou trompeuses ; l’exploitation des vulnérabilités dues à l’âge, au handicap ou à une situation sociale ou économique spécifique ; et l’utilisation de systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins d’application de la loi.
Les pratiques interdites sont considérées comme présentant des risques intolérables pour les valeurs fondamentales en raison de leurs impacts négatifs potentiels. Certains d’entre eux comportent des exceptions étroites où l’utilisation de tels systèmes d’IA est considérée comme essentielle pour protéger un intérêt public important qui l’emporte sur les risques potentiels encourus (par exemple, les systèmes d’identification biométrique à distance en temps réel dans les espaces accessibles au public pour les forces de l’ordre sont autorisés dans certains pays). circonstances).
Une violation de l’article 5 peut entraîner une amende pouvant aller jusqu’à 35 000 000 EUR ou 7 % du chiffre d’affaires annuel global, le montant le plus élevé étant fixé.
Il existe un défi de conformité pour les fournisseurs de services de plateforme qui développent et proposent des technologies d’IA à usage général (par exemple, Google Cloud AI AutoML, Microsoft Azure Machine Learning, TensorFlow et Amazon SageMaker) qui ont une variété d’applications possibles. S’il est en pratique peu probable que la plupart des utilisations par leurs clients relèvent du régime des pratiques interdites en matière d’IA, il existe un risque de non-conformité de la part d’une minorité de clients. Il peut être difficile pour les fournisseurs de calibrer les technologies à usage général afin de restreindre les utilisations interdites sans également limiter les scénarios légitimes pour lesquels les technologies à usage général doivent être utilisées. De nombreux fournisseurs élaborent judicieusement des codes de conduite qui contribuent à faciliter la conformité des clients et démontrent une approche responsable envers les régulateurs et mettent à jour leurs contrats clients afin que les clients comprennent clairement qu’ils ne peuvent pas se livrer à des pratiques interdites en matière d’IA.
En novembre 2024, l’AI Office a invité les entreprises qui fournissent ou déploient des systèmes d’IA, ainsi qu’un éventail d’autres parties prenantes, à répondre à des questions relatives aux pratiques interdites établies (y compris lorsque des éclaircissements supplémentaires et des exemples sont nécessaires pour savoir si un système d’IA est en la portée de l’interdiction ou non). À partir des réponses, l’AI Office élaborera des lignes directrices destinées à aider les fournisseurs et les déployeurs à se conformer. Les lignes directrices devraient être adoptées « début 2025 ». Nous espérons qu’ils seront publiés avant le 2 février 2025, alors surveillez cet espace pour une mise à jour.
#Êtesvous #prêt #pour #février #linterdiction #des #systèmes #dIA #interdits #entre #vigueur