2024-06-03 20:46:23
3 juin 2024
Cliquez pour le PDF
Le Conseil de l’Europe a adopté le premier traité international sur l’intelligence artificielle.
Le 17 mai 2024, le Conseil de l’Europe a adopté le tout premier traité international juridiquement contraignant sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit (Convention).[1]. Contrairement au prochain projet de loi européenne sur l’IA[2], qui ne s’appliquera que dans les États membres de l’UE, la Convention est un traité international, potentiellement mondial, auquel participent diverses parties prenantes, dont les États-Unis. L’objectif ultime de la Convention est d’établir une norme minimale mondiale pour protéger les droits de l’homme contre les risques posés par l’intelligence artificielle (IA). Les principes fondamentaux sous-jacents et les principales obligations sont très similaires à ceux de la loi de l’UE sur l’IA, y compris une approche basée sur les risques et des obligations prenant en compte l’ensemble du cycle de vie d’un système d’IA. Cependant, alors que la loi de l’UE sur l’IA englobe des réglementations complètes sur le développement, le déploiement et l’utilisation de systèmes d’IA au sein du marché intérieur de l’UE, la Convention sur l’IA se concentre principalement sur la protection des droits humains universels des personnes affectées par les systèmes d’IA. Il est important de noter que la Convention, en tant que traité international, n’impose pas d’exigences de conformité immédiates ; il sert plutôt de cadre politique qui indique l’orientation des futures réglementations et vise à aligner les procédures au niveau international.
La Convention a été élaborée par le Comité sur l’intelligence artificielle (CAI), un organisme intergouvernemental réunissant les 46 Etats membres du Conseil de l’Europe, l’Union européenne et 11 Etats non membres (à savoir l’Argentine, l’Australie, le Canada, le Costa Rica). , le Saint-Siège, Israël, le Japon, le Mexique, le Pérou, les États-Unis d’Amérique et l’Uruguay) ainsi que des représentants du secteur privé, de la société civile et du monde universitaire. Il a été démontré qu’une telle participation multipartite favorise l’acceptation d’efforts réglementaires similaires. L’accent principal est mis sur la protection des droits de l’homme, de la démocratie et de l’État de droit, principes directeurs fondamentaux du Conseil de l’Europe, en établissant des normes minimales communes pour les systèmes d’IA au niveau mondial.
La Convention est conforme à la définition actualisée de l’IA de l’OCDE, qui donne une définition large d’un « système d’intelligence artificielle » comme « un système basé sur une machine qui, pour des objectifs explicites ou implicites, déduit des informations qu’il reçoit comment générer des résultats tels que sous forme de prédictions, de contenus, de recommandations ou de décisions susceptibles d’influencer les environnements physiques ou virtuels. Les définitions des systèmes d’IA de l’EU AI Act, de la définition mise à jour de l’OCDE et du décret américain (US EO) 14110 sont généralement alignées car elles mettent toutes l’accent sur les systèmes basés sur des machines capables de faire des prédictions, des recommandations ou des décisions qui ont un impact sur les environnements physiques ou virtuels, avec différents niveaux d’autonomie et d’adaptabilité. Cependant, les définitions de l’UE et de l’OCDE mettent en avant l’adaptabilité post-déploiement, tandis que l’EO américaine se concentre davantage sur le processus de perception des environnements, d’abstraction des perceptions dans des modèles et d’utilisation de l’inférence pour la prise de décision.
Il convient de noter l’accent mis sur l’ensemble du cycle de vie des systèmes d’IA (similaire à la loi européenne sur l’IA). La Convention vise principalement à réglementer les activités des autorités publiques – y compris les entreprises agissant en leur nom. Cependant, les parties à la Convention doivent également faire face aux risques découlant de l’utilisation de systèmes d’IA par des entreprises privées, soit en appliquant les mêmes principes, soit par « d’autres mesures appropriées », qui ne sont pas précisées. La Convention contient également des exceptions, similaires à celles prévues par la loi de l’UE sur l’IA. Son champ d’application exclut :
- les activités au cours du cycle de vie des systèmes d’IA liées à la protection des intérêts de sécurité nationale, quel que soit le type d’entités exerçant les activités correspondantes ;
- toutes les activités de recherche et de développement concernant les systèmes d’IA qui ne sont pas encore disponibles ; et
- questions liées à la défense nationale.
La Convention est fondée sur des principes et, par conséquent, de par sa nature, elle est formulée sous la forme d’engagements de haut niveau et de termes illimités. Il contient plusieurs principes et obligations obligeant les parties à prendre des mesures pour garantir la protection des droits de l’homme, l’intégrité des processus démocratiques et le respect de l’État de droit. Ces obligations fondamentales sont familières car elles constituent également la base de la loi européenne sur l’IA. Les principales obligations comprennent :
- des mesures visant à protéger la capacité de l’individu à former librement ses opinions ;
- des mesures garantissant des exigences adéquates en matière de transparence et de surveillance, notamment en ce qui concerne l’identification des contenus générés par les systèmes d’IA ;
- des mesures garantissant la responsabilisation et la responsabilité en cas d’impacts négatifs ;
- des mesures visant à favoriser l’égalité et la non-discrimination dans l’utilisation des systèmes d’IA, y compris l’égalité des sexes ;
- la protection du droit à la vie privée des individus et de leurs données personnelles ;
- pour favoriser l’innovation, les parties sont également tenues de permettre la création d’environnements contrôlés pour le développement et les tests de systèmes d’IA.
Deux autres éléments clés de la Convention sont que chaque partie doit avoir la capacité d’interdire certains systèmes d’IA incompatibles avec les principes fondamentaux de la Convention et de fournir des recours accessibles et efficaces en cas de violations des droits de l’homme. Les exemples donnés dans la Convention soulignent que les questions d’actualité ont été incluses, par exemple., L’ingérence électorale semble être l’un des risques évoqués.
La Convention a été critiquée par les organisations de la société civile[3] et le Contrôleur européen de la protection des données[4]. Les principales critiques sont les suivantes :
- Exceptions générales : La Convention comprend des exceptions pour la sécurité nationale, la recherche et le développement et la défense nationale. Les critiques soutiennent que ces failles pourraient compromettre les garanties essentielles et conduire à une expérimentation incontrôlée de l’IA et à son utilisation dans des applications militaires sans surveillance. Des critiques similaires ont été formulées à l’encontre de la loi européenne sur l’IA.
- Dispositions vagues et réglementation du secteur privé : Les principes et obligations de la Convention sont considérés comme trop généraux, manquant de critères spécifiques pour leur application. Les critiques soulignent l’absence d’interdiction explicite des applications d’IA à haut risque, telles que les armes autonomes et la surveillance de masse. De plus, la Convention exige de traiter les risques des entreprises privées mais ne précise pas les mesures, ce qui suscite des inquiétudes quant à une réglementation incohérente.
- Application et responsabilité : La Convention impose des rapports de conformité, mais manque d’un mécanisme d’application solide. Les critiques soutiennent que sans une application stricte et une responsabilisation stricte, l’impact de la Convention sera limité. Des préoccupations existent également quant à l’adéquation des recours en cas de violations des droits de l’homme par les systèmes d’IA, en raison du flou des directives de mise en œuvre.
Les parties à la Convention doivent prendre des mesures pour une mise en œuvre suffisante. Afin de tenir compte des différents systèmes juridiques, chaque partie peut choisir d’être directement liée par la disposition pertinente de la Convention ou de prendre des mesures pour se conformer aux dispositions de la Convention. Dans l’ensemble, la Convention ne prévoit qu’une norme minimale commune de protection ; les partis sont libres d’adopter des réglementations plus étendues. Pour garantir le respect de la Convention, chaque partie doit faire rapport à la Conférence des Parties dans les deux ans suivant son adhésion et périodiquement par la suite sur les activités qu’elle a entreprises.
La prochaine étape consiste pour les États à signer la déclaration d’adhésion. La Convention sera ouverte à la signature le 5 septembre 2024. Il est prévu, bien que cela ne soit pas certain, que les États membres du Conseil de l’Europe et les 11 autres États (y compris les États-Unis) qui ont contribué au projet de convention en deviendront parties.
Dans l’UE, la Convention complétera la loi de l’UE sur l’IA en partageant l’approche basée sur les risques et des principes fondamentaux similaires. Compte tenu de la formulation très générale des dispositions de la Convention et des larges exceptions à son champ d’application, il semble que la loi européenne sur l’IA, adoptée le 21 mai, reste l’ensemble de normes le plus complet et le plus prescriptif dans le domaine de l’IA, du moins dans l’UE. Toutefois, étant donné que la Convention constituera le fondement de la réglementation de l’IA au Conseil de l’Europe, il faut s’attendre à ce que la Cour européenne des droits de l’homme (Cour EDH) s’inspirera à l’avenir de la Convention pour interpréter la Convention européenne des droits de l’homme (CEDH).Cela pourrait avoir des effets de fertilisation croisée importants pour le droit de l’UE en matière de droits fondamentaux, y compris dans la mise en œuvre de la loi de l’UE sur l’IA, dans la mesure où la CEDH constitue la norme minimale de protection au titre de l’article 52, paragraphe 3, de la Charte des droits fondamentaux de l’Union européenne. Syndicat (Charte). Les États et les entreprises privées devront donc être conscients des effets potentiels de chevauchement de la Convention et de la loi de l’UE sur l’IA.
__________
[1] Voir le communiqué de presse ici. Voir le texte intégral de la Convention ici.
[2] Le 21 mai 2024, le Conseil de l’Union européenne a finalement adopté le règlement sur l’IA (AI Act). Pour plus de détails sur la loi européenne sur l’IA, veuillez également consulter :
[3] Voir https://ecnl.org/sites/default/files/2024-03/CSOs_CoE_Calls_2501.docx.pdf.
[4] Voir https://www.edps.europa.eu/press-publications/press-news/press-releases/2024/edps-statement-view-10th-and-last-plenary-meeting-committee-artificial-intelligence-cai- conseil-europe-drafting-framework-convention-artificial_fr#_ftnref2.
Les avocats de Gibson Dunn sont disponibles pour vous aider à répondre à toutes vos questions concernant ces problèmes. Veuillez contacter l’avocat de Gibson Dunn avec lequel vous travaillez habituellement, les auteurs ou tout dirigeant ou membre des groupes de pratique Intelligence artificielle, Confidentialité, Cybersécurité et innovation des données ou Environnement, social et gouvernance (ESG) du cabinet :
Intelligence artificielle:
Cassandra L. Gaedt-Sheckter – Palo Alto (+1 650.849.5203, [email protected])
Vivek Mohan – Palo Alto (+1 650.849.5345, [email protected])
Robert Spano – Londres/Paris (+44 20 7071 4902, [email protected])
Eric D. Vandevelde – Los Angeles (+1 213.229.7186, [email protected])
Confidentialité, cybersécurité et innovation en matière de données:
Ahmed Baladi – Paris (+33 (0) 1 56 43 13 00, [email protected])
S. Ashlie Beringer – Palo Alto (+1 650.849.5327, [email protected])
Kai Gesing – Munich (+49 89 189 33 180, [email protected])
Joel Harrison – Londres (+44 20 7071 4289, [email protected])
Jane C. Horvath – Washington, DC (+1 202.955.8505, [email protected])
Rosemarie T. Ring – San Francisco (+1 415.393.8247, [email protected])
Environnemental, Social et Gouvernance (ESG):
Susy Bullock – Londres (+44 20 7071 4283, [email protected])
Elizabeth Ising – Washington, DC (+1 202.955.8287, [email protected])
Perlette M. Jura – Los Angeles (+1 213.229.7121, [email protected])
Ronald Kirk – Dallas (+1 214.698.3295, [email protected])
Michael K. Murphy – Washington, DC (+1 202.955.8238, [email protected])
Selina S. Sagayam – Londres (+442070714263, [email protected])
© 2024 Gibson, Dunn & Crutcher LLP. Tous droits réservés. Pour nous contacter et autres informations, veuillez nous rendre visite sur www.gibsondunn.com.
Publicité des avocats : ces documents ont été préparés à des fins d’information générale uniquement sur la base des informations disponibles au moment de la publication et ne sont pas destinés à constituer, ne constituent pas et ne doivent pas être considérés comme des conseils juridiques ou un avis juridique sur des faits ou des faits spécifiques. circonstances. Gibson Dunn (et ses sociétés affiliées, avocats et employés) ne pourront être tenus responsables de toute utilisation de ces documents. Le partage de ces documents n’établit pas de relation avocat-client avec le destinataire et ne doit pas être considéré comme une alternative aux conseils d’un avocat qualifié. Veuillez noter que les faits et les circonstances peuvent varier et que les résultats antérieurs ne garantissent pas un résultat similaire.
#Conventioncadre #Conseil #lEurope #sur #lintelligence #artificielle #les #droits #lhomme #démocratie #lÉtat #droit
1717484072