Huit clés pour comprendre la première loi de l’intelligence artificielle

Huit clés pour comprendre la première loi de l’intelligence artificielle

2023-12-09 21:09:46

L’Union européenne est parvenue à un accord pour mener à bien son ambitieux Loi sur l’intelligence artificielle (IA). Après trois jours de négociations longues et âpres, le Parlement et le Conseil sont parvenus, samedi aux coups de minuit, à empêcher le report du règlement à 2024. Le règlement est pionnier au niveau mondial, tant par son extension que par son approche. , basé sur le risque.

Il aspire à devenir un exemple pour le reste des territoires qui étudient actuellement comment maîtriser la plus grande révolution technologique que le monde ait connue depuis l’arrivée d’Internet. Un outil qui a déjà un effet important dans le présent et qui, dans un avenir proche, promet de transformer complètement la vie des citoyens. “Je pense que c’est un jour historique”, a déclaré Thierry Breton, commissaire européen chargé du Commerce et l’une des figures clés des négociations avec l’Espagnole Carme Artigas.

L’initiative a également pu se concrétiser grâce à la pression de la présidence espagnole. Le gouvernement espagnol a eu deux sourcils pour mettre en œuvre cette réglementation pendant sa présidence au sein de l’UE. Carme Artigas, secrétaire d’État chargée de la numérisation et de l’intelligence artificielle, a été chargée de diriger les négociations entre le Parlement et le Conseil. “L’accord parvient à maintenir un équilibre extrêmement délicat : promouvoir l’innovation et l’adoption de l’intelligence artificielle dans toute l’Europe, dans le plein respect des droits fondamentaux de nos citoyens”, a-t-il évalué le lendemain dans un communiqué.

Qu’a décidé l’Europe ? Y aura-t-il des amendes ?

Depuis le premier projet de loi, présenté par le Parlement au printemps 2021, l’UE préconise de réglementer les utilisations possibles de la technologie en fonction de son danger potentiel, et non de la technologie elle-même. Une approche largement saluée par les universitaires et les scientifiques. «C’est le meilleur qu’on puisse prendre. Par exemple, cela n’a pas de sens de réglementer un couteau en tant que tel, mais plutôt les mauvais usages qui peuvent en être faits”, explique Juan Bernabé-Moreno, directeur de la division de recherche en IA d’IBM en Europe, à ABC. La violation de la loi entraîne des amendes pouvant aller jusqu’à 7 % du chiffre d’affaires annuel des sociétés de développement.

Quelle est l’échelle de risque que vous établissez ?

L’UE a divisé les utilisations de l’IA en quatre groupes différents. Les systèmes d’IA présentant un risque inacceptable sont totalement interdits. Les systèmes d’IA à haut risque, appliqués par exemple aux transports ou à l’accès à l’éducation ou à un emploi, doivent répondre à une série d’exigences et d’obligations pour pouvoir fonctionner sur le sol communautaire. Troisièmement, les systèmes à risque limité doivent simplement se conformer aux obligations de transparence. Par exemple, un outil d’intelligence artificielle générative devra marquer que ses résultats ont été créés par une machine. Il existe enfin des systèmes considérés comme présentant peu ou pas de risque, comme les jeux vidéo, qui ne seront soumis à aucune obligation.

Quelles utilisations sont interdites ?

Des systèmes pouvant être utilisés pour manipuler le comportement des gens, des solutions de notation sociale basées sur les croyances ou l’origine ethnique, des outils de reconnaissance des émotions sur le lieu de travail et dans l’éducation et, dans certains cas, une police prédictive.

Pourquoi a-t-il été si difficile d’approuver la réglementation européenne ?

Lorsque le Parlement a donné son feu vert pour entamer les négociations sur le règlement avec le Conseil au milieu de cette année, il l’a fait alors qu’il était complètement divisé sur l’interdiction totale de l’utilisation de la technologie de reconnaissance faciale par les autorités répressives. Si certains parlementaires préconisaient de laisser une marge à son utilisation dans des cas très précis, d’autres ont choisi d’y opposer leur veto de manière générale, estimant que la vie privée des citoyens devait primer sur la sécurité. La régulation de l’IA générative, c’est-à-dire des outils comme le chatbot ChatGPT, a également été un point de désaccord.

La reconnaissance faciale sera-t-elle autorisée ?

Enfin, l’UE a choisi d’autoriser l’utilisation de la reconnaissance faciale dans les espaces publics par les autorités policières. Désormais, toujours sous autorisation judiciaire et pour des cas très précis, comme la lutte contre le terrorisme ou la recherche de suspects d’avoir commis un crime grave.

Comment cela affectera-t-il ChatGPT ?

L’intelligence artificielle générative, capable de générer du texte, des images ou des vidéos à la demande, doit être transparente sur son fonctionnement. Vous devrez marquer vos résultats pour que l’on sache qu’ils proviennent d’une machine, et les entreprises derrière eux devront partager des informations sur le processus de formation et sur l’utilisation de données protégées par le droit d’auteur. L’UE a également annoncé la création d’un nouvel AI Office qui sera chargé de superviser le fonctionnement de ce type de solutions.

Quand sera-t-il efficace ?

Si tout va bien, la réglementation devrait entrer en vigueur d’ici deux ans. Elle ne serait effective qu’en 2026. Trop de temps, compte tenu du développement rapide de l’intelligence artificielle. “Lorsque nous parviendrons à ce règlement, il sera trop tard et les grandes entreprises auront fait en sorte que leurs technologies soient devenues un standard de facto”, déplore Ulises Cortés, professeur d’IA à l’Université Polytechnique de Catalogne.

En quoi la réglementation européenne est-elle différente des réglementations des autres pays ?

La législation européenne vise à contrôler toutes les utilisations de la technologie. Pendant ce temps, les États-Unis ont publié un décret beaucoup plus limité, exigeant que les développeurs signalent leurs versions au gouvernement et prouvent qu’ils sont sûrs. Il s’agit essentiellement d’une première étape vers l’arrivée future de réglementations plus larges. De son côté, la Chine a réglementé cet été l’IA générative, dont le fonctionnement sera contrôlé par l’État chinois.

Claudio Novelli, chercheur postdoctoral au Département d’études juridiques de l’Université de Bologne (Italie), estime également que ce n’est qu’un début. “Il reste encore de nombreux détails à finaliser, comme le rôle du Bureau de l’Intelligence Artificielle et sa collaboration avec les autorités nationales”, explique-t-il dans des déclarations au SMC. Selon lui, une autre étape cruciale consistera à voir comment ceux qui mettent en œuvre la loi évalueront l’impact de leurs systèmes d’IA sur les droits fondamentaux. «Les 24 prochains mois seront cruciaux. «Ils détermineront si l’UE a réellement atteint son objectif de devenir leader en matière de réglementation de l’IA, établissant ainsi une référence mondiale en matière de gouvernance responsable et innovante de l’IA.»



#Huit #clés #pour #comprendre #première #loi #lintelligence #artificielle
1702157759

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.