Home » Sciences et technologies » L’IA devant les tribunaux : contestations judiciaires

L’IA devant les tribunaux : contestations judiciaires

by Nouvelles
L’IA devant les tribunaux : contestations judiciaires

2024-03-18 11:33:45

Temps de lecture env. 5 minutes

Getty Imagesl’une des plus grandes agences de photos au monde, poursuivie en justice en 2023 IA de stabilité, la société à l’origine de la diffusion générative AI Stable, pour utilisation abusive présumée d’images protégées. Cette affaire très médiatisée a non seulement provoqué une incertitude dans le domaine juridique relatif à l’IA, mais a également mis en évidence un vide juridique pour lequel il n’existe toujours pas de réglementation concrète au niveau européen.

La diffusion croissante de l’intelligence artificielle (IA), de l’Internet des objets (IoT) et du Big Data entraîne non seulement des innovations, mais également de nombreuses questions juridiques. La présentation complète de Timo Schutt sur les exigences juridiques pour l’IA, l’IoT et le Big Data a mis en évidence les défis et les attentes concernant les conséquences juridiques de ces technologies.

Responsabilité et droit d’auteur dans le secteur de l’IA

Les systèmes d’IA tels que ChatGPT et les algorithmes de génération d’images sont non seulement sous le feu des projecteurs, mais également au centre de litiges juridiques. Des problèmes tels qu’une formation défectueuse de l’IA (IA discriminatoire), la génération de fausses nouvelles et la violation du droit d’auteur soulèvent la question suivante : qui est responsable des actions de l’IA ? Qui en est responsable ?

Le système de responsabilité allemand, basé sur les fautes individuelles et les dommages évidents, atteint ici ses limites. La responsabilité des personnes derrière l’IA et l’éventuelle lacune en matière de responsabilité dans les systèmes d’IA agissant de manière autonome sont des questions juridiquement complexes. En outre, des poursuites judiciaires comme celle intentée par le New York Times en 2023 se produisent quotidiennement concernant l’utilisation de leurs articles et rapports pour former des chatbots basés sur l’IA.

Considérer l’IA comme une machine à violer le droit d’auteur soulève d’autres nuances juridiques. Même si la formation à l’IA est généralement autorisée par la loi allemande sur le droit d’auteur, la question de la paternité des contenus générés par l’IA reste ouverte. Actuellement, la loi ne protège que les créations humaines, mais les futures réglementations sur l’IA pourraient introduire des lignes directrices pour l’étiquetage des œuvres générées par l’IA.

Protection et sécurité des données dans le monde de l’IA

Dans le monde de l’intelligence artificielle (IA), la protection des données est cruciale, en particulier lorsqu’il s’agit de modèles avancés comme ChatGPT, qui sont formés sur d’énormes quantités de données. La confidentialité dès la conception et par défaut devrait être la base de tout développement d’IA, avec des limites de stockage claires et une minimisation cohérente des données personnelles. Les entreprises doivent s’assurer que le traitement des données repose sur une base juridique solide, que ce soit par le biais de contrats ou d’un consentement exprès.

Le traitement des données personnelles est soumis à des exigences strictes, notamment une interdiction générale de toute prise de décision automatisée ayant un effet juridique sans autorisation contractuelle claire ou consentement exprès. Les violations des directives en matière de protection des données peuvent entraîner des sanctions drastiques, notamment des amendes pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial, le montant le plus élevé étant retenu. Les entreprises doivent être conscientes qu’il existe également un risque de dommages matériels et immatériels de la part des personnes concernées. Une analyse d’impact sur la protection des données est obligatoire pour garantir que l’utilisation de l’IA répond aux normes les plus élevées en matière de protection des données. Dans cet environnement complexe, une compréhension approfondie et le respect de directives strictes en matière de protection des données sont essentiels.

Les défis de l’IoT et du Big Data

La mise en réseau via l’IoT et le traitement du Big Data posent d’autres défis : la loi sur la protection des données dans les télécommunications et les télémédias (TTDSG) fixe des règles claires pour l’accès aux appareils en réseau. Les évaluations d’impact sur la protection des données deviennent de plus en plus importantes dans ce contexte, notamment à la lumière d’actions et de décisions opaques telles que celles qui se produisent avec les assistants vocaux tels qu’Alexa.

Réglementation de l’IA : réglementation et approche basée sur les risques

La proposition de règlement sur l’IA a été présentée en avril 2021. Après des négociations intensives entre la Commission européenne, le Parlement européen et le Conseil européen, un accord a été conclu lors du trilogue en décembre 2023. Le Conseil l’a adopté en février 2024, mais le texte final n’a pas encore été officiellement publié. Cependant, un document de travail divulgué fin janvier 2024 donne un aperçu.

Le règlement devrait entrer en vigueur à partir de mai 2026 et repose sur une approche basée sur les risques comportant quatre catégories.

  • Les systèmes d’IA qui présentent des risques inacceptables, tels que les systèmes de notation sociale ou ceux qui exploitent les faiblesses et vulnérabilités humaines, seront interdits.
  • Les systèmes d’IA à haut risque, notamment l’identification biométrique, les composants d’infrastructures critiques et la tarification basée sur le risque dans le domaine de l’assurance, sont soumis à des réglementations strictes.
  • Les systèmes d’IA conçus pour interagir avec des personnes physiques sont soumis à un risque limité.
  • Et ceux qui présentent un risque minime ou nul ne relèvent pas du champ d’application du règlement.

La Commission européenne se réserve le droit d’élargir la liste des systèmes d’IA à haut risque.

Directives supplémentaires

  • Directive européenne sur la responsabilité de l’IA (en cours)

Cette directive établit des règles claires de responsabilité pour les dommages causés par les systèmes d’IA afin de définir les responsabilités des fabricants et des opérateurs et de renforcer la protection des consommateurs (discrimination, protection des données, etc.).

  • Directive européenne sur la responsabilité du fait des produits (en cours)

Celui-ci définit la responsabilité des fabricants pour les produits défectueux, y compris les produits contrôlés par l’IA, afin de fournir aux consommateurs des droits légaux clairs à compensation.

  • Loi européenne sur la gouvernance des données (règlement applicable à partir de 2023)

Renforce le contrôle et l’échange sécurisé des données, crée un cadre juridique pour les intermédiaires de données et promeut un accès transparent aux données pour promouvoir l’innovation et la protection des données.

  • EU Data Act (règlement européen applicable à partir de 2025)

Facilite la libre circulation des données dans l’UE, établit des règles uniformes pour l’utilisation des données, renforce la protection des données et crée la confiance grâce à des réglementations claires pour le traitement des données des consommateurs.

Lignes directrices sur l’IA pour les entreprises

  • Transparence et explicabilité

Établissez des directives claires sur la divulgation des sources de données et sur la manière dont les algorithmes d’IA fonctionnent pour promouvoir la transparence et la confiance.

  • Confidentialité et sécurité

Donnez la priorité aux mesures de protection des données pour garantir que les données collectées sont protégées et qu’il n’y a aucune discrimination de la part des algorithmes d’IA.

  • Éthique et responsabilité sociale

Mettre l’accent sur les principes éthiques dans le développement des technologies d’IA pour éviter la discrimination et garantir la responsabilité sociale.

  • Formation et sensibilisation interne

Veiller à ce que les employés reçoivent une formation appropriée pour comprendre les directives éthiques et sensibiliser aux questions éthiques liées à l’IA.

  • Mécanismes de feedback et amélioration continue

Mettez en œuvre des mécanismes d’examen continu, exploitez les commentaires des utilisateurs et identifiez les opportunités d’amélioration des systèmes d’IA.

Le 13 mars 2024, le Parlement européen a adopté la première loi sur l’IA.

Télécharger l’infographie

Le contenu de cet article de connaissances provient d’un discours d’ouverture dans le cadre de la table ronde sur les exigences légales pour l’IA, l’Internet des objets et le Big Data, prononcé par Timo Schutt, avocat et spécialiste du droit informatique à Karlsruhe.



#LIA #devant #les #tribunaux #contestations #judiciaires
1710837257

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.