2024-01-30 10:00:00
Le garant italien de la confidentialité a confirmé que ChatGPT viole les règles de confidentialité et d’utilisation des données personnelles. L’annonce a été publiée sur la page officielle du garant et reprise par l’agence de presse Reuters. La réponse a été publiée après la conclusion des contrôles effectués sur ChatGPT par le Garant, qui ont débuté en mars 2023. Cependant, à ce jour, le Garant n’a publié aucun document officiel à cet égard, donc aucun autre détail sur les violations n’est connu contester un ChatGPT.
ChatGPT viole les politiques de confidentialité
Le Garant de la confidentialité a indiqué dans un communiqué que les résultats de ses enquêtes confirment que l’application ChatGPT viole la réglementation européenne en matière de confidentialité, notamment en matière de traitement des données personnelles. ChatGPT est une plateforme basée sur l’intelligence artificielle (IA), capable de générer des textes complexes, de répondre à des questions, de développer des codes de programmation et d’exécuter diverses autres fonctions. L’application est développée par la société américaine OpenIA, qui fait partie du groupe Microsoft. Le Garant, en référence à la demande, a indiqué sur son site officiel que :
« Suite à la disposition de limitation temporaire du traitement, adoptée par le Garant à l’égard de la Société le 30 mars dernier, et suite aux résultats de l’enquête menée, l’Autorité a considéré que les éléments acquis pourraient constituer une ou plusieurs infractions par rapport à ce qui est établi par le règlement de l’UE.
La déclaration souligne que les enquêtes sur d’éventuelles violations des règles européennes en matière de confidentialité ont débuté entre mars et avril 2023après que le Garant ait mis en œuvre une disposition limitant temporairement l’utilisation de ChatGPT en Italie, en raison de possibles violations de la protection des données privées des utilisateurs.
La lutte entre l’Italie et OpenIA continue
L’Italie a été le premier pays d’Europe occidentale à bloquer ChatGPT, la plateforme basée sur l’IA d’OpenIA, fin mars 2023. A cette occasion, le Garant de la Confidentialité avait temporairement limité l’utilisation de ChatGPTpuisqu’il a été constaté qu’en mars 2023 “l’application avait subi une perte de données (violation de données) concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant”.
Par ailleurs, le Garant avait souligné que la demande fondée était caractérisée par «manque d’information pour les utilisateurs et à toutes les parties intéressées dont les données sont collectées par OpenAI, mais surtout l’absence de base juridique justificative la collecte et le stockage massifs de données personnel, dans le but de « former » les algorithmes qui sous-tendent le fonctionnement de la plateforme », Après la mise à disposition, le Garant avait donné trente jours à OpenIA pour adapter les procédures de collecte de données de ChatGPT à la réglementation européenne. L’application est redevenue active fin avril 2023, après qu’OpenIA ait présenté les modifications. et l’adaptation demandée par le Garant.
Le blocage de mars 2023 a déclenché une enquête menée par le Garant, dans le but d’établir si et comment ChatGPT viole les lois sur la confidentialité adoptées dans l’Union européenne. Avec cette dernière réponse, le différend entre l’Italie et OpenIA se poursuit sur le thème de la protection des données personnelles dans les applications qui utilisent l’IA.
La réaction d’OpenIA
Dans la déclaration, qui affirme que ChatGPT viole les politiques de confidentialité, OpenIA dispose de 30 jours pour fournir le Assure Italien ses arguments de défense. Par ailleurs, le Garant précise qu’il prendra également en compte les évaluations et suggestions de la Task Force établie par le Comité européen de la protection des données (EDPB) pour évaluer la protection des données personnelles en relation avec l’utilisation de l’intelligence artificielle.
L’agence de presse Reuters demandé une réponse à ce sujet àsociété OpenIA, qui n’a encore publié aucune déclaration à ce jour.
Lois européennes sur la vie privée et l’intelligence artificielle
Le blocage de ChatGPT en mars 2023 a été ordonné par le Garant italien sur la base de la loi européenne pour la protection de la vie privée, appelée Règlement Général sur la Protection des Données (RGPD), en vigueur depuis 2018. Cette loi établit que toute entreprise responsable de violations des règles de protection de la vie privée peut être condamnée à une amende pouvant aller jusqu’à 4% de son chiffre d’affaires total.
En décembre 2023, Les pays de l’Union européenne sont parvenus à un accord sur une nouvelle législation visant à réglementer l’application et le développement de l’intelligence artificielle, qui définit les règles et limites d’utilisation de cette nouvelle technologie. Cette législation devrait être approuvée début 2024, puis être appliquée à partir de 2026.
Diplômée en ingénierie, j’écris et étudie le journalisme. Je m’occupe de l’énergie, de la politique internationale, de l’innovation et de l’environnement.
#Selon #garant #italien #ChatGPT #viole #les #règles #confidentialité
1707130662