2024-12-22 12:16:00
Est-il possible de développer l’intelligence artificielle sans violer la vie privée ? La réponse, oui, vient d’une réponse récente avis du Conseil européen des garants de la vie privée (EDPB), qui a analysé comment les entreprises peuvent utiliser les données des citoyens pour créer ou utiliser des modèles d’IA tout en respectant les lois sur la confidentialité.
L’EDPB est composé de tous les garants de l’UE et a pour mission de guider l’application des règles en matière de protection des données personnelles, et notamment du RGPD. Pour cette raison, ses dispositions sont extrêmement importantes, et celle qui vient d’être adoptée peut être considérée comme le premier véritable texte de référence sur la relation entre vie privée et IA.
Intelligence artificielle
Dix questions à se poser avant d’utiliser ChatGpt gratuitement sur WhatsApp
par Pier Luigi Pise

Parce que les Garants sont intervenus
La décision de l’EDPB fait suite à une demande du garant irlandais. Il s’agit de l’autorité chargée de vérifier que de nombreuses grandes sociétés Internet ayant établi leur siège social en Irlande respectent les lois européennes sur la protection de la vie privée. La Commission irlandaise pour la protection des données a demandé à l’EDPB de répondre à une série de questions, afin que tous les contrôleurs européens puissent suivre les mêmes lignes directrices lors de l’application du RGPD aux systèmes d’intelligence artificielle.
Quand les modèles d’IA sont anonymes
Tout d’abord, l’EDPB a précisé si et quand un modèle d’intelligence artificielle peut être considéré comme anonyme. La question est importante car ce qui est anonyme n’est pas soumis aux lois sur la protection de la vie privée. Pour les Garants, l’évaluation doit être effectuée au cas par cas. Seuls les modèles pour lesquels la probabilité d’extraire les données personnelles utilisées pour entraîner l’algorithme et la probabilité d’obtenir ces données en interrogeant le modèle sont insignifiantes seront anonymes.
Pour démontrer qu’un modèle est anonyme, l’EDPB a répertorié quelques éléments possibles à considérer, comme la présence de techniques de sélection et de filtrage des données pour la formation capables d’exclure la collecte d’informations personnelles.
Le rôle de l’intérêt légitime
L’Edpb a ensuite exprimé son avis sur la possibilité d’utiliser l’intérêt légitime comme base juridique pour le traitement des données personnelles dans les modèles d’IA. C’est aussi un point particulièrement pertinent, notamment pour les entreprises. Le RGPD énumère en effet les bases juridiques sur lesquelles une entreprise peut fonder le traitement des données personnelles, et peu sont applicables à l’IA. Parmi ceux-ci, il y a le consentement du peuple, mais aussi l’intérêt légitime de l’entreprise, et dans ce second cas il n’est pas nécessaire d’obtenir le consentement du citoyen.
Après avoir admis la possibilité de faire usage d’un intérêt légitime pour développer des modèles d’IA avec des données personnelles, les Garants ont indiqué les évaluations à réaliser et les paramètres à prendre en considération. Parmi ceux-ci figure la nécessité de trouver un équilibre entre l’intérêt légitime de la société et les droits fondamentaux des citoyens, qui doivent être vérifiés même si les gens s’attendent à ce que leurs données soient transmises à un algorithme. Dans ce cas également, l’EDPB a proposé certaines mesures pour atténuer l’impact de l’IA sur les droits des personnes, comme prévoir un délai entre la collecte des données et leur utilisation pour la formation à l’IA, pour permettre aux personnes de s’opposer à cette activité.
Marché numérique
Dix ans de batailles entre Apple et Facebook. Le dernier se joue en Europe
par Arcangelo Rociola


Les conséquences des traitements illicites
Les Garants ont également analysé ce qui pourrait arriver si, lors de la phase de développement d’un modèle, les règles de confidentialité ne sont pas respectées. À travers l’examen d’une série de scénarios, l’EDPB a notamment évalué dans quels cas cette situation pourrait avoir des impacts négatifs sur les activités ultérieures, comme le fonctionnement du modèle lui-même, déterminant ainsi son illégalité.
Que se passe-t-il maintenant
Avec cette disposition, l’EDPB a tracé la ligne que les autorités chargées de la protection de la vie privée dans toute l’Europe devront désormais suivre. L’objectif est de garantir des lignes directrices cohérentes dans toute l’Union européenne, sans préjudice de l’autonomie d’évaluation de chaque Garant. Toutefois, cet avis est également important pour les entreprises qui développent ou utilisent l’IA pour orienter leurs politiques de confidentialité. Entre-temps, l’EDPB a déjà annoncé d’autres lignes directrices sur l’intelligence artificielle, qui concerneront également le phénomène du web scraping.
#Intelligence #artificielle #vie #privée #position #des #garants #européens
1734879090