Les méfaits de l’IA : suicide, exploitation de la mort d’inconnus, création de « deepfakes » pornographiques et de produits défectueux | Technologie

2024-10-25 06:20:00

Sewell Setzer, 14 ans, s’est suicidé en février dernier après être tombé amoureux d’un personnage créé par l’intelligence artificielle sur la plateforme Caractère.AIselon le procès intenté par la famille de l’adolescent contre l’entreprise. Le regretté Paul Mohney n’a jamais vu de combat ni Olena Zelenskaépouse du président ukrainien, a acheté une Bugatti Turbillon. Mais de fausses informations, créées à l’aide de l’intelligence artificielle (IA), ont été diffusées dans le but de gagner de l’argent facilement grâce à la publicité sur les pages nécrologiques ou pour générer de la propagande russe. Une femme de ménage d’Edimbourg, avec une famille monoparentale de deux enfants, s’est retrouvée privée de ses allocations, comme beaucoup d’autres femmes dans sa situation, en raison d’un biais de l’intelligence artificielle du système. A un client d’une plateforme de paiement, l’algorithme averti d’une transaction qui n’a jamais existé, un procès remet en question la sécurité d’un véhicule en raison d’une prétendue erreur de programmation et des milliers d’utilisateurs voient utilisé vos données sans consentement. Au bout de la chaîne de l’intelligence artificielle, il y a les humains, mais la responsabilité des dommages qu’elle peut leur causer n’est pas complètement définie. « Nous constatons ici un vide législatif alarmant », prévient Cecilia Danesi, co-directrice du master en Gouvernance éthique de l’IA (UPSA) et auteur de Les droits des consommateurs à la croisée de l’intelligence artificielle (Dykinson, 2024).

Gagner de l’argent grâce à la mort d’étrangers. C’est facile et peu coûteux avec l’intelligence artificielle, même si c’est au prix de la propagation de mensonges qui augmentent la douleur des proches du défunt. Cela se fait via des pages nécrologiques où l’IA crée des informations sur le défunt avec des données réelles ou inventées, comme l’histoire militaire de Mohney, pour gagner du trafic et, par conséquent, des revenus publicitaires. « Il existe une toute nouvelle stratégie qui consiste à obtenir des informations sur une personne décédée, à constater une légère augmentation du trafic, même si elle se situe dans une zone particulière, et à publier rapidement des articles sur la personne pour obtenir ces flux de trafic. », explique Chris Silver Smith, expert en moteurs de recherche. Entreprise rapide.

fausses informations et contrefaçons profondes pornographique. La page Incidents d’IA Mois après mois, elle collecte des dizaines d’alertes d’incidents générés par l’intelligence artificielle ou de cas d’abus et a déjà identifié plus de 800 plaintes. Dans l’un de ses derniers dossiers, il inclut de fausses informations sur la tentative d’assassinat de Donald Trump, la candidate démocrate à la présidence américaine, Kamala Harris, ou encore sur des images pornographiques fausses et réalistes (contrefaçons profondes) de la politique britannique. La peur des effets de ces créations et de leur viralisation dans les processus démocratiques augmente et 31% des Européens estiment que l’IA a déjà influencé leurs décisions de vote, selon une enquête pour le Rapport européen sur les perspectives technologiques 2024, développé par le Centre pour la gouvernance du changement (CGC) de l’Université IE.

« L’inquiétude des citoyens quant au rôle de l’IA dans la conduite des élections est croissante. Et, même s’il n’existe toujours aucune preuve claire qu’elle ait entraîné des modifications substantielles dans les résultats, l’émergence de l’IA a accru les inquiétudes concernant la désinformation et la technologie. faux profond partout dans le monde », déclare Carlos Luca de Tena, directeur exécutif de CGC.

« En créant une fausse vidéo ou une fausse image avec l’IA générative, il est clair que l’IA est un support, un outil, donc la responsabilité incombera au créateur. Le principal problème est que, dans la plupart des cas, il est impossible de l’identifier. Le cas du pornofaux [imágenes falsas de contenido pornográfico]par exemple, a un impact direct sur l’écart entre les sexes puisque les plateformes vous encouragent à les utiliser avec des images de femmes. En ayant plus de photos de ce genre, elles deviennent plus précises avec notre corps et il en résulte une plus grande marginalisation et stigmatisation des femmes. Par conséquent, à l’ère de la désinformation et de la culture de l’annulation, l’éducation est extrêmement importante et, en tant qu’utilisateurs, nous faisons le double vérification [doble comprobación] de chaque contenu que nous voyons et, surtout, le vérifier avant d’interagir avec lui », explique Danesi.

Le chercheur, membre de Les femmes pour l’éthique dans l’IA de l’UNESCO et co-auteur du rapport présenté à la G20 Brésil sur les audits algorithmiques, ajoute-t-il, à propos des effets de la désinformation : « Un algorithme peut avoir un double rôle : un pour la création de fausses nouvelles grâce à l’IA générative et un autre, via les moteurs de recherche ou les réseaux sociaux qui viralisent les faux contenus. Dans ce deuxième cas, force est de constater qu’on ne peut pas exiger des plateformes qu’elles vérifient chaque contenu publié. C’est matériellement impossible.

Sélectivité automatique. Parmi les plaintes concernant les dysfonctionnements de l’IA, il y en a également une concernant l’inclusion d’un des préjugés qui nuisent aux familles monoparentales (90 % de femmes) dans un système de prestations écossais. « Bien que le règlement IA contienne diverses dispositions pour éviter les biais (notamment en ce qui concerne les exigences auxquelles doivent répondre les systèmes à haut risque), en ne réglementant pas les questions liées à la responsabilité civile, il ne contribue pas à ce que la victime reçoive une indemnisation. Il en va de même avec la loi sur les services numériques, qui impose certaines obligations de transparence aux plateformes numériques », explique Danesi.

Produit défectueux. La page des incidents d’IA comprend un procès ouvert en raison d’un éventuel défaut de programmation d’un véhicule pouvant affecter la sécurité. En ce sens, le chercheur détaille : « En ce qui concerne la réforme de la directive produits défectueux, elle reste également à mi-chemin. Le problème réside dans les types de dommages-intérêts qui peuvent être réclamés en vertu de cette règle, puisqu’elle n’inclut pas, par exemple, les dommages moraux. Les atteintes à la vie privée ou la discrimination sont exclues de la protection de la directive.

Ces cas démontrent, selon Danesi, que l’un des domaines du droit qui nécessite une attention immédiate en raison de l’arrivée de l’IA est celui de la responsabilité civile. « Parce que les consommateurs sont extrêmement exposés aux dégâts qu’ils peuvent causer. Si nous n’avons pas de règles claires sur la manière de procéder face à ces dommages, les personnes se retrouvent sans protection. Mais en outre, des règles claires en matière de responsabilité civile assurent la sécurité juridique, encouragent l’innovation et, en cas d’événement dommageable, favorisent la conclusion d’un accord. En effet, comme les entreprises connaissent à l’avance les règles du jeu en matière de responsabilité, elles décident où et dans quoi investir avec une plus grande certitude quant au scénario dans lequel elles travailleront », affirme-t-il.

Il existe des initiatives au niveau européen qui tentent de résoudre le problème, selon le chercheur, comme le règlement sur l’intelligence artificielle, la loi sur les services numériques (qui établit des mesures qui affectent les algorithmes des plateformes numériques, des réseaux sociaux, des moteurs de recherche, etc.) , la proposition de directive sur la responsabilité des IA et la réforme imminente de la directive sur les produits défectueux.

« Cette directive était devenue obsolète. On s’est même demandé si cela s’appliquait ou non aux systèmes d’IA, puisque la définition d’un produit reposait sur quelque chose de plus physique et non numérique. La modification comprend une expansion du concept de produit puisqu’il inclut des fichiers de fabrication numérique et des programmes informatiques. La norme met l’accent sur la protection de l’individu, ce qui rend à juste titre indifférent que le dommage soit causé par un produit physique ou numérique », explique-t-il.



#Les #méfaits #lIA #suicide #exploitation #mort #dinconnus #création #deepfakes #pornographiques #produits #défectueux #Technologie
1729843406

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.