2024-11-05 17:27:00
AGI – L’intelligence artificielle trompeuse a pris fin et l’utilisation de l’IA pour soumettre les migrants demandeurs d’asile à un détecteur de mensonge ou établir la priorité dans l’envoi de services de santé d’urgence ou de pompiers est dans la dernière ligne droite. Tout cela fait partie de la nouvelle et jusqu’à présent la seule réglementation européenne sur l’IA.
En décembre, ils seront en Europe les systèmes définis comme « inacceptables » sont interditscapable de « manipulation comportementale » et de « classification des personnes sur la base de leur race, de leur religion et de leur orientation sexuelle » et grâce à l’analyse de leurs données biométriques. La nouvelle loi a été publiée au Journal officiel européen le 12 juillet et après 20 jours, le premier feu vert a été obtenu. Mais pas dans toutes ses parties. Une fois le mois prochain passé, la prochaine date utile pour la mise en œuvre des règles générales sera juin 2025. Alors que le lancement des contraintes pour les systèmes à haut risque – ceux considérés comme potentiellement dangereux pour les droits et la santé du citoyen, comme le détecteur de mensonge justement – il a été reporté de 2026 à 2027. En novembre dernier, l’UE a tenté de prendre de l’avance en concluant un pacte avec les “parties intéressées” (bénévoles), en organisant un webinaire pour informer et “partager des expériences” sur l’IA”. .
Tout bien considéré, les règles qui devront surveiller les systèmes intelligents à haut risque ne sont donc pas encore en place. Lorsqu’ils le seront, l’Union “évaluera l’impact sur les droits fondamentaux”, garantira “une plus grande transparence” des appareils enregistrés dans la base de données et, là où l’IA sera utilisée pour la reconnaissance des émotions, le document établit qu'”il faudra informer les personnes exposées » à l’œil électronique. Par ailleurs, la loi garantira que les machines intelligentes répondent à trois exigences considérées comme fondamentales : « Précision, robustesse et cybersécurité ». Ajout de l’avertissement : « Les entreprises qui ne respectent pas les règles – c’est indiqué dans la loi – seront sanctionné jusqu’à 7% du chiffre d’affaires annuel mondial pour violations d’applications d’IA interdites, jusqu’à 3 % pour violations d’autres obligations et jusqu’à 1,5 % pour fourniture d’informations inexactes ».
Cela ressemble à de la science-fiction, mais c’est déjà la réalité
Entre-temps, les appareils sophistiqués continuent de « fonctionner » comme toujours et, avec toutes les précautions nécessaires, ils le feront même après. Et cela ressemble déjà à de la science-fiction. En effet – résume le règlement – l’intelligence artificielle effectue des contrôles au travail, à l’école, dans les tableaux d’urgence et dans les hôpitaux, pour gérer le trafic routier, les réseaux de gaz, d’électricité et de chauffage domestique. En fait, cela vient le détecteur de mensonge, le polygraphe, a également été embauché. À la page 127 du règlement, l’annexe III explique les secteurs et les rôles dans lesquels les systèmes d’IA à surveiller sont à l’œuvre. On part de « la biométrie, pour la reconnaissance des émotions ».
Nous continuons avec l’IA dans les composants de sécurité pour la « gestion des infrastructures numériques du trafic routier, de l’approvisionnement en eau, gaz, chauffage ou électricité ». C’est pourquoi des algorithmes sont utilisés dans le « secteur de l’enseignement et de la formation professionnels : pour déterminer l’accès, l’admission ou l’affectation de personnes aux établissements d’enseignement et de formation ; évaluer les résultats d’apprentissage, le niveau d’éducation et le comportement des étudiants lors des tests dans les instituts”. Et puis dans le secteur « emploi, gestion des travailleurs et accès au travail indépendant ». C’est-à-dire “pour embaucher ou sélectionner des personnes, annoncer des postes vacants, sélectionner des candidatures, évaluer des individus lors d’entretiens ou de tests”.
La liste est longue. Les machines spéciales offrent des informations utiles aux humains pour prendre « des décisions concernant la promotion et la fin des relations de travail contractuelles, l’attribution des tâches, le suivi et l’évaluation des performances et du comportement des personnes au sein de ces relations de travail ». Le cinquième point concerne les algorithmes dans « l’accès aux prestations et services publics et privés essentiels ». Ce qui signifie “évaluer l’éligibilité (ou le caractère inacceptable, ndlr) des personnes aux prestations et services d’assistance publique, leur solvabilité ou établir leur solvabilité” personnelle “”. L’adoption de l’IA est même autorisée « pour envoyer des services d’urgence de premiers secours ou pour établir des priorités concernant l’envoi de tels services, y compris les pompiers et l’assistance médicale ».
Voici le détecteur de mensonge
Dans la lutte contre la criminalité, les supersystèmes constituent une arme supplémentaire pour « déterminer le risque qu’une personne devienne victime d’une infraction ». Et là aussi, lorsque cela est nécessaire, le Règlement prévoit l’adoption d’un détecteur de mensonge. Son utilisation est également indiquée dans la « gestion des migrations, de l’asile et du contrôle des frontières pour détecter l’état émotionnel d’une personne et le risque lié à l’entrée dans un État membre de l’UE » ; pour l’instant, notre ministère de l’Intérieur n’a reçu aucune alerte préalable sur l’usage du polygraphe. Le dernier point de l’annexe concerne les systèmes à haut risque en service dans « l’administration de la justice et les processus démocratiques ».
Plus précisément, mais sans s’y limiter, « pour aider une autorité judiciaire à rechercher et à interpréter les faits et le droit et à appliquer la loi à un ensemble spécifique de faits, ou à être utilisée de manière similaire dans le cadre de modes alternatifs de règlement des litiges ». A cet égard, les raisonnements des juges, magistrats et avocats montrent des lumières et des ombres sur ce champ d’action de l’IA. Les robes craignent d’être interférées dans leur travail.
#larrêt #des #applications #trompeuses #détecteur #mensonges #pour #les #migrants #Voici #règlement #européen #sur #lIA
1730895737