Home » Sciences et technologies » AI AI: Voici tous les systèmes d’intelligence artificielle interdits en Europe

AI AI: Voici tous les systèmes d’intelligence artificielle interdits en Europe

by Nouvelles

2025-02-14 21:30:00

Chatbots subliminaux, score de crédit, police prédictive, surveillance en temps réel, reconnaissance des émotions à l’école et au travail. À partir du 2 février, ces utilisations de l’intelligence artificielle sont interdites dans toute l’Europe. C’est le premier effet de l’ACT, la nouvelle loi européenne sur l’intelligence artificielle.

Au début du mois, les premières dispositions du règlement sont devenues applicables, notamment l’interdiction de pénétrer le marché sur le marché, la mise en service ou l’utilisation de systèmes IA pour la manipulation, l’exploitation, le contrôle social et la surveillance des personnes.

Récemment, la Commission européenne a adopté certains lignes directrices Pour clarifier la portée de ces interdictions et fournir des exemples pratiques sur leur mise en œuvre. Voici tout ce que vous devez savoir.

Le norme

Actes, les règles sur l’intelligence artificielle qui lit les émotions: “interdite à l’école et au travail”

par Pier Luigi Pise


Manipulation et exploitation de la vulnérabilité
Les deux premières interdictions concernent les systèmes IA qui utilisent des techniques subliminales, manipulatrices ou trompeuses et qui exploitent les vulnérabilités des gens. Nous voulons empêcher que les algorithmes d’être utilisés pour compromettre les choix des citoyens et causer des dommages importants.

La propagation des messages subliminaux visuels, tels que les textes qui clignotent de manière imperceptible pendant une vidéo, ou les techniques de manipulation sensorielle qui modifient les humeurs des gens sont incluses dans le premier cas. Les chatbots sont également interdits qui sont divisés en tant que parent grâce à une voix synthétique pour commettre des escroqueries.

La deuxième interdiction comprend des jeux qui encouragent les enfants à relever des défis dangereux en échange de récompenses numériques, les systèmes IA pour frauder les personnes âgées et influencer les personnes handicapées pour acheter des produits médicaux. Les algorithmes sont également interdits de diriger la publicité des produits financiers aux personnes en difficulté économique.

Score social
L’Europe a interdit les systèmes de scores sociaux basés sur l’IA qui évaluent ou classent les citoyens en fonction du comportement social ou des caractéristiques personnelles. L’interdiction concerne les cas dans lesquels un traitement préjudiciable dans des contextes sociaux qui ne sont pas liés à ceux où les données ou qui sont disproportionnées à la gravité du comportement social en tire.

Les gouvernements ne peuvent donc pas introduire des systèmes IA capables de surveiller et d’évaluer les citoyens dans différents aspects de la vie, tels que les activités en ligne et la ponctualité dans le paiement des factures, fournissant des limites à l’accès aux services publics ou aux taux d’intérêt plus élevés pour qui a un score faible.

L’interdiction s’applique également à la personne privée: cela signifie qu’une agence de crédit ne peut pas utiliser l’IA pour déterminer la fiabilité du crédit des personnes et décider de la possibilité d’obtenir un prêt sur la base de caractéristiques personnelles non liées.

L’analyse

“IA est un jeu que l’Europe en ce moment ne peut pas gagner”

par Pier Luigi Pise



Police prédictive
La loi interdit également les systèmes algorithmiques qui évaluent ou fournissent le risque qu’une personne puisse commettre un crime basé exclusivement sur le profilage ou sur l’évaluation des traits et des caractéristiques de la personnalité.

Il n’est donc pas possible pour une autorité d’appliquer l’IA de prédire le comportement criminel pour des crimes tels que le terrorisme basé uniquement sur l’âge, la nationalité, le type de voiture et le statut civil des gens.

Identification biométrique en temps réel en public
L’IA Act interdit également les systèmes d’identification biométrique en temps réel dans des espaces accessibles au public à des fins de contraste, sans préjudice à quelques exceptions limitées qui prévoient une autorisation des autorités.

La police ne peut donc pas utiliser ces algorithmes pour identifier un corps et comparer ses images faciales avec des bases de données criminelles. Ces technologies sont plutôt admises – dans les conditions prévues par la loi – pour la recherche de victimes de crimes graves ou de personnes disparues, de prévention des menaces pour la sécurité publique ou des attaques terroristes et l’emplacement ou l’identification des suspects de certains crimes.

Reconnaissance des émotions
Avec les actes ACT dans les écoles et les lieux de travail, les systèmes IA ne peuvent pas être utilisés pour déduire les émotions d’une personne, à l’exception des raisons médicales ou de sécurité. L’utilisation de webcams et de systèmes de reconnaissance vocale dans le centre d’appels pour détecter les émotions des employés et l’utilisation d’algorithmes dans les écoles pour reconnaître les émotions lors des tests d’admission sont incluses dans l’interdiction.

Entretien

Markus Reinisch (Meta): “Je vous explique une fois pour toutes parce que l’Europe Sull’are risque d’être derrière”

par Pier Luigi Pise



Grattage des images
Il est également interdit de commercialiser ou d’utiliser des systèmes IA qui créent ou étendent les bases de données de reconnaissance faciale grâce au grattage insaturé des images faciales à partir d’Internet ou par

Films de caméras en circuit fermé.

Catégorisation biométrique
Enfin, les systèmes de catégorisation biométrique qui classent les personnes en fonction de leurs données biométriques pour déduire les caractéristiques sensibles telles que la race, les opinions politiques et l’orientation sexuelle ne sont pas autorisées. Les algorithmes ne sont donc pas admis pour déduire l’ethnicité d’une personne de sa voix ou une orientation religieuse d’un tatouage.



#Voici #tous #les #systèmes #dintelligence #artificielle #interdits #Europe
1739587392

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.