Les règles européennes pour l’IA un peu plus près, voici les plans

Les règles européennes pour l’IA un peu plus près, voici les plans
Le Parlement européen à Strasbourg, France

Nouvelles de l’ONSaujourd’hui, 09:57

  • Nando Kastelein

    éditeur technique

  • Nando Kastelein

    éditeur technique

ChatGPT a non seulement surpris les grandes entreprises technologiques, mais aussi les décideurs politiques. En Europe, la législation sur l’IA (intelligence artificielle) est en préparation depuis plus de deux ans, mais les développements rapides n’avaient pas été pris en compte qu’il pourrait y avoir une chose telle que l’IA générative, un système qui crée lui-même du texte ou des images .

Parce que cette technologie peut déjà avoir un impact majeur sur la société – et dans les années à venir – dans les années à venir, le Parlement européen a maintenant commencé à changer cela. Le comité qui a traité de la loi a accepté une version modifiée de la proposition qui traite également de ChatGPT. Il est également très particulier que cela se produise alors que l’IA générative est en plein développement. Cinq questions sur cette loi.

Quel est le but de la loi ?

La loi AI (Artificial Intelligence Act) est très large. L’idée générale est de diviser les systèmes d’IA en groupes de risque. Considérez-le comme une pyramide : au sommet se trouvent les systèmes qui comportent un risque si élevé qu’ils sont interdits. Une plus grande partie de la loi traite des systèmes d’IA étiquetés comme “à haut risque”.

De plus, une marque de qualité est utilisée. Tout comme pour les médicaments et les produits chimiques, cela signifie que les systèmes d’IA « à haut risque » ne sont autorisés sur le marché européen que s’ils répondent à certaines exigences. Parce que les développements vont vite, la flexibilité a été intégrée dans la loi afin que les choses puissent être ajustées ou ajoutées plus tard.

Quelles choses seront bientôt interdites ?

La proposition de la Commission européenne interdit déjà un certain nombre de systèmes d’IA à l’avance. Cela concerne, par exemple, les systèmes qui évaluent le comportement des personnes et l’utilisation des temps réel l’identification biométrique, telle que la reconnaissance faciale par les services d’enquête, comme lors de la recherche d’un suspect.

Le parlement veut aller plus loin et, par exemple, interdire également la reconnaissance des émotions par la police, à la frontière et au travail et dans l’éducation. Une autre mesure importante est l’interdiction des prédictions de crimes et de fraudes basées sur le profilage (pensez à ce qui s’est passé avec l’affaire des avantages sociaux).

Qu’est-ce qu’un “risque élevé” ?

Bref, ce sont des applications qui peuvent avoir un impact sur les droits que vous avez en tant qu’être humain, mais aussi sur la santé. Donc ça englobe beaucoup. Ce sont des systèmes que la police peut utiliser pour retrouver des suspects, scanner les CV des candidats ou aider à protéger un réacteur nucléaire ou des installations d’eau.

Tous ces systèmes sont soumis à des exigences strictes. Par exemple, ils ne doivent pas faire de discrimination, il doit être transparent sur ce qui se passe, et il doit toujours être clair pour les régulateurs ce qui se passe sous le capot. Une analyse de risque est obligatoire.

Quelle place occupe ChatGPT ?

Il y aura une place distincte dans la législation pour ce qui modèles de fondation sont appelés. Considérez-le comme la base sur laquelle, par exemple, ChatGPT, mais aussi le générateur d’images Midjourney est basé. Parvenir à un accord sur ce point a été tout un travail, déclare l’eurodéputé de GroenLinks, Kim van Sparrentak, l’un des négociateurs. Elle parle d'”un combat” pour obtenir des engagements forts pour ce genre d’application.

Le résultat, un compromis, est que les règles deviennent presque aussi strictes que pour les applications qui relèvent du « risque élevé ». La raison pour laquelle ChatGPT, par exemple, n’est pas inclus par défaut est que tous les systèmes qui génèrent du texte ou une image n’entraînent pas automatiquement un risque supplémentaire, explique van Sparrentak. Elle dit que cela aurait été plus facile si cela s’était produit, elle appelle maintenant les règles “un peu plus non contraignantes”.

Remarquablement, elle ne peut pas encore dire ce que la loi signifiera spécifiquement pour le ChatGPT d’OpenAI. “L’entreprise n’est pas transparente du tout, nous ne savons pas ce qu’ils font.” Elle souligne qu’à partir de l’année prochaine, il y aura une obligation de transparence pour les entreprises technologiques.

À quel point tout cela est-il certain ?

La réponse simple : ce n’est pas encore le cas. Il s’agit de la première étape d’un processus qui se poursuivra dans les mois à venir. Mais c’est un moment important, car pour la première fois la législation aborde les modèles sur lesquels repose l’IA générative.

Un vote en plénière au Parlement européen suivra le mois prochain. Après cela, les négociations commenceront avec le Conseil de l’Union européenne, au sein duquel tous les États membres sont représentés. La loi devrait être finalisée au début de l’année prochaine. La mise en œuvre prend ensuite encore deux ans.

2023-05-11 10:57:16
1683794877


#Les #règles #européennes #pour #lIA #peu #près #voici #les #plans

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.