Intelligence artificielle : des règles européennes pour l’IA arrivent

Intelligence artificielle : des règles européennes pour l’IA arrivent

2024-05-21 20:26:00

L’Europe décide des règles d’utilisation de l’intelligence artificielle. Les critiques considèrent que les spécifications des chatbots comme ChatGPT sont trop laxistes.

La surveillance avec davantage d’intelligence artificielle sera réglementée Photo: photo

BERLIN taz | Les États de l’UE ont arrêté mardi leurs règles en matière d’intelligence artificielle (IA). Le Conseil des 27 États membres a été la dernière autorité à approuver la loi négociée par la Commission européenne, le Parlement et le Conseil. Cela signifie que les règles relatives à l’utilisation, au développement et à l’étiquetage de l’IA entreront en vigueur dans les mois et les années à venir. L’AI Act est la première réglementation de ce type complète et contraignante en matière d’IA au monde. L’UE espère donc servir de modèle aux autres pays.

« Cette réglementation historique – la première du genre au monde – relève un défi technologique mondial qui crée également des opportunités pour nos sociétés et nos économies », a déclaré Petra De Sutter, vice-Première ministre belge et ministre des Télécommunications. La Belgique assure actuellement la présidence du Conseil européen.

Lire aussi  Impact de la crise COVID-19 et de l'inflation sur la pauvreté au Maroc

Cette adoption marque la fin d’un processus législatif relativement rapide : il y a trois ans, la Commission européenne a présenté un premier projet de loi sur l’IA. L’essentiel des règles qui ont été adoptées aujourd’hui est ce que l’on appelle l’approche basée sur les risques. En conséquence, les systèmes d’IA sont réglementés d’autant plus strictement que le risque qui leur est associé est élevé.

Au sommet de la pyramide des risques se trouvent les systèmes interdits. Cela inclut le système de notation sociale connu en Chine, dans lequel l’État classe les personnes en fonction, entre autres, de leur comportement. Diverses règles s’appliquent aux systèmes d’IA autorisés dans la zone à haut risque. Lorsqu’ils sont utilisés, par exemple, dans le domaine répressif, dans l’éducation ou dans le contrôle des frontières, ils doivent respecter certaines obligations de transparence et de contrôle.

Uniquement des « obligations de transparence » pour les chatbots

Seules certaines exigences de transparence s’appliquent aux systèmes présentant un risque limité. Selon la Commission européenne, les chatbots tels que ChatGPT entrent également dans cette catégorie, ce qui n’est pas sans controverse. Aucune règle particulière ne s’applique aux systèmes considérés comme ne présentant qu’un risque minimal, comme les filtres anti-spam.

Lire aussi  Déboisement : contre la mafia du bois, en cas de doute également en Forêt-Noire

Entre-temps, il n’était pas sûr que la loi sur l’IA soit effectivement adoptée : dans l’UE, le Parlement et les États membres se sont disputés sur les pouvoirs de surveillance et le ministère allemand du Numérique dirigé par le FDP a freiné les tentatives de rendre les règles plus commerciales. amical. Lors de l’approbation finale, le ministre des Transports et du Numérique Volker Wissing (FPD) a posé les jalons de la suite du débat et a souligné mardi qu’il était important de « garder un œil sur le caractère favorable à l’innovation de la réglementation ».

“L’IA est déjà utilisée dans de nombreux domaines de notre vie quotidienne, il est donc grand temps de lui donner un cadre juridique”, déclare Matthias Spielkamp, ​​​​directeur général de l’ONG de défense des droits de l’homme Algorithmwatch. Cependant, le nombre de lacunes et d’exceptions, par exemple en matière de reconnaissance faciale dans l’espace public, pose problème.



#Intelligence #artificielle #des #règles #européennes #pour #lIA #arrivent
1716318232

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.