IA : « Même les modèles plus petits peuvent présenter un danger »

IA : « Même les modèles plus petits peuvent présenter un danger »

2023-12-11 15:24:38

La nouvelle loi européenne sur l’IA évalue les menaces, mais les experts mettent en garde contre des menaces inconsidérées pour la sécurité.

À Bruxelles, les États membres de l’UE se sont mis d’accord sur la première loi au monde visant à réglementer l’intelligence artificielle.
NurPhoto/Getty Images

Après de longues négociations, les États de l’UE, la Commission européenne et le Parlement européen se sont fondamentalement mis d’accord sur une réglementation juridique de l’intelligence artificielle (IA). L’« AI Act » est la première loi au monde sur l’IA. Ce cadre protégera la sécurité et les droits fondamentaux des personnes et des entreprises, a commenté la présidente de la Commission européenne, Ursula von der Leyen.

La Commission européenne avait déjà proposé une telle loi en avril 2021. Mais de nombreux points de discorde découlaient des différents intérêts des différents États de l’UE. Il a été négocié pendant des années et, aujourd’hui encore, certains détails importants doivent encore être clarifiés avant que l’« AI Act » européen puisse effectivement être soumis pour adoption.

Un accord a notamment été négocié la semaine dernière sur la question controversée majeure de la surveillance biométrique des personnes dans les espaces publics grâce à l’IA. Le projet de loi propose d’interdire leur utilisation pour la reconnaissance faciale automatisée. Les États de l’UE ont toutefois pu imposer des exceptions à cette interdiction, par exemple en matière de sécurité nationale. Il existe également des exceptions pour les applications militaires de l’IA.

Lire aussi

Respectez ces règles si vous utilisez ChatGPT dans une startup – sinon vous encourrez des sanctions

Un autre point de discorde était la question de savoir si les puissants modèles de base de l’IA, qui pourront ensuite être utilisés pour diverses applications à l’étape suivante, devaient être réglementés à la source. Ou est-il suffisant de réglementer uniquement les applications spécifiques qui peuvent être mises en œuvre à l’aide de modèles de base ? En Europe, seules quelques entreprises développent leurs propres modèles de base d’IA.

Il n’est pas surprenant que les pays mêmes dans lesquels ces entreprises sont basées soient sceptiques quant à la réglementation des modèles de base. Une réglementation plus stricte par rapport aux concurrents non européens pourrait à terme entraver la compétitivité de ces entreprises en Allemagne, en France et en Italie.

Il existe un consensus sur le fait que les applications de l’IA qui présentent des risques élevés pour la sécurité des individus et de la société devraient être empêchées. Mais comment peut-on déterminer objectivement et légalement devant un tribunal si un système d’IA spécifique est une technologie à haut risque et doit donc être réglementé ?

Comme on le sait, la politique est une possibilité de compromis et donc l’« AI Act » se résumera probablement à simplement utiliser le nombre d’étapes de calcul utilisées pour entraîner une IA comme critère du risque potentiel pouvant découler d’un modèle de base.

Vous pouvez donc convenir que les modèles de base doivent être réglementés – mais seulement lorsque plus de 10 puissance 26 étapes de calcul ont été effectuées dans l’ordinateur pour leur formation. Ce chiffre est si important qu’aucune entreprise d’IA en Europe ne produira pour l’instant un modèle d’IA d’une telle envergure. A titre de comparaison : même le modèle de langage Chat GPT de la société américaine OpenAI, généralement connu pour son efficacité, ne tomberait pas sous le coup d’une obligation réglementaire selon cette définition. Pour ce faire, il faudrait abaisser la barre à 10 puissance 24 opérations arithmétiques.

Le professeur Sandra Wachter de l’Internet Institute de l’Université d’Oxford est sceptique quant à ce type de réglementation. “Même les modèles d’IA plus petits peuvent constituer un danger”, explique le scientifique. Par exemple, elle considère les systèmes d’IA permettant de reconnaître les émotions humaines comme une technologie à haut risque.

Des modèles d’IA beaucoup plus petits suffisent pour cette application, mais ils ne doivent pas être réglementés. Wachter cite la police dite prédictive comme autre exemple d’application à haut risque, à savoir le contrôle des opérations de police à l’aide de prévisions créées par l’IA.

Alors, devrait-il être préférable de vérifier chaque application d’IA individuellement pour voir si elle répond à certaines normes ? C’est ce qui est censé se produire d’une certaine manière. À l’avenir, il faudra indiquer clairement si du matériel protégé par le droit d’auteur a été utilisé lors de la formation d’une IA. Et la qualité des données d’entraînement doit répondre à certaines exigences afin d’éviter toute discrimination lors de l’utilisation de l’IA.

Il devrait également y avoir une obligation d’étiquetage pour les textes, images et vidéos créés par l’intelligence artificielle. “Le problème est qu’il n’y a généralement pas assez de temps pour tester correctement le système d’IA”, explique le professeur Philipp Hacker de l’université européenne Viadrina de Francfort (Oder). “Nous avons définitivement besoin de plus de recherches sur la sécurité.”

Les pirates informatiques voient un risque particulièrement élevé d’utilisation abusive dans la collecte d’informations basée sur l’IA à des fins criminelles et terroristes. Par exemple, les systèmes d’IA ne doivent en aucun cas donner à un demandeur des informations sur la manière de fabriquer une bombe ou une arme biologique.

Afin d’éviter cela, certaines structures de sécurité doivent être intégrées aux systèmes d’IA. Et cela donne aux pirates un argument central contre les systèmes d’IA open source. Si le code source d’une intelligence artificielle est généralement connu, ces systèmes de protection peuvent à nouveau être supprimés par les parties intéressées.

L’UE est un pionnier mondial en matière de législation régissant l’IA. La plupart des autres États n’ont jusqu’à présent édicté que des règlements et des décrets. Les partisans de l’« AI Act » européen espèrent que cette loi pourrait devenir un modèle pour les pays pour lesquels les réglementations des États-Unis et de la Chine sont trop souples ou trop restrictives.

Lire aussi

Les fondateurs n’utilisent pas ChatGPT de manière incorrecte, déclare Amy Webb, spécialiste de l’IA. Voici comment tirer le meilleur parti de l’outil



#Même #les #modèles #petits #peuvent #présenter #danger
1702328762

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.