Les dirigeants mondiaux, les PDG des technologies et les universitaires se sont réunis à Paris cette semaine pour le sommet de l’action de l’IA.
L’objectif de l’événement était un engagement envers une approche commune de l’intelligence artificielle basée sur le partage de la science, des solutions et des normes.
Cependant, si l’objectif du sommet était de présenter un front uni mondial sur l’avenir de l’IA, l’inverse a été réalisé.
Il a servi à mettre en évidence les divisions qui existent entre l’Europe et les États-Unis en ce qui concerne la réglementation de la technologie.
Le sommet
Le président français Emmanuel Macron a publié un montage de vidéos DeepFake générées par l’AI à ses comptes de médias sociaux pour faire connaître le début du sommet de l’action de l’IA.
C’était une façon humoristique de lancer le rassemblement, mais le ton est rapidement devenu plus sérieux lorsque le vice-président américain JD Vance est monté sur scène et a critiqué la réglementation technologique européenne.
“Nous pensons qu’une réglementation excessive du secteur de l’IA pourrait tuer une industrie transformatrice”, a déclaré M. Vance au sommet.
Le président français Emmanuel Macron prend un selfie au sommet à Paris
“Nous estimons très fermement que l’IA doit rester à l’abri des biais idéologiques et que l’IA américaine ne sera pas cooptée dans un outil de censure autoritaire”, a-t-il ajouté.
M. Macron et la présidente de la Commission européenne Ursula von der Leyen se sont engagés à investir davantage dans l’IA et à réduire les formalités administratives de l’UE.
Mais le président français a souligné que la réglementation était nécessaire pour garantir la confiance dans l’IA, ou les gens finiraient par le rejeter.
“Chaque fois qu’il y a une percée majeure dans la technologie, les craintes surviennent.”
Les États-Unis et le Royaume-Uni ne se sont pas inscrits à la déclaration finale du sommet qui s’est engagée à rendre l’IA inclusive, ouverte, éthique et sûre.
Taoiseach Micheál Martin a assisté au sommet et a déclaré que l’Europe devait équilibrer l’innovation avec la réglementation, ajoutant que l’UE risquait d’être laissé pour compte si la seule réglementation de l’IA émanait d’Europe.
“Chaque fois qu’il y a une percée majeure dans la technologie, les craintes surviennent”, a déclaré M. Martin.
“D’un autre côté, nous devons également être très fortement conscients des énormes avantages qui peuvent s’écouler des percées de la technologie”, a-t-il ajouté.
Règlement américain contre l’UE
Le récent lancement du modèle d’IA chinois à faible coût Deepseek a été un “réveil” pour les sociétés technologiques américaines, selon le président Donald Trump.
Cela signifiait que la course d’IA entre les États-Unis et la Chine était bel et bien en cours.
Mais avant même l’arrivée de Deepseek, M. Trump avait commencé à détendre les réglementations de sécurité de l’IA, révoquant des politiques qu’il a dit “agir comme obstacles à l’innovation américaine de l’IA”.
La course d’IA entre les États-Unis et la Chine était bel et bien en cours
Comparez cela avec l’Europe, où la loi sur l’IA de l’UE est entrée en vigueur en août 2024, interdisant les systèmes d’intelligence artificielle dangereux et imposant des règles strictes sur les modèles d’IA à haut risque.
John Clancy est le fondateur et PDG de la société irlandaise d’intelligence artificielle Galvia AI.
“Le sommet de l’IA doit être accueilli parce que l’Europe doit se réveiller en ce qui concerne notre position dans le monde de l’IA”, a déclaré M. Clancy.
“Mais cela ressemblait un peu à regarder une équipe d’ingénieurs essayant de repenser un moteur à réaction à mi-vol, il y a un sentiment que l’Europe ne fait que rattraper son retard maintenant.
“La solution américaine est de lui lancer des milliards et de gagner la soi-disant race avec la Chine, et c’est leur grande bataille géopolitique.”
“La réalité pour l’Europe est que nous sommes en quelque sorte assis au milieu et que nous avons probablement trop réglementé”, a-t-il ajouté.
“Nous avons réglementé pour les applications qui n’ont pas encore été déployées, vraiment à travers l’Europe, la réglementation est une bonne chose, mais avec modération.”
Le vice-président américain JD Vance a critiqué la réglementation technologique européenne
La place de l’Irlande dans la course AI
M. Clancy estime que l’Irlande est uniquement positionnée pour aider à naviguer dans les tensions qui existent entre les États-Unis et l’Europe en ce qui concerne la réglementation de l’IA.
“Nous pouvons jouer un rôle central dans le fait de combler l’écart entre les ambitions réglementaires de l’Europe et les États-Unis pour l’innovation.”
Il pense que l’Irlande peut profiter d’être une «maison de transition» entre les États-Unis et l’Europe.
“Je pense que l’Irlande devrait diriger en ce qui concerne l’IA”, a-t-il déclaré.
«Il devrait y avoir des subventions pour la recherche et le développement, les partenariats public-privé et un campus d’IA dédié.
“Pensez à ce que le CERN en Suisse est pour la physique et la recherche nucléaire. Nous devrions avoir un CERN pour l’IA ici en Irlande.”
“Nous avons déjà des tonnes de centres de données, nous sommes donc dans une position stratégiquement unique”, a-t-il ajouté.
Risque d’IA
Au milieu d’un repoussant contre la réglementation, il convient de se rappeler qu’il existe de graves risques associés à l’IA, si son développement est autorisé à ne pas contrôler.
Au niveau le plus grave, la technologie pourrait être utilisée pour nuire à la vie humaine, si elle trouve son chemin entre de mauvaises mains.
“La Corée du Nord, l’Iran ou même la Russie pourraient adopter et abuser de la technologie pour créer des armes biologiques”, a déclaré l’ancien PDG de Google, Eric Schmidt, à la BBC.
Il a averti que l’IA pourrait également être utilisée par des terroristes.
“Je suis toujours inquiet du scénario” Oussama ben Laden “, où vous avez une personne vraiment mauvaise qui reprend un aspect de notre vie moderne et l’utilise pour nuire aux innocents”, a déclaré M. Shmidt.
L’ancien PDG de Google, Eric Schmidt, a averti que l’IA pourrait également être utilisé par des terroristes
Le professeur Geoffrey Hinton, l’informatique surnommé le «parrain de l’IA», a quitté son emploi à Google en 2023 en avertissant les dangers de la technologie.
L’année dernière, il a déclaré à RTÉ News que des “choses désagréables” devraient se produire avant que l’utilisation des armes d’IA ne soit correctement réglementée.
“L’une des menaces est les” robots de bataille “qui faciliteront la guerre à des pays riches et à des pays plus pauvres et qu’ils vont être très méchants et je pense qu’ils arrivent inévitablement”, a déclaré le professeur Hinton.
Mis à part les menaces à la vie humaine, l’IA présente d’autres risques.
Le parrain de l’IA ‘Geoffrey Hinton a dit que les «choses désagréables» devront se produire avant que l’utilisation des armes d’IA ne soit correctement réglementée
Il y a des inquiétudes quant à son impact sur la propagation de la désinformation, du déplacement de l’emploi, de la discrimination et du profilage racial.
Les experts en cybersécurité s’inquiètent de la façon dont la technologie est exploitée par les pirates.
“Avec la montée en puissance des modèles d’IA open source comme Deepseek, les barrières à l’entrée pour les cybercriminels n’ont jamais été plus bas”, a déclaré Raluca Saceanu, PDG de SmartTech247.
“Tout comme le public peut désormais générer facilement du contenu axé sur l’IA, les acteurs de la menace peuvent tout aussi facilement créer des attaques de phishing sophistiquées, automatiser la génération de logiciels malveillants et lancer des cyber-assauts à grande échelle avec un minimum d’effort”, a ajouté M. Saceanu.
«Nous exhortons fortement le gouvernement à égaler son engagement envers l’innovation de l’IA avec une stratégie et un investissement robustes de cybersécurité.
“Il est inutile de moderniser les services publics avec l’IA si nous exposons simultanément des infrastructures critiques et des données sensibles aux cybermenaces alimentées par l’IA.”
Le sommet de l’action de l’IA était-il un succès?
C’est une question que j’ai posée à Chatgpt pour voir ce que le chatbot IA le plus populaire du monde a fait de tout cela.
“Bien qu’il ait présenté des engagements importants à faire progresser l’intelligence artificielle, il a également mis en évidence les divisions mondiales concernant la gouvernance de l’IA”, a-t-il répondu.
“Le manque de consensus sur les cadres réglementaires et les tensions géopolitiques évidentes suggèrent que la réalisation de la gouvernance mondiale d’IA unifiée reste un défi”, selon Chatgpt.
Nous ne savons pas à quoi ressemblera le prochain Chatgpt ou Deepseek et quels pouvoirs il tiendra.
Une chose qui est certaine, c’est que les prochaines progrès se produiront rapidement.
Certains pays choisiront d’adopter et de contrôler ces développements.
D’autres, qui choisissent de réguler cette technologie à évolution rapide, peuvent avoir du mal à suivre.
#LIA #Summit #met #évidence #les #divisions #dans #règlement #technologique