2024-06-13 16:04:38
« Au G7, le pape mettra en garde contre les risques de l’intelligence artificielle pour la paix mondiale. C’est sa principale préoccupation. Et je sais qu’il espère une intervention de l’ONU sur ces questions. » Mgr Vincenzo Paglia a été le premier à parler avec le pape François de l’intelligence artificielle. L’archevêque, président de l’Académie pontificale pour la vie, entretient depuis des années un dialogue ouvert avec le Pontife sur les risques et les opportunités liés à l’IA. Un dialogue qui a commencé des années avant l’explosion de cette technologie.
Monseigneur Paglia, quand Bergoglio a-t-il commencé à s’intéresser à ces questions ?
« En 2019, Brad Smith, alors président de Microsoft, est venu me rendre visite à Rome pour comprendre si l’Église pouvait soutenir leur travail à la frontière des nouvelles technologies. Même à cette époque, il était clair que ces outils pouvaient faire de très bonnes choses pour l’avenir de l’humanité, mais aussi potentiellement provoquer des catastrophes sans précédent. Je me souviens qu’il m’a dit qu’à Redmond (siège de Microsoft, ndlr), il y avait environ 50 000 ingénieurs et qu’aucun d’entre eux n’avait une idée claire de quelle pouvait être la limite entre l’action de la machine et celle de l’homme. Ils cherchaient une discussion sur les enjeux éthiques liés à ces innovations de pointe. »
Et ce qui est arrivé?
« Je l’ai présenté au Pape. Nous avons parlé de ces nouvelles frontières. Nous avons parlé des risques de l’IA, notamment ceux liés au thème de la désinformation, et de l’éducation des jeunes. L’année suivante, nous avons lancé l’Appel de Rome pour l’IA (l’initiative du Vatican pour l’utilisation éthique de l’IA, ndlr). C’est à ce moment-là que Bergoglio a commencé à s’intéresser à ces questions. »
Depuis, tout a changé. L’IA a montré un potentiel difficile à imaginer.
«Depuis lors, de nombreux représentants d’autres entreprises sont venus au Vatican. Bergoglio a immédiatement compris à quel point ce thème pouvait devenir central pour l’avenir de l’humanité. Pas seulement pour l’éducation ou la communication. Mais surtout pour la guerre, où l’utilisation de ces outils représenterait un risque énorme pour les populations impliquées. Le pape est conscient que nous sommes devant quelque chose d’énorme. Et qu’une IA sans éthique ni cadre juridique comporte d’énormes risques. Mais il faut dire en même temps que son potentiel est énorme. Dans les domaines médical et scientifique par exemple. Nous avons besoin d’une sensibilisation adéquate.
Que dira le Pape au G7 de Bari ?
« Je crois qu’il parlera avant tout de paix. Il sait bien à quel point l’IA peut être dangereuse pour les guerres futures. Les drones, les cyberattaques, les machines autonomes pourraient avoir d’énormes conséquences sur les civils impliqués dans les guerres. Mais je pense qu’il parlera également de l’importance de réglementer l’IA dans le monde de la communication et de l’éducation. »
Pourquoi pensez-vous que l’IA est devenue un sujet si central ?
« Parce que le développement technologique touche au cœur même de la liberté humaine. Parce que l’homme peut être manipulé. Parce que le développement non réglementé de l’IA peut mettre les démocraties en danger. Car les données que nous fournissons inconsciemment aux géants technologiques sont devenues une richesse inimaginable pour ceux qui les possèdent. À partir de ces tables, nous demanderons un élargissement de la responsabilité des gouvernements. Il faut réguler ce sujet qui est innovant. Je sais que le Pape aimerait que l’ONU intervienne sur ces questions. »
Avons-nous besoin d’une orientation plus large de la part du G7 ?
« Nous avons besoin d’une action qui implique tous les grands pays. Un G7 sans la Chine est un problème. Car la Chine dispose également de technologies avancées dans ce secteur. La perspective doit être beaucoup plus large. Cela dit, ce G7 est un point de départ. Giorgia Meloni a eu grand plaisir d’avoir invité le Pape. Bergoglio a eu grand plaisir d’avoir accepté l’invitation.”
Comment imaginez-vous une intervention plus large pour réglementer l’IA, peut-être à l’ONU ?
« Mon idée est que tous les gouvernements de la Terre se réunissent pour déterminer des règles éthiques et juridiques de gestion de cette technologie très sophistiquée. Comme cela a été fait par le passé pour le nucléaire ou pour le climat. Nous devons créer une prise de conscience mondiale sur ces questions, impliquant les gouvernements et les entreprises. Sans cela, la stabilité et la paix mondiales seront menacées. »
Jusqu’à présent, qui a impliqué votre manifeste pour une IA éthique ?
« Cela a commencé à l’Université pontificale et a été partagé entre autres par Microsoft, IBM, Cisco. Mais cela ne concerne pas seulement l’Église. Nous avons impliqué le Grand Rabbin d’Israël, le Grand Mufti d’Arabie Saoudite, l’Archevêque de Cantorbéry. À Hiroshima, nous discuterons de ces questions avec toutes les religions, en essayant également d’impliquer celles de l’Est. »
L’intelligence artificielle a démontré qu’elle pouvait faire les choses aussi bien, voire mieux, que les humains. Pour la première fois dans l’histoire, une machine semble faire mieux que nous dans la qualité que nous considérons le plus comme la nôtre : l’intellect. En tant que religieux, quelle idée avez-vous de ce changement de rapport entre l’homme et la machine ?
« Un de mes livres sortira en octobre et parlera de ces thèmes. Je pense que l’intelligence artificielle est le résultat des capacités humaines. C’est un produit de l’homme. Tout comme la massue, qui pouvait être utilisée comme outil de chasse ou pour tuer un autre être humain. C’est toujours l’homme qui produit ces instruments. L’IA présente un plus grand risque, et plus la technologie progresse, plus les risques seront grands. Mais la logique est toujours la même. Il faut intervenir, réguler, se fixer des objectifs éthiques pendant qu’il est encore temps.”
Sommes-nous encore dans le temps ?
« Aujourd’hui, le risque est que, même si la capacité créatrice de la technologie est énorme et progresse rapidement, la capacité humaine à s’adapter et à prendre des contre-mesures d’un point de vue éthique ou juridique est plus lente. OpenAi pensait créer ChatGpt en 10 ans, il nous en a fallu 3. Si la technologie fonctionne, si nous voulons encore être dans le temps, nous devons apprendre à courir davantage.
#Mgr #Paglia #Lutilisation #lIA #dans #les #guerres #inquiète #Pape #demandera #aux #gouvernements #dintervenir
1718301248