Le plus grand danger de l’IA galopante n’est pas les robots tueurs

Le plus grand danger de l’IA galopante n’est pas les robots tueurs

2023-08-02 12:30:24

Le plus grand danger de l’humanité est quelque chose qui n’existe pas. Ça s’appelle Agi : Intelligence Artificielle Générale. C’est l’hypothèse que l’intelligence artificielle peut devenir super intelligente. Capable non seulement de reproduire ce que font les humains, mais aussi de comprendre, d’apprendre et d’effectuer toutes les tâches qu’un humain peut accomplir. Et faites-le mieux. Tant mieux car grâce à sa propre supériorité et à une conscience de soi acquise, il pourrait décider de nous rayer de la surface de la Terre s’il ne nous jugeait plus nécessaires. L’Agi pourrait se réveiller à tout moment, comme Cthulhu dans les romans de HP Lovecraft, dès que les algorithmes qui l’animent auront trouvé la bonne formule pour le faire. Mais Agi aujourd’hui n’est guère plus qu’un scénario possible. On ne sait pas quand, ni si un jour il y en aura.

C’est pourtant par crainte de son avènement qu’il y a quelques mois, 350 entrepreneurs et universitaires signaient une lettre demandant un moratoire de six mois sur le développement de l’intelligence artificielle (dont Elon Musk, patron de Tesla, et Steve Wozniak, co -fondateur d’Apple et grands spécialistes de l’apprentissage automatique). Peur partagée par Sam Altman, numéro un d’OpenAi, la société qui a créé ChatGpt, qui a fait le mois dernier le tour du monde pour serrer la main des chefs d’Etat et illustrer à la fois les risques possibles, mais aussi les opportunités concrètes de l’intelligence artificielle. Les deux se tiennent probablement.

Morozov : “Il y a un lobby de l’IA et ça répond à la logique du néolibéralisme numérique”

Le sociologue biélorusse Evgeny Morozov dans un article du New York Times a tenté de relier les points. Et il a émis l’hypothèse que ces craintes ont conduit à la création d’un lobby d’entrepreneurs et d’universitaires convaincus que, grâce à leur action, l’intelligence artificielle, une fois sécurisée, pourra sauver l’humanité d’elle-même. Il améliorera l’efficacité des États, des entreprises et promettra “la solution à tous les problèmes de l’humanité, y compris ceux qui sont trop complexes pour être résolus comme le changement climatique”. Pour Morozov, tout est une question d’idéologie. Il a également inventé un terme pour l’identifier : agismo, la croyance en la puissance illimitée d’Agi. “Une idéologie erronée”, plaide Morozov, basée sur la conviction que “l’intelligence artificielle fera tout mieux que nous”.

L’interview

Morozov: “Le garant sur ChatGpt a bien fait. L’IA de la Silicon Valley doit être combattue sur le plan politique et philosophique”

par l’Archange Rociola


Cette idéologie, portée par la conviction que l’IA fait mieux que les hommes, viserait à remplacer l’État par des entreprises dans diverses fonctions : transport public, santé, éducation, sécurité. “Les risques réels de l’AGI et ses implications sont de nature politique, pas de robots tueurs”, a écrit Morozov. “L’agisme est l’enfant illégitime d’une idéologie beaucoup plus large qui prêche, comme Margaret Thatcher l’a dit de manière mémorable, qu’il n’y a pas d’alternative au marché.” Selon Morozov, l’idéologie d’AI sert le néolibéralisme de la Silicon Valley pour réaffirmer ses principes : « que les acteurs privés sont meilleurs que les acteurs publics ; qu’il vaut mieux s’adapter à la réalité que la transformer ; que l’efficacité doit être préférée aux questions sociales ». C’est ce que Morozov appelle le “néolibéralisme numérique”, capable de “reconfigurer les problèmes d’une société dans une clé technologique, et de faire du profit”. Le sociologue rappelle une autre phrase de Thatcher : “La société n’existe pas”. Et la vision de ceux qui voient idéologiquement l’intelligence artificielle, comme les grands managers de la Silicon Valley, partirait du même postulat : « Ce lobby croit que l’intelligence n’existe que comme un produit de ce qui se passe dans l’esprit d’individus seuls. Mais en réalité, c’est aussi le résultat à la fois des politiques d’une entreprise et des attitudes individuelles ».

Alors que les alarmes se multiplient, les entreprises continuent de développer l’IA et de lever des milliards

Pour Morozov, si l’agisme devait l’emporter, “nous devrions être prêts à voir moins de politiques qui favorisent l’intelligence des gens”, car l’école et la formation pour les néolibéraux “sont des résidus de la société, qui pour eux n’existe pas”. En revanche, souligne-t-il, “le banquet ne fait que commencer : qu’il s’agisse de lutter contre la prochaine pandémie, la solitude ou l’inflation, l’IA est déjà présentée comme la solution idéale aux problèmes réels et imaginaires”. Les institutions démocratiques, selon Morozov, devraient rejeter cette idéologie, car sinon cela reviendrait à “confier la solution des problèmes de la société à des consultants spécialisés, mus uniquement par l’idée d’efficacité visant le profit”.

Le débat

Floridi : “ChatGpt est brutal et ne comprend pas. Mais bientôt l’IA remplacera les humains dans de nombreux métiers”

par l’Archange Rociola



Mais les institutions démocratiques ont encore la capacité d’éviter ce processus. « Arrêtez de financer des projets pour sécuriser l’IA, destinés uniquement à devenir des jeux de données pour former des logiciels de startups, et financer des projets pour la culture et l’éducation », moteurs de la seule véritable intelligence, celle des hommes.

Mais Agi, a-t-on dit, n’existe pas encore. Tout le monde n’est pas non plus d’accord sur l’idée qu’il pourrait être la plus grande menace pour l’humanité. “Nous en Chine n’avons pas ce débat et cette peur. La peur de l’Apocalypse est typique de la culture judéo-chrétienne. C’est dans la Bible. Nous, les Chinois, savons que nous avons 5 000 ans d’histoire et que nous serons toujours là », a déclaré Pascale Fung. Pour elle, professeure de science et de technologie à Hong Kong et l’une des plus grandes spécialistes mondiales de ces questions, l’intelligence artificielle “n’est qu’une machine”.

Interview

La religion affecte-t-elle notre relation avec l’IA ? En Asie, ils sont convaincus que

par Emmanuel Capone



Plus radical encore Yann LeCun, considéré comme l’un des pères du machine learning et responsable de la division Ai de Meta. Pour lui, ceux qui soutiennent les thèses de Musk ou d’Altman ont une approche “simpliste” de l’IA. Raison? “Ils pensent que si un système est intelligent, il doit nécessairement avoir des caractéristiques humaines”. Et qui donc voudra dominer, tuer, le différent de lui-même. “Nous avons le désir de dominer au même titre que les babouins et les chimpanzés, car nous sommes une espèce sociale avec une organisation hiérarchique. Mais ce n’est pas une caractéristique de l’intelligence, c’est une caractéristique de la façon dont la nature nous a fait évoluer.” Pendant ce temps, peurs ou pas, OpenAi et les autres continuent de former leurs algorithmes. Et pour conclure des accords commerciaux. Pour attirer des milliards d’investissements, promettant un bel avenir après l’Apocalypse.



#grand #danger #lIA #galopante #nest #pas #les #robots #tueurs
1690985145

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.