Les scientifiques de l’ADN ont fait une pause il y a 50 ans, les chercheurs en IA feront-ils de même ?

Les scientifiques de l’ADN ont fait une pause il y a 50 ans, les chercheurs en IA feront-ils de même ?

À l’été 1974, un groupe de chercheurs internationaux a publié une lettre ouverte urgente demandant à leurs collègues de suspendre les travaux sur une nouvelle technologie potentiellement dangereuse. La lettre était une première dans l’histoire de la science – et maintenant, un demi-siècle plus tard, elle s’est reproduite.

La première lettre, «Dangers potentiels des molécules d’ADN recombinantes», a appelé à un moratoire sur certaines expériences de transfert de gènes entre différentes espèces, une technologie fondamentale pour le génie génétique.

La lettre de ce mois de mars, “Pause des expériences d’IA géantes”, provenaient de grands chercheurs en intelligence artificielle et de notables tels que Elon Musk et Steve Wozniak. Tout comme dans la lettre sur l’ADN recombinant, les chercheurs ont appelé à un moratoire sur certains projets d’IA, avertissant d’un possible «événement d’extinction de l’IA».

Certains scientifiques de l’IA avaient déjà appelé à une recherche prudente sur l’IA en 2017, mais leur inquiétude n’a guère attiré l’attention du public jusqu’à l’arrivée de l’IA générative, d’abord publiée sous le nom de ChatGPT. Soudain, un outil d’IA pourrait écrire des histoires, peindre des images, mener des conversations, voire écrire des chansons – toutes des capacités humaines auparavant uniques. La lettre de mars suggérait que l’IA pourrait un jour devenir hostile et même éventuellement devenir notre remplaçant évolutif.

Bien qu’à 50 ans d’intervalle, les débats qui ont suivi les lettres de l’ADN et de l’IA présentent une similitude essentielle : dans les deux cas, une préoccupation relativement spécifique soulevée par les chercheurs est rapidement devenue un proxy public pour toute une gamme d’inquiétudes politiques, sociales et même spirituelles.

La lettre sur l’ADN recombinant s’est concentrée sur le risque de créer accidentellement de nouvelles maladies mortelles. Les opposants au génie génétique ont élargi cette préoccupation à divers scénarios de catastrophe : un virus génocidaire programmé pour tuer un seul groupe racial, des saumons génétiquement modifiés si vigoureux qu’ils pourraient s’échapper des fermes piscicoles et détruire les écosystèmes côtiers, une augmentation de l’intelligence fœtale accessible uniquement aux riches. Il y a même eu des manifestations de rue contre l’expérimentation de l’ADN recombinant dans des villes de recherche clés, notamment San Francisco et Cambridge, Mass. Le maire de Cambridge averti des “monstres” issus de la bio-ingénierie et a demandé: “Est-ce la réponse au rêve du Dr Frankenstein?”

Dans les mois qui ont suivi la lettre “Pause Giant AI Experiments”, les scénarios catastrophes ont également proliféré : l’IA permet l’état de surveillance totalitaire ultime, une application d’IA militaire folle lance une guerre nucléaire, des IA super intelligentes collaborent pour saper l’infrastructure de la planète. Et il y a aussi des pressentiments moins apocalyptiques : des pirates informatiques imparables alimentés par l’IA, des campagnes mondiales massives de désinformation sur l’IA, un chômage endémique alors que l’intelligence artificielle prend nos emplois.

La lettre d’ADN recombinant a conduit à une réunion de quatre jours sur le terrain de la conférence d’Asilomar sur la péninsule de Monterey, où 140 chercheurs se sont réunis pour rédiger des directives de sécurité pour les nouveaux travaux. J’ai couvert cette conférence en tant que journaliste, et les débats ont rayonné d’histoire en devenir: un who’s who des meilleurs généticiens moléculaires, y compris des lauréats du prix Nobel ainsi que de jeunes chercheurs qui ont ajouté l’idéalisme des années 1960 au mélange. La discussion séance après séance était controversée; les carrières, les travaux en cours, la liberté de la recherche scientifique étaient tous potentiellement en jeu. Mais il y avait aussi la crainte implicite que si les chercheurs ne rédigeaient pas leurs propres réglementations, le Congrès le ferait pour eux, de manière beaucoup plus brutale.

Avec seulement quelques heures à perdre le dernier jour, la conférence a voté pour approuver des directives qui seraient ensuite codifiées et appliquées par les National Institutes of Health ; des versions de ces règles existent encore aujourd’hui et doivent être suivies par tout organisme de recherche qui reçoit un financement fédéral. Les directives influencent également indirectement l’industrie commerciale de la biotechnologie, qui dépend en grande partie de la science financée par le gouvernement fédéral pour de nouvelles idées. Les règles ne sont pas parfaites, mais elles ont assez bien fonctionné. Au cours des 50 années qui ont suivi, nous n’avons eu aucune catastrophe liée au génie génétique. (Même si le virus COVID-19 s’est échappé d’un laboratoire, son génome n’a pas montré de preuve de génie génétique.)

Le défi de l’intelligence artificielle est un problème plus compliqué. Une grande partie de la nouvelle recherche sur l’IA est effectuée dans le secteur privé, par des centaines d’entreprises allant des petites startups aux mammouths technologiques multinationaux – aucune n’est aussi facilement réglementée que les institutions universitaires. Et il existe déjà des lois sur la cybercriminalité, la vie privée, les préjugés raciaux et plus encore qui couvrent bon nombre des craintes concernant l’IA avancée ; combien de nouvelles lois sont réellement nécessaires? Enfin, contrairement aux lignes directrices sur le génie génétique, les règles de l’IA seront probablement rédigées par des politiciens. En juin, le Parlement de l’Union européenne a adopté son projet de loi sur l’IAune proposition ambitieuse de réglementation de l’IA qui pourrait être ratifiée d’ici la fin de l’année mais qui a déjà été critiquée par les chercheurs comme trop stricte.

Jusqu’à présent, aucune législation proposée ne répond à la préoccupation la plus dramatique de la lettre de moratoire sur l’IA : l’extinction humaine. Mais l’histoire du génie génétique depuis la conférence d’Asilomar suggère que nous avons peut-être un peu de temps pour examiner nos options avant toute apocalypse potentielle de l’IA.

Le génie génétique s’est révélé beaucoup plus compliqué que prévu il y a 50 ans. Après les craintes et l’optimisme initiaux des années 1970, chaque décennie a confronté les chercheurs à de nouvelles énigmes. Un génome peut avoir d’énormes séries de gènes identiques et répétitifs, pour des raisons encore mal comprises. Les maladies humaines impliquent souvent des centaines de gènes individuels. La recherche en épigénétique a révélé que des circonstances externes – alimentation, exercice, stress émotionnel – peuvent influencer de manière significative le fonctionnement des gènes. Et l’ARN, autrefois considéré comme un simple messager chimique, s’avère avoir un rôle beaucoup plus puissant dans le génome.

Cette complexité qui se déploie peut également s’avérer vraie pour l’IA. Même les poèmes, peintures ou conversations les plus humains produits par l’IA sont générés par une analyse purement statistique de la vaste base de données qu’est Internet. Produire l’extinction humaine exigera beaucoup plus de l’IA : en particulier, une conscience de soi capable d’ignorer les souhaits de ses créateurs et d’agir plutôt dans les propres intérêts de l’IA. Bref, la conscience. Et, comme le génome, la conscience deviendra certainement beaucoup plus compliquée à mesure que nous l’étudierons.

Le génome et la conscience ont tous deux évolué au cours de millions d’années, et supposer que nous pouvons faire de l’ingénierie inverse dans quelques décennies est un peu présomptueux. Pourtant, si un tel orgueil conduit à une prudence excessive, c’est une bonne chose. Avant que nous ayons réellement mis la main sur les contrôles complets de l’évolution ou de la conscience, nous aurons tout le temps de comprendre comment procéder comme des adultes responsables.

Michael Rogers est un auteur et futuriste dont le livre le plus récent est “Email from the Future: Notes from 2084. Sa couverture à la volée de la conférence Asilomar sur l’ADN recombinant, « Le congrès de la boîte de Pandore », a été publié dans Rolling Stone en 1975.

2023-06-25 13:00:27
1687782294


#Les #scientifiques #lADN #ont #fait #une #pause #ans #les #chercheurs #ferontils #même

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.