Les humains répètent déjà les mots qu’ils apprennent de ChatGPT, comme « fouiller » ou « méticuleux » | Technologie

2024-10-24 06:20:00

Le chercheur Ezequiel López participait récemment à une conférence universitaire et a été surpris d’entendre l’insistance des intervenants sur certains mots, comme creuser, qui consiste à approfondir, approfondir ou approfondir, en anglais. Un autre chercheur de l’Institut Max Planck pour le développement humain (Berlin) a eu un sentiment similaire : certains mots étaient soudainement répétés dans les présentations et étaient à peine entendus auparavant.

Il y avait déjà eu des recherches sur la façon dont des mots curieux s’étaient glissés à plusieurs reprises dans des articles scientifiques, des phrases ou des paragraphes écrits par ChatGPT ou d’autres intelligences artificielles. Se pourrait-il que les humains répétaient déjà oralement des mots popularisés par les machines ? Ils ont décidé de l’analyser. Le premier défi consistait à trouver suffisamment d’articles récents. Ils ont rassemblé quelque 300 000 vidéos de conférences universitaires et créé un modèle pour vérifier la fréquence d’apparition de certains mots ces dernières années : « Notre question est de savoir s’il peut y avoir un effet d’adoption et de transmission culturelle, si les machines changent notre culture et si ensuite ça se propage », dit López.

La réponse est oui. En 2022, ils ont détecté un tournant dans les mots anglais qui étaient auparavant rarement entendus comme tels. creuser (creuser), méticuleux (méticuleux), royaume (royaume, domination) expert (être compétent dans quelque chose). Iyad Rahwan, professeur à l’Institut Max Planck et co-auteur de la recherche, déclare : « C’est surréaliste. Nous avons créé une machine qui peut parler, qui a appris à le faire grâce à nous, à notre culture. Et maintenant, nous apprenons de la machine. “C’est la première fois dans l’histoire qu’une technologie humaine peut nous apprendre des choses de manière aussi explicite.”

Il n’est pas si étrange que les humains répètent de nouveaux mots que nous venons d’apprendre. Et encore plus s’il s’agit de locuteurs non natifs, comme c’est le cas d’une partie significative de l’échantillon en l’espèce. «Je ne pense pas que ce soit une raison de s’alarmer car, en fin de compte, cela démocratise les compétences en communication. Si vous êtes japonais et que vous êtes un leader mondial dans votre domaine scientifique, mais que lorsque vous parlez en anglais lors d’une conférence, vous ressemblez à un Américain de maternelle, certains préjugés sont également générés concernant votre autorité », explique López.

ChatGPT permet à ces locuteurs non natifs de mieux capturer les nuances et d’incorporer des mots qu’ils n’utilisaient pas auparavant. “Si vous n’êtes pas anglophone et que demain vous allez au cinéma et qu’il y a un nouveau mot qui vous surprend, vous l’adopterez probablement aussi, comme c’est le cas avec marge de manœuvre (marge de manœuvre) dans Oppenheimer; ou avec confinement pendant la pandémie », explique López. Mais il y a une réserve, souligne ce chercheur. Il est très particulier que les mots adoptés lors de ces conférences académiques ne soient pas des noms permettant de décrire quelque chose de plus précisément, mais plutôt des mots instrumentaux tels que des verbes ou des adjectifs.

Il y a deux conséquences curieuses à cette adoption. Premièrement, depuis qu’il est devenu évident dans le monde universitaire que ces mots sont créations de ChatGPT, sont devenus maudits : leur utilisation peut être mal vue. « Je constate déjà cela dans mon propre laboratoire. Chaque fois que quelqu’un utilise « delve », tout le monde le comprend instantanément et se moque de lui. C’est devenu un mot tabou pour nous », déclare Rahwan.

La deuxième conséquence pourrait être pire. Et si, au lieu de nous faire adopter des mots au hasard, ces machines étaient capables de nous mettre dans la tête des mots plus connotés ? « D’une part, ce que nous avons trouvé est plutôt inoffensif. Mais cela montre l’énorme pouvoir de l’IA et le peu d’entreprises qui la contrôlent. ChatGPT est capable d’avoir des conversations simultanées avec un milliard de personnes. Cela lui confère un pouvoir considérable pour influencer la façon dont nous voyons et décrivons le monde », explique Rahwan. Une machine comme celle-ci pourrait déterminer la manière dont les gens parlent de guerres comme celles d’Ukraine ou du Moyen-Orient, ou comment ils décrivent les personnes d’une race particulière ou appliquent une vision biaisée des événements historiques.

À l’heure actuelle, en raison de son adoption mondiale, l’anglais est la langue dans laquelle il est le plus facile de détecter ces changements. Mais est-ce que cela se produira aussi en espagnol ? «Je me suis demandé. Je suppose que quelque chose de similaire se produira, mais la majeure partie de la science et de la technologie est en anglais », déclare López.

Cela affecte également l’intelligence collective

L’IA générative peut avoir des conséquences insoupçonnées dans bien d’autres domaines que le langage. Dans une autre recherche publiée dans Nature Comportement humain, López et ses co-auteurs ont découvert que l’intelligence collective, telle que nous la comprenons, est en danger si nous commençons à utiliser massivement l’IA. Les sites de code collaboratif comme GitHub ou Stack Overflow perdront leur rôle si chaque programmeur utilise un bot pour générer du code. Il ne sera plus nécessaire de consulter ce que d’autres collègues ont fait auparavant, ni de l’améliorer ou de le commenter.

Images tirées de conférences analysées pour vérifier la croissance des mots promus par ChatGPT et d’autres IA génératives.

Pour Jason Burton, professeur à la Copenhagen Business University et co-auteur de l’article, « les modèles linguistiques ne signifient pas la fin de GitHub ou de Stack Overflow. Mais ils changent déjà la manière dont les gens contribuent et interagissent avec ces plateformes. Si les gens se tournent vers ChatGPT au lieu de rechercher des informations sur les forums publics, nous continuerons probablement à constater une diminution de l’activité sur ces plateformes, car les contributeurs potentiels n’auront plus leur audience.

La programmation n’est qu’une des victimes potentielles de l’IA. Wikipédia et ses rédacteurs deviennent encore de simples critiques si tout est écrit par un robot. Même l’éducation est quelque chose qui devrait être revue, selon López : « Imaginons que, dans le système éducatif actuel, les enseignants et les étudiants s’appuient de plus en plus sur ces technologies ; certains pour concevoir des questions et d’autres pour rechercher les réponses. À un moment donné, nous devrons repenser la fonction que devraient avoir ces systèmes et quel serait notre nouveau rôle efficace dans la coexistence avec eux. “Surtout pour que l’éducation ne finisse pas par être composée d’élèves et d’enseignants faisant semblant des deux côtés et jouant, huit heures par jour, une pièce de théâtre.”

Ces modèles linguistiques ne sont pas seulement la promesse de quelque chose de mauvais pour l’intelligence collective. Ils sont également capables de résumer, d’ajouter ou d’arbitrer des processus de délibération collaboratifs complexes. Mais, comme le souligne Burton, la prudence doit être fondamentale dans ces processus pour éviter les coïncidences dans la pensée de groupe : « Même si chaque capacité individuelle est améliorée en utilisant une application comme ChatGPT, cela pourrait toujours conduire à de mauvais résultats au niveau collectif. “Si tout le monde commence à s’appuyer sur la même application, cela pourrait homogénéiser leurs points de vue et amener de nombreuses personnes à commettre les mêmes erreurs et à négliger les mêmes choses, au lieu que chaque personne fasse des erreurs différentes et se corrige mutuellement.” Par conséquent, avec leur étude, ces chercheurs demandent une réflexion et d’éventuelles interventions politiques pour permettre un champ plus diversifié de développeurs de modèles de langage et ainsi éviter un paysage dominé par un modèle unique.




#Les #humains #répètent #déjà #les #mots #quils #apprennent #ChatGPT #comme #fouiller #méticuleux #Technologie
1730080617

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.