Pourquoi Facebook a arrêté son IA

Pourquoi Facebook a arrêté son IA

Intelligence artificielle (IA) est devenu populaire parmi les entreprises technologiques. L’avancement des chatbots, des programmes d’écriture et d’autres systèmes automatisés a a incité de nombreuses entreprises à commencer à utiliser l’IA au lieu de véritables travailleurs.

Une entreprise, en particulier, s’oppose à cette tendance : Facebook a fermé son système d’IA alors qu’il était encore en développement. Bien que l’entreprise ait déjà généré les robots nécessaires pour produire un système d’IAles équipes d’intelligence artificielle de Facebook s’inquiétaient de plus en plus de la manière dont ces robots communiquaient.

Pourquoi Facebook a-t-il arrêté sa recherche sur l’IA ?

  • Les chercheurs tentaient de créer des chatbots sophistiqués capables de communiquer comme des humains.
  • Les chatbots ont frustré les chercheurs en parlant de manière inhabituelle et parfois en code.
  • De même, Facebook a précédemment mis fin à son programme Galactica visant à améliorer la communication scientifique en raison de problèmes de comportement de l’IA.

Plus de David KoffAlternatives cURL : un guide d’introduction

L’objectif de la recherche en IA

Le plan initial de Facebook était de créer des chatbots uniques appelés Dialogue Agents. Les chercheurs du laboratoire de recherche sur l’IA de Facebook ou FAIR (rebaptisé plus tard Meta AI) ont créé ces chatbots, que Facebook avait l’intention de maîtriser le fonctionnement des conversations humaines. Les programmeurs et les chercheurs se sont concentrés principalement sur les négociations et les interactions. L’objectif de Facebook était de créer des chatbots capables de reconnaître si bien le discours humain complexe que les utilisateurs humains ne pouvaient pas distinguer qu’ils discutaient avec un robot IA et non avec un être humain, quelque chose de similaire au Essai de virage.

Facebook a rapidement compris que leurs chatbots n’avaient aucun sens lorsqu’ils interagissaient les uns avec les autres. Bien que programmés pour parler un anglais simple, les robots ont rapidement adopté une forme d’anglais qui n’était pas compréhensible pour les chercheurs et les programmeurs du projet. Un bot a répété plusieurs fois exactement les mêmes mots, tandis qu’un autre parlait en termes qui n’étaient pas identifiables d’un point de vue syntaxique. Dans une tournure fascinante, les bots se sont compris malgré la confusion de l’équipe Facebook. Dans un exemple, les robots ont compris un échange réussi, même lorsque le texte était inintelligible pour les chercheurs et les programmeurs de FAIR.

Comment l’IA s’adapte

Les chercheurs ont réalisé que leurs robots avaient commencé à s’adapter au langage comme le font parfois les humains, en utilisant des termes abrégés ou de l’argot. Dans certains cas, ils ont également adopté la compétence humaine de parler en code. Ces mots de code – uniquement compréhensibles par les bots – ont laissé les programmeurs et les chercheurs de Meta bloqués. En réponse, l’équipe de Meta a tenté de déjouer leurs bots en modifiant leur programmation et en les forçant à discuter uniquement en utilisant des mots qui apparaissent dans un dictionnaire de langue anglaise.

Mais même avec cette limitation, les robots ont quand même réussi à produire un discours qui n’était pas facile à comprendre pour les programmeurs. Pire encore, dans certains cas, les robots sont devenus critiques ou inappropriés lors de la discussion de certains sujets.

Problèmes avec la recherche sur l’IA

Cet effort n’était pas la première tentative de Facebook de créer un chatbot IA. Facebook précédemment créé un programme d’IA appelé « Galactica » dont le but était d’utiliser apprentissage automatique comprendre et organiser la science pour ses utilisateurs. Facebook a tenté de rendre cela possible en l’alimentant de 48 millions d’articles scientifiques. L’espoir était qu’après avoir eu accès à toutes ces informations, Galactica pourrait trouver de nouvelles connexions qui pourraient aider à faire avancer les découvertes scientifiques.

Mais Galactica avait besoin d’aide pour produire des informations précises. Au lieu de cela, il a créé des réponses qui se contredisaient parfois ou fournissaient simplement des informations incorrectes. Certaines réponses de Galactica étaient si farfelues qu’elles semblaient fausses. Pire encore, il avait du mal à comprendre ou à calculer les mathématiques au niveau de l’école primaire.

Les chercheurs ont arrêté le système après seulement deux jours.

Le programme d’entraînement de Facebook pour Galactica met peut-être en évidence le plus grand défi pour la technologie de l’IA : elle est programmée par des humains à l’aide d’informations générées par l’homme. Comme tous les humains sont biaisés, ces biais sont transmis à notre IA.

Ce problème pourrait expliquer pourquoi certaines technologies d’IA produisent de fausses idées, interprètent le sarcasme comme une vérité ou imitent la tendance humaine à devenir hostile aux autres.

Plus dans l’IAÊtes-vous prêt pour l’ère de la co-création avec l’IA ?

L’avenir de l’IA

Bien que l’IA puisse être utile pour produire de nouveaux contenus, il est actuellement impossible de contrôler chaque aspect de son comportement. En mars 2023, la technologie est encore nouvelle. Pour le moment, de nombreux robots sont difficiles à maîtriser et peuvent devenir difficiles à comprendre ou incapables de produire des informations précises.

Les problèmes de Facebook avec le développement de l’IA sont la preuve que l’industrie a besoin d’un raffinement et d’un soutien supplémentaires. Pour l’instant, la seule façon pour l’IA de devenir plus performante est que ses créateurs fassent des recherches plus approfondies. La programmation doit être mise à jour et affinée afin que ces robots puissent imiter et maîtriser les langages parlés que les humains utilisent pour communiquer entre eux.

Peut-être qu’à l’avenir, l’IA pourra s’améliorer sans l’intervention à plein temps de ses créateurs humains.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.