Tout au long de sa carrière, le Dr Yejin Choi s’est attaqué à certains des aspects les plus difficiles – et parfois impopulaires – de l’intelligence artificielle (IA).
Yejin est l’un des meilleurs chercheurs en traitement du langage naturel (NLP) et en IA. Son travail révolutionnaire sur des sujets tels que la capacité de l’IA à utiliser un raisonnement de bon sens lui a valu une large reconnaissance, notamment une bourse MacArthur.
Dans cette séance de questions-réponses, Yejin partage ses projets pour son nouveau rôle, comment elle a choisi son cheminement de carrière et décrit comment avoir grandi en Corée du Sud et s’intéresser à la science l’a inspirée à emprunter des chemins moins fréquentés.
Parlez-nous de votre poste chez HAI et de ce que vous espérez accomplir.
En tant que chercheur principal, j’ai hâte de me concentrer sur ce que j’aime vraiment : la recherche sur l’IA en tenant compte de son impact sur les humains. Je poursuivrai le travail interdisciplinaire qui a défini ma carrière, en m’inspirant de domaines tels que les neurosciences cognitives et la philosophie pour guider la conception et l’évaluation de l’IA. Le potentiel de redonner à ces domaines en offrant des idées qui pourraient soutenir leurs propres efforts intellectuels est encore plus inspirant. C’est ma vision.
Collaborer avec des philosophes moraux comme John Tasioulas de l’Université d’Oxford sur la prise de décision morale de l’IA a suscité mon intérêt pour l’exploration de la manière dont les grands modèles de langage (LLM) pourraient prendre des décisions morales. Cela m’a amené à étudier l’alignement pluraliste – le concept selon lequel il pourrait y avoir plusieurs réponses à une question plutôt qu’une seule réponse « en or ». Les modèles d’IA récents fonctionnent souvent sous l’hypothèse d’une solution idéale, mais la réalité est bien plus complexe et influencée par des facteurs tels que les normes culturelles. Cette prise de conscience a souligné l’importance de garantir que l’IA soit réellement sans danger pour les humains. Nous devons veiller à ce que l’IA ne soit pas étroitement optimisée pour un seul résultat, et je suis impatient d’investir massivement dans ce travail à Stanford HAI.
Je souhaite également me concentrer sur des travaux plus algorithmiques, en particulier sur la conception de modèles d’IA moins gourmands en données et plus efficaces en termes de calcul. Les LLM actuels sont excessivement volumineux, coûteux et limités aux quelques entreprises technologiques capables de les créer. Les LLM plus petits – ou SLM – sont une autre direction de recherche que je suis impatient de poursuivre à Stanford HAI.
Parlez de la façon dont vous êtes arrivé sur ce chemin jusqu’à là où vous en êtes maintenant ?
Mon parcours est particulièrement compliqué. Lorsque j’ai décidé de faire mon doctorat en traitement du langage naturel et en vision par ordinateur, l’IA n’était pas encore un domaine populaire. En fait, beaucoup de gens me l’ont déconseillé. Mais je suis en quête d’aventure et j’ai été attiré par le fait que les gens n’étaient pas encore enthousiasmés par cela. Alors que d’autres domaines étaient plus établis, je souhaitais me positionner dans un domaine qui pourrait un jour prendre de l’importance.
Mon attirance pour les choses risquées a commencé lorsque j’étais une fille qui grandissait en Corée du Sud. Je suis devenu fasciné par un concours visant à faire voler des avions en bois. L’un des organisateurs a remis en question ma participation, estimant que les filles ne devraient pas être impliquées. J’ai souvent été confronté à de nombreux commentaires déprimants comme celui-ci. Tout au long de ma carrière, j’ai été aux prises avec beaucoup de doutes et de peurs en raison des normes culturelles avec lesquelles j’ai grandi. Cependant, cela m’a permis de mieux comprendre comment les normes culturelles peuvent influencer la vie d’une personne, une perspective qui a influencé mes intérêts de recherche.
Je ne suis pas allé directement de l’université aux études supérieures parce que je ne voyais pas cela comme une option à l’époque. Au lieu de cela, j’ai commencé ma carrière après l’université en tant que développeur de logiciels travaillant pour Microsoft à Seattle vers 2000. Après un certain temps, j’ai décidé que je voulais faire quelque chose de plus risqué, à savoir un doctorat en IA.
Finalement, mon intérêt s’est tourné vers le bon sens et l’IA – un défi de longue date que les gens méprisaient à l’époque en raison du manque de progrès dans ce domaine. C’est considéré comme un défi presque impossible. Même si j’ai compris pourquoi certaines personnes avaient une opinion négative à ce sujet, je l’ai vu comme un défi crucial pour faire progresser l’IA, car une grande partie de notre compréhension du monde repose sur plus que le texte visible que nous voyons. Pour que les modèles d’IA soient vraiment utiles, ils doivent comprendre les règles tacites sur le fonctionnement du monde. Les échecs du passé ne signifiaient pas nécessairement que nous échouerions à nouveau, surtout compte tenu des progrès réalisés depuis lors en matière de données ou de puissance de calcul.
Quelles sont certaines de vos réalisations notables ?
Pendant mon séjour à l’Université Stony Brook, j’ai collaboré avec Jeff HancockDirecteur fondateur de Laboratoire de médias sociaux de Stanfordà créer un modèle PNL qui pourrait analyser les modèles linguistiques du langage pour détecter si une évaluation de produit était fausse ou non. Ce travail était particulièrement important à l’époque car c’était une époque où les critiques de produits devenaient très influentes. Ce qui est fascinant, c’est que l’utilisation de pronoms ou le fait que quelqu’un ait tendance à utiliser plus de noms que d’adverbes peut en fait fournir de très bons indices pour savoir si une critique est fausse.
Et, aussi surprenant que cela puisse paraître, remporter le Bourse MacArthur car mon travail sur l’utilisation de la PNL pour aider l’IA à utiliser le raisonnement de bon sens était une véritable validation pour avoir choisi de poursuivre le bon sens et l’IA alors que d’autres n’étaient pas d’accord.
#Enseigner #lIA #fonctionnement #monde