Il est crucial d’améliorer notre rigueur dans l’utilisation de l’IA générative au travail. Découvrons comment.
Interroger l’IA avec intelligence
Table of Contents
Comment optimiser les résultats d’un système complexe comme un LLM, entraîné sur d’énormes quantités de données et guidé par les probabilités ? Plusieurs approches sont possibles.
Penser étape par étape
Il est nécessaire de décomposer les instructions données à une IA générative en étapes distinctes, en optimisant chaque étape. cette approche rappelle l’organisation scientifique du travail appliquée à la fabrication industrielle.Ici, le processus de l’IA repose sur une chaîne de pensées visant à obtenir un résultat précis. Des études ont démontré que cette décomposition des tâches de raisonnement améliore considérablement les performances des outils d’IA générative,particulièrement pour les problèmes complexes.Jason Wei, chercheur chez openai, a exploré le raisonnement par chaîne de pensées.
Ajouter la simple phrase « Réfléchissons étape par étape » aux instructions d’un LLM peut tripler l’exactitude de ses réponses pour diverses tâches, des mathématiques au raisonnement stratégique. Prenons l’exemple suivant : « Mon service dispose d’un budget de 500 000 dollars. Nous avons dépensé 20% en matériel et alloué 30% pour une nouvelle embauche. Nous venons de recevoir une rallonge budgétaire de 50 000 dollars. Quel budget nous reste-t-il ? Raisonnons étape par étape. » Le modèle répondra : « Votre service disposait initialement de 500 000 dollars. Vous en avez dépensé 20%, soit 100 000 dollars, en matériel, ce qui vous laisse 400 000 dollars. Vous avez alloué 30%, soit 150 000 dollars, pour une nouvelle embauche, ce qui ramène votre budget à 250 000 dollars. Enfin, vous avez récemment reçu une rallonge budgétaire de 50 000 dollars. Il vous reste un budget de 300 000 dollars. » Bien que ce calcul soit simple,l’intérêt réside dans la capacité des LLM à détailler leur travail sur des problèmes quantitatifs plus complexes,comme la recherche du trajet le plus court pour un conseiller commercial visitant plusieurs villes. cela crée une chaîne de raisonnement traçable, permettant de vérifier la pertinence des résultats.
Entraîner les LLM par étapes
Pour une collaboration homme-machine efficace sur des tâches complexes nécessitant une expertise professionnelle, comme le droit, la médecine, la R&D ou la gestion des stocks, il est possible d’éduquer une IA au travail par étapes pour améliorer la qualité des réponses.Tyler D. Ross et Ashwin Gopinath, chercheurs au MIT, ont exploré la possibilité de développer un « AI scientist » capable d’intégrer des données expérimentales variées et de générer des hypothèses testables. Ils ont découvert que ChatGPT 3.5-turbo pouvait être ajusté pour apprendre la biophysique structurelle de l’ADN en décomposant cette tâche complexe en sous-tâches. Dans le domaine de la gestion des stocks, les étapes pourraient être : prévisions de demande, collecte des données d’inventaire, projections des nouvelles commandes, évaluation du volume de commandes et évaluation des performances. Pour chaque sous-tâche, les managers entraîneraient, testeraient et valideraient le modèle avec leur expertise et les informations pertinentes.
Explorer de façon créative avec les LLM
De nombreux processus professionnels, de la conception stratégique au développement de produit, sont ouverts et itératifs. Pour optimiser l’interaction homme-IA dans ces activités, il est important de guider les machines pour qu’elles visualisent de multiples chemins potentiels vers une solution et fournissent des réponses moins linéaires.
Ce type d’interrogation intelligente peut améliorer la capacité des LLM à produire des prédictions exactes concernant des événements financiers et politiques complexes.Philipp schoenegger et Philip Tetlock ont couplé des prévisionnistes humains à des assistants GPT-4 pré-entraînés pour être des « superprévisionnistes » : assigner des probabilités et des intervalles d’incertitude à des résultats possibles et proposer des arguments pour et contre chaque résultat. Les prédictions réalisées par ces assistants étaient plus précises que celles générées par des LLM non préparés.
Incorporer votre jugement
L’intégration d’un discernement humain expert et éthique est essentielle pour générer des résultats d’IA fiables, exacts et explicables, ayant un impact positif sur la société. voici quelques techniques à utiliser :
Intégrer la RAG
Les LLM peuvent produire des informations erronées et les données avec lesquelles ils sont entraînés sont souvent obsolètes. Il est donc important d’évaluer la fiabilité, la pertinence et l’actualisation des données. La génération augmentée par récupération (RAG) permet d’ajouter des informations issues de bases de connaissances expertes aux sources d’entraînement des LLM. Cette technique limite les fausses informations,les réponses obsolètes et les inexactitudes. Un chercheur en pharmacie peut utiliser la RAG pour accéder aux bases de données sur le génome humain,aux publications scientifiques récentes,aux bases de données des recherches précliniques et aux directives de la FDA. L’aide des équipes IT est souvent nécessaire pour intégrer la RAG au workflow.
Protéger la vie privée et éviter les biais
Si vous utilisez des données confidentielles, seuls les modèles validés par l’entreprise et protégés par des pare-feu internes doivent être utilisés. L’utilisation de données personnelles est possible si les conditions d’utilisation de l’interface de programmation d’une submission LLM stipulent que les données ne seront pas conservées pour l’entraînement du modèle.
Il est important d’être vigilant quant aux biais introduits dans les instructions.Par exemple, un analyste financier demandant à un LLM d’expliquer pourquoi le rapport trimestriel indique que l’entreprise est préparée pour un cycle de croissance de cinq ans manifeste un biais de récence.
Les fournisseurs de LLM développent des outils pour aider les utilisateurs à éviter ces problèmes. Microsoft et Google ajoutent des fonctionnalités pour repérer les instructions et les réponses dangereuses. Salesforce a développé une architecture IA qui masque les données consommateur confidentielles, empêche leur partage avec des LLM tiers, évalue les résultats selon des risques comme la toxicité, les biais et la vie privée, et collecte du feed-back pour améliorer les templates de prompts. Votre jugement reste primordial.
Examiner les résultats suspects
Il est critically important de rester vigilant car les erreurs sont inévitables.Voici une version traduite et anonymisée de l’article, optimisée pour un public francophone et les moteurs de recherche :
Adopter l’IA Générative au Travail : Développer les Compétences de Fusion
L’intelligence artificielle générative est en passe de transformer radicalement le monde du travail. autrefois réservée aux experts, elle est désormais accessible à tous grâce à la possibilité d’interagir en langage naturel. Des études montrent que l’IA générative peut améliorer, automatiser ou réinventer une part importante des activités professionnelles. Les secteurs de la finance, de la banque, de l’assurance et des marchés financiers devraient connaître les changements les plus profonds. Le commerce de détail, le voyage, la santé et l’énergie suivront de près.
Cette transformation aura des conséquences majeures pour les entreprises et leurs employés. la réussite professionnelle dépendra de plus en plus de notre capacité à tirer le meilleur parti des grands modèles linguistiques (LLM) et à apprendre avec eux. pour exceller dans cette nouvelle ère de collaboration homme-IA, il est essentiel de développer des “compétences de fusion” : l’interrogation intelligente, l’intégration du jugement et l’apprentissage réciproque.
Préparer les LLM à la résolution de problèmes
Avant de confier une tâche à un LLM, il est possible de le préparer à adopter une approche spécifique.Par exemple, on peut lui enseigner le raisonnement “du moins au plus”. Cette méthode consiste à décomposer un problème complexe en plusieurs défis plus simples, à résoudre d’abord les plus faciles, puis à utiliser les réponses comme base pour les défis suivants. Des études ont démontré que cette approche peut améliorer significativement la pertinence des résultats de l’IA.
Prenons l’exemple d’un responsable marketing souhaitant développer une nouvelle gamme de vêtements de sport. Il peut décomposer le problème pour le LLM de la manière suivante :
- Le public : Identifier les passionnés de fitness qui seraient des clients potentiels.
- La dialogue : Élaborer des messages mettant en avant la performance, le confort et le style.
- Les canaux : Choisir les réseaux sociaux, les blogs de fitness et les partenariats avec des influenceurs pour diffuser ces messages.
- Ressources : Allouer un budget en fonction du choix des canaux.
entraîner les LLM à apprendre de nouveaux processus
Il est possible d’enseigner à une IA à accomplir une tâche en la guidant à travers une série d’exemples contextualisés. C’est ce que l’on appelle “l’apprentissage en contexte”. Cette technique permet d’adapter des LLM pré-entraînés sans avoir à ajuster leurs paramètres. Des chercheurs ont montré comment synthétiser des informations médicales en donnant à des LLM des exemples de comptes rendus d’examens radiologiques, des questions de patients, des notes d’évolution et des discussions entre médecins et patients.Les résultats ont montré que les synthèses produites par les LLM étaient souvent équivalentes ou meilleures que celles produites par des humains.On peut également entraîner un LLM en lui fournissant des informations contextuelles et en lui posant des questions jusqu’à ce qu’il résolve le problème. Imaginons deux éditeurs de logiciels souhaitant augmenter leurs ventes. L’un pourrait fournir au LLM des données commerciales antérieures et l’interroger sur la demande attendue. L’autre pourrait lui fournir des données financières ciblées et lui demander de classer les clients en fonction de leur contribution au chiffre d’affaires.
L’apprentissage réciproque se produit lorsque les utilisateurs décrivent progressivement la tâche avec davantage de complexité et de nuance. Ils peuvent ajouter du contexte, ajuster la formulation et observer la réponse du modèle, en expérimentant jusqu’à obtenir les résultats souhaités.
Acquérir de nouvelles compétences de fusion
L’adoption généralisée de compétences en IA générative nécessitera des investissements importants. Il est essentiel de se tenir informé des progrès rapides des LLM et des recherches de pointe. Des cours en ligne sont disponibles auprès de divers prestataires. Il est également important d’expérimenter les techniques de “prompting” et d’inciter les employeurs à offrir davantage d’occasions d’utiliser les LLM et de se former aux meilleures pratiques.
L’étape suivante consiste à se former aux techniques de prompting en chaîne de raisonnement pour les workflows agentiques et les grands modèles de langage multimodaux (MLLM). Ces modèles intègrent différents types de données (texte, audio, vidéo, images) et fournissent des résultats dans ces formats. Des études ont montré que les requêtes en chaîne de pensée améliorent la performance des MLLM.
La révolution de l’IA est en marche. les entreprises utilisent cette technologie pour réinventer des processus dans tous les secteurs.L’IA générative a placé la barre plus haut, nous obligeant à penser avec l’IA, à lui faire confiance et à l’adapter en permanence. L’avenir des entreprises ne sera pas guidé par l’IA générative seule, mais par les personnes qui sauront l’utiliser le plus efficacement.
Adopter l’IA Générative au Travail : Développer les Compétences de fusion
L’intelligence artificielle générative est en passe de transformer radicalement le monde du travail.La réussite professionnelle dépendra de notre capacité à tirer le meilleur parti des grands modèles linguistiques (LLM) et à apprendre avec eux. Pour exceller dans cette nouvelle ère de collaboration homme-IA, il est essentiel de développer des “compétences de fusion” : l’interrogation intelligente, l’intégration du jugement et l’apprentissage réciproque.
Préparer les LLM à la résolution de problèmes
Avant de confier une tâche à un LLM,il est possible de le préparer à adopter une approche spécifique. On peut lui enseigner le raisonnement “du moins au plus”. Cette méthode consiste à décomposer un problème complexe en plusieurs défis plus simples, à résoudre d’abord les plus faciles, puis à utiliser les réponses comme base pour les défis suivants.
Prenons l’exemple d’un responsable marketing souhaitant développer une nouvelle gamme de vêtements de sport. il peut décomposer le problème pour le LLM de la manière suivante :
- Le public : Identifier les passionnés de fitness qui seraient des clients potentiels.
- La dialogue : Élaborer des messages mettant en avant la performance, le confort et le style.
- Les canaux : Choisir les réseaux sociaux,les blogs de fitness et les partenariats avec des influenceurs pour diffuser ces messages.
- Ressources : Allouer un budget en fonction du choix des canaux.
Entraîner les LLM à apprendre de nouveaux processus
Il est possible d’enseigner à une IA à accomplir une tâche en la guidant à travers une série d’exemples contextualisés. C’est ce que l’on appelle “l’apprentissage en contexte”. Cette technique permet d’adapter des LLM pré-entraînés sans avoir à ajuster leurs paramètres.
L’apprentissage réciproque se produit lorsque les utilisateurs décrivent progressivement la tâche avec davantage de complexité et de nuance. Ils peuvent ajouter du contexte, ajuster la formulation et observer la réponse du modèle, en expérimentant jusqu’à obtenir les résultats souhaités.
Acquérir de nouvelles compétences de fusion
L’adoption généralisée de compétences en IA générative nécessitera des investissements importants. Il est essentiel de se tenir informé des progrès rapides des LLM et des recherches de pointe. L’étape suivante consiste à se former aux techniques de prompting en chaîne de raisonnement pour les workflows agentiques et les grands modèles de langage multimodaux (MLLM).
Tableau Récapitulatif des Compétences Clés
| Compétence de Fusion | Description | Avantages |
| ———————- | ————————————————————————————————- | ——————————————————————————————————- |
| Interrogation Intelligente | Utilisation de techniques spécifique pour encourager le raisonnement étape par étape du LLM. | Améliore la pertinence et réduit les erreurs,permettant la résolution de problèmes complexes. |
| Intégration du Jugement | Intégrer des bases de connaissances expertes (RAG), protéger la vie privée et éviter les biais. | Garantit la fiabilité et l’exactitude des résultats, tout en assurant une utilisation éthique de l’IA. |
| Apprentissage Réciproque| Expérimentation et ajustement continus des prompts pour obtenir les résultats souhaités des LLM. | Permet une adaptation constante et une amélioration continue de l’utilisation de l’IA. |
FAQ
Q : Comment améliorer les réponses des LLM ?
R : Utiliser des techniques de prompting en chaîne de raisonnement.
Q : comment l’IA générative peut-elle améliorer le travail ?
R : En automatisant et en réinventant une part importante des activités professionnelles.
Q : Qu’est-ce que l’apprentissage en contexte ?
R : Enseigner à une IA à accomplir une tâche en fournissant des exemples contextualisés.
Q : Comment l’apprentissage réciproque aide-t-il avec les LLM ?
R : En affinant l’utilisation des LLM pour des résultats optimaux.