Home » Sciences et technologies » Aperçu du processus de réflexion de l’IA

Aperçu du processus de réflexion de l’IA

by Nouvelles

Si vous entrez une question complexe du nouveau modèle d’IA de la startup chinoise Deepseek, vous n’obtenez pas seulement une réponse. Vous pouvez également voir le monologue intérieur du chatbot. La technologie rend le modèle plus intelligent – mais coûte également plus d’énergie.

“The Denker” par Auguste Rodin est profondément coulé dans ses pensées. Devez-vous imaginer le nouveau modèle d’IA de Deepseek?

Groupes Paul / imago

“J’ai attendu, ai-je vraiment tout compris?” – “Hmm.” – “Laissez-moi vérifier à nouveau.” De telles pensées leur tireraient probablement dans leur tête si quelqu’un les avait présentés un puzzle mathématique – avec la tâche de le résoudre aussi soigneusement que possible.

Optimiser les paramètres de votre navigateur

Nzz.ch a besoin de JavaScript pour des fonctions importantes. Votre navigateur ou bloqueur d’annonces empêche actuellement cela.

Veuillez ajuster les paramètres.

Mais les pensées mentionnées ne sont pas celles d’une personne. Ils proviennent de l’intelligence artificielle (IA) de la startup chinoise Deepseek. Le dernier chatbot d’IA de l’entreprise peut être surveillé lors de la réflexion. Ou du moins en même temps comment il imite un processus de réflexion.

La réflexion aide surtout avec des problèmes complexes

“Deep Think”, c’est-à-dire profondément, est le mode de Chatbot Deepseek R1. L’utilisateur peut l’activer en cliquant dans le coin inférieur gauche de la fenêtre de chat. Au lieu de générer une réponse directement, le chatbot prend maintenant beaucoup de temps, tourne et tourne ses idées, se vérifie et remet toujours en question ses propres hypothèses.

Des questions en particulier mathématiques, des puzzles logiques ou des problèmes de programmation complexes Si le bot de chat peut mieux résoudre avec l’aide de la réflexion. C’est comme les humains: si vous prenez le temps de penser à une tâche, vous avez de meilleures chances d’obtenir la bonne réponse. Surtout avec des questions difficiles. Grâce à la longue réflexion, le modèle d’IA peut remarquer quand il fait une erreur et corrigez-vous. Il produit donc moins d’hallucinations, donc il pense moins souvent à quelque chose de mal.

Dans l’expérience, le chatbot de Deepseek a résolu un Mather classique: «Hans est trois fois plus vieux que Hanna. En six ans, il sera cinq fois plus vieux que sa fille il y a six ans. Quel âge a Hans aujourd’hui? »L’exemple est intentionnellement un peu étonnamment formulé – il ne peut être résolu que si Hanna est la fille de Hans. Le bot de chat fait-il face à de telles incertitudes? Dans la vidéo, vous pouvez le regarder réfléchir.

Le mode «Think Deep» de Deepseek R1 dans le test NZZ.

Dans le test de la NZZ, le chatbot de Deepseek crache sur le puzzle des considérations de page par la page. Il se rend vraiment compte que la tâche ne peut être résolue que si la fille est Hanna. Ensuite, il résout l’énigme en vertu de cette hypothèse, remet en question son résultat quatre fois, envisage des échecs possibles – et arrive enfin à la bonne solution.

Deepseek ouvre ses pensées

Deepseek n’a pas développé la méthode de pensée, appelée «raisonnement» dans le jargon technique «raisonnement». Open AIS Best Model Chat-GPT O1 fonctionne également comme celui-ci. Mais avec le chatbot d’Open IA, le soliloque qui mène le modèle reste caché en arrière-plan. Seule la réponse finale et un court résumé du train de pensée sont affichés à l’utilisateur. Deepseek R1 est le premier modèle d’IA dans lequel le processus de réflexion est ouvertement accessible.

Cela fait une grande différence. Car il permet à d’autres développeurs de copier facilement la technologie. Vous pouvez former un nouveau modèle d’IA avec des auto-discussions du chatbot de Deepseek et lui apprendre à “penser” de la même manière. C’est exactement ce que l’IA Open voulait empêcher en cachant les processus de pensée du Chat-GPT O1. Si tôt, plus de modèles d’IA mèneront une telle conversation.

Cela pourrait également rendre les chatbots plus fiables. Parce que s’il est plus facile de comprendre comment le modèle d’IA est arrivé à ses conclusions, il est également préférable d’évaluer si la réponse est fiable. Ceci est particulièrement important pour les applications d’IA en médecine.

L’IA ne peut pas encore penser logiquement

Mais la capacité de penser a son prix. Étant donné que le modèle d’IA génère plus de texte pour chaque demande, il doit calculer davantage et consommer plus d’électricité en conséquence.

Et vous ne devriez pas laisser apparaître. Même si le monologue intérieur des modèles d’IA donne l’impression des pensées humaines, ce n’est pas vraiment une pensée logique. Les modèles d’IA fonctionnent toujours selon le même principe: ils prédisent quels mots sont les plus susceptibles de suivre dans une phrase, et de cette manière construisent un texte.

Dans les tests qui sont censés vérifier la possibilité de penser à la pensée logique, comme le «défi d’abstraction et de lecture», les deux modèles réfléchis profonds R1 et ouverts AI O1 ne peuvent tous deux résoudre que vingt pour cent correctement des tâches.

Et tout est encore correct en termes de contenu que font les chatbots d’IA. Même si vous y réfléchissez à nouveau soigneusement. “Hmm.”

#Aperçu #processus #réflexion #lIA

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.