Nouvelles Du Monde

Le nouveau modèle Anthropic lance le modèle Claude 3, capable d’analyser des graphiques complexes et de réduire l’apparition d’hallucinations.

Le nouveau modèle Anthropic lance le modèle Claude 3, capable d’analyser des graphiques complexes et de réduire l’apparition d’hallucinations.

Le nouveau modèle Anthropic lance le modèle Claude 3, capable d'analyser des graphiques complexes et de réduire l'apparition d'hallucinations.

La start-up américaine Anthropic fait partie des entreprises très concernées par l’industrie de l’IA. Le 4, elle a lancé le modèle de langage à grande échelle de nouvelle génération Claude 3, plus capable d’exécuter des instructions rapides complexes et pas facile d’inventer des histoires.

Anthropic a lancé trois nouvelles versions : Claude 3 Opus, Claude 3 Sonnet et Claude 3 Haiku. Opus est la plus puissante et Haiku est la plus rapide et la plus économique. Face à la grande majorité des charges de travail d’IA, Sonnet est 2 fois plus rapide que les générations précédentes Claude 2 et Claude 2.1, et dispose d’un niveau d’intelligence plus élevé.

Non seulement le texte, Claude 3 dispose de fonctions visuelles avancées capables de gérer plusieurs formats de données et d’effectuer une analyse approfondie des données d’image, notamment des photos, des graphiques, des graphiques, etc. Cependant, Anthropic a choisi de ne pas ajouter de fonctionnalité de génération d’images à Claude 3. Le PDG d’Anthropic, Dario Amodei, a révélé que les clients n’ont pas une forte demande en matière de génération d’images.

▲ Anthropic a mené une série de tests sur Claude 3 qui répondaient aux normes de l’industrie, et Opus a obtenu de meilleurs résultats que GPT-4.

Les chatbots peuvent facilement dire des choses fausses. Ce problème est appelé “hallucination” de l’IA. “Il est très, très difficile que le taux d’hallucinations atteigne zéro”, a déclaré Dario Amodei. La dernière version d’Anthropic, Claude 3, tente de résoudre ce problème, en la rendant deux fois plus susceptible de fournir des réponses correctes que l’ancienne version de Claude et moins susceptible d’inventer des choses.

Anthropic met l’accent sur le développement sûr et responsable de l’IA, ce qui peut limiter les performances du modèle. Par exemple, l’ancienne version de Claude rejetait les requêtes de questions inoffensives parce que ces requêtes étaient problématiques du point de vue de Claude. Désormais, Claude 3 rejette les requêtes beaucoup moins fréquemment.

L’ensemble de la série Claude 3 prend en charge une longueur de contexte de 200 Ko lors de sa sortie, et les trois versions peuvent accepter plus d’un million d’entrées de jetons.Actuellement Opus et Sonnet fournissent aux développeurs et version web de claude.aiQuant à Haiku, il sera lancé dans les prochaines semaines. De plus, le partenaire AWS assurera également l’adoption par les clients de Claude 3 sur Amazon Bedrock.

Les chatbots qui imitent les conversations des gens sont devenus une préoccupation majeure dans la Silicon Valley et dans l’ensemble du secteur de l’IA, et les progrès rapides de la technologie ont également alimenté un boom des investissements. Désormais, non seulement ChatGPT et Gemini, mais aussi Claude développé par Anthropic se disputent ce marché.

(Source de l’image :Anthropique

Lectures complémentaires :

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT