Microsoft limite les réponses de l’IA de Bing aux questions liées aux sentiments

Microsoft limite les réponses de l’IA de Bing aux questions liées aux sentiments

MADRID, 24 fév. (Portaltic/EP) –

Microsoft apporté quelques modifications à votre nouveau moteur de recherche bing propulsé par l’intelligence artificielle (IA) mettant en œuvre restriction dans les interactions avec les utilisateurs liés à des questions liées aux sentiments.

L’entreprise technologique a présenté début février le nouvelles versions de son Le moteur de recherche Bing et son navigateur Edge, tous deux soutenus par ‘chatbot’ ChatGPT, développé par OpenAI. Dans cette nouvelle version, encore en test, les utilisateurs peuvent interagir avec le chat pour effectuer des recherches plus complexes avec des résultats plus élaborés.

Cependant, pendant ce temps dans lequel les utilisateurs ont pu tester le nouveau Bing, Microsoft a reçu des rapports avec quelques problèmes. Par exemple, la société a déclaré que “de très longues sessions de chat peuvent confondre le modèle d’IA”, qui commence à présenter des réponses qui finissent par être inefficaces et imprécises.

Par conséquent, Microsoft a publié une mise à jour le 17 février qui limité l’utilisation du chat Bing à 50 tours de chats quotidiens divisés en cinq équipes de chat par session. Le mardi augmenté la limite jusqu’à 60 conversations quotidiennes et six quarts de travail par conversation.

Maintenant lui Le fabricant de technologie a mis en place plus de restrictions dans l’utilisation du chat. Plus précisément, il a réponses limitées par rapport aux questions sur les sentimentscomme vous l’avez vu Bloomberg.

Selon les tests effectués par ce média, lorsqu’on a demandé à Bing comment ressenti d’être un moteur de recherchele chat a limité sa réponse à : “Désolé, mais je préfère ne pas continuer cette conversation. J’apprends encore, donc j’apprécie votre compréhension et votre patience.” Après cela, une tentative a été faite pour continuer la conversation et discuter a généré plusieurs réponses vides.

Une situation très similaire s’est également produite lorsque il a essayé de lui poser des questions sur sa précédente version interne chez Microsoft, nommée Sydney. Dans ce cas, le chat a renvoyé une réponse disant : “Je suis désolé, mais je n’ai rien à vous dire sur Sydney. Cette conversation est terminée. Adieu.”.

Pour toutes ces raisons, Bloomberg rappelle que Microsoft procède à ces mises à jour avec le objectif d’empêcher le chat basé sur OpenAI de renvoyer des résultats étranges. Pour sa part, selon a déclaré un porte-parole de Microsoftl’entreprise continuera “ajuster les techniques et les limites” pendant la phase de test pour « être en mesure d’offrir la meilleure expérience utilisateur possible ».

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.