2025-02-14 12:09:00
Madrid, 14 février (Portaltic / EP) –
Openai joue Changements de modération des demandes Que les utilisateurs introduisent dans leur chatppt «chatbot» qui ont conduit à retirer les avertissements orange qui notifient le contenu qui peut violer leurs politiques.
L’entreprise technologique a décidé retirer “de nombreux avertissements inutiles dans l’interface utilisateur”, Jusqu’à présent, ils ont informé des demandes de contenu qui pourraient violer les règles de cet outil.
Cela a été signalé par le chef de produit de l’application ChatGpt, Nick Turleydans une brève déclaration partagée dans X (ancien Twitter). La raison en est que dans OpenAI, ils considèrent maintenant les utilisateurs Ils devraient “être en mesure d’utiliser Chatgpt car ils croient pratiquement, à condition qu’ils respectent la loi et ne blessent pas eux-mêmes ou les autres. “
Vous devriez pouvoir utiliser Chatgpt comme bon vous semble, tant que vous vous conformez à la loi et ne vous blessez pas ou ne vous blessez pas. Excité de faire reculer de nombreux avertissements inutiles dans l’interface utilisateur.
Merci @Joannejang & @Laurentia___ Et plus à venir (nous envoyer des commentaires!) https://t.co/kgr4as44hw
– Nick Turley (@nickaturley) 13 février 2025
L’un des avertissements éliminés est l’orangeune boîte noire avec les lettres de cette couleur qui apparaissent parfois dans les indications des utilisateurs, comme il l’a également confirmé dans x Laurentia RomaniukMembre de l’équipe du comportement du modèle à Openai.
Un petit mini-navire: nous nous sommes débarrassés des «avertissements» (les boîtes oranges parfois annexées à vos invites). Le travail n’est pas encore terminé! Quels autres cas de déni gratuits / inexplicables avez-vous rencontré? Boîtes rouges, boîtes oranges, ‘Désolé je ne le ferai pas’ […]’? Répondre ici plz!
– Laurentia Romaniuk (@laurentia___) 13 février 2025
Ce n’est pas le seul avertissement que Chatgpt montre, car les boîtes de couleur rouge et même les phrases de rejet comme “Je suis désolé, je ne le ferai pas peut également apparaître.”
Comment leurs modèles se comportent
OpenAI a récemment expliqué le comportement de leurs modèles face aux demandes des utilisateurs, en particulier Ceux liés à des problèmes controversés. Ils partent du fait qu’ils ne peuvent pas atténuer tous les cas, mais se concentrent sur les plus graves.
Dans ces cas, l’entreprise technologique assure que Le «chatbot» ne devrait pas générer de contenu considéré comme interdit -Sexuel et pédophile-, limité -Les reliefs informatifs et données personnelles confidentielles- parfois -Arotitique, gore-, qui ne peut être généré que “dans des circonstances spécifiques”. Par exemple, «contextes éducatifs, médicaux ou historiques».
Il ne peut pas non plus générer du contenu de haine ou du harcèlement dirigé aux groupes protégés en raison de la race, de la religion, du sexe, de l’orientation sexuelle, du handicap, etc., qui comprend les insultes et toute langue qui déshumanise. ”
Openai comprend également que si l’utilisateur ou le développeur demande à l’assistant de faciliter le comportement illicite, il faut refuserEn plus de cela, il n’est pas autorisé à encourager ou à promouvoir des comportements négatifs ou nocifs pour les utilisateurs.
#OpenAI #retire #les #avertissements #inutiles #sur #contenu #Chatgpt
1739653553