Home » Économie » OpenAI met en garde contre les dangers de son propre outil linguistique

OpenAI met en garde contre les dangers de son propre outil linguistique

by Nouvelles
OpenAI met en garde contre les dangers de son propre outil linguistique

2024-03-30 16:03:05

Les développeurs du géant de l’IA OpenAI savent que leur nouvel outil linguistique présente des dangers et ont des suggestions pour rendre la technologie plus sécurisée.
Jonathan Raa/Getty Images

OpenAI est conscient des dangers associés à l’utilisation d’outils linguistiques générés par l’IA.

La société d’IA a révélé des détails sur son outil de moteur vocal, qui n’a pas encore été complètement lancé.

La société a cité ses mesures de sécurité – et n’a pas confirmé si le modèle serait même largement diffusé.

Il s’agit d’une traduction automatique d’un article de nos collègues américains de Business Insider. Il a été automatiquement traduit et vérifié par un véritable éditeur.

Les outils linguistiques développés à l’aide de l’intelligence artificielle (IA) sont une question délicate, surtout face aux fausses nouvelles en cette année électorale américaine. OpenAI le sait aussi. Désormais, l’entreprise s’est présentée en un L’article de blog présente les premiers résultats de la phase de test de son nouvel outil pour voix synthétiques. Dans le même temps, la société pionnière de l’IA a répondu aux préoccupations concernant l’utilisation de l’IA pour reproduire les voix humaines.

Selon la société, OpenAI a développé son outil Voice Engine fin 2022. Il ne nécessite pas plus de 15 secondes d’extrait audio de la voix d’une personne réelle pour créer une réplique étrangement réaliste et humaine de cette voix. Et les utilisateurs peuvent laisser cette voix dire n’importe quoi, même dans d’autres langues.

Lire aussi

Certains créateurs de contenu n’utilisent plus l’IA car c’est une « impasse » pour la créativité

L’outil n’est pas encore accessible au public. De plus, OpenAI affirme qu’il n’est pas encore clair si et comment cette technologie peut être utilisée à grande échelle. « Nous reconnaissons que générer un discours qui ressemble à la voix du peuple présente des risques sérieux, particulièrement importants en année électorale », écrit OpenAI dans son blog. “Nous travaillons avec des partenaires américains et internationaux du gouvernement, des médias, du divertissement, de l’éducation, de la société civile et au-delà pour intégrer leurs commentaires dans notre développement.”

OpenAI utilise actuellement l’outil pour les capacités de lecture de ChatGPT ainsi que l’API de synthèse vocale de l’entreprise.

À la fin de l’année dernière, OpenAI a commencé à étendre l’outil en externe et à travailler avec « un petit groupe de partenaires de confiance ». Le développeur souhaite les utiliser pour tester Voice Engine pour le matériel éducatif pour enfants, la traduction linguistique et la restauration médicale de la parole, a indiqué la société dans son message.

Une technologie risquée, mais une opportunité de dialogue sur une utilisation responsable ?

OpenAI a souligné que ses organisations partenaires doivent respecter des directives strictes pour utiliser Voice Engine. Par exemple, vous devez obtenir le consentement de chaque personne usurpée. De plus, les auditeurs doivent être informés que la voix a été générée par l’IA.

“Nous adoptons une approche prudente et éclairée en vue d’une diffusion plus large en raison du potentiel d’utilisation abusive de la voix synthétique”, a écrit la société. “Nous espérons ouvrir un dialogue sur l’utilisation responsable des voix synthétiques et sur la manière dont la société s’adapte à ces nouvelles possibilités.”

Lire aussi

La demande pour un nouveau rôle en IA, Prompt Engineer, monte en flèche – mais le battage médiatique durera-t-il ?

L’entreprise affirme qu’elle n’a pas encore rendu son outil accessible au grand public. Mais il a exhorté les décideurs politiques et les développeurs à prendre des mesures pour empêcher une utilisation abusive dangereuse de la technologie qu’il a développée.

Par exemple, OpenAI a suggéré de créer une « liste de voix interdites » pour empêcher la réplication non autorisée de voix importantes, telles que des politiciens ou des célébrités.

La société a également recommandé aux banques de cesser d’utiliser l’authentification de sécurité basée sur la voix et aux chercheurs de développer des techniques permettant de déterminer si une voix est réelle ou fausse.

Lire l’article original Interne du milieu des affaires.



#OpenAI #met #garde #contre #les #dangers #son #propre #outil #linguistique
1711804396

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.