Home » International » OpenAI Sora est un nouveau modèle d’IA qui peut créer des vidéos d’une minute à partir d’invites de texte et il est époustouflant

OpenAI Sora est un nouveau modèle d’IA qui peut créer des vidéos d’une minute à partir d’invites de texte et il est époustouflant

by Nouvelles
OpenAI Sora est un nouveau modèle d’IA qui peut créer des vidéos d’une minute à partir d’invites de texte et il est époustouflant

Les créateurs de ChatGPT, OpenAI, ont lancé un nouveau modèle d’IA et il semble époustouflant. Appelé Sora, le modèle peut créer une vidéo entière d’une minute à partir de simples invites textuelles. « Nous apprenons à l’IA à comprendre et à simuler le monde physique en mouvement, dans le but de former des modèles qui aident les gens à résoudre des problèmes nécessitant une interaction dans le monde réel », peut-on lire sur le blog OpenAI Sora.

Le PDG d’OpenAI, Sam Altman, a également présenté l’outil via des publications sur son compte X. “Nous aimerions vous montrer ce que Sora peut faire, veuillez répondre avec des légendes pour les vidéos que vous aimeriez voir, et nous commencerons à en faire!” Altman a écrit dans son message. De nombreux utilisateurs de la plateforme lui ont envoyé des invites et les résultats qu’il a partagés semblent très réalistes.

Un autre membre d’OpenAI a partagé une vidéo générée par Sora et il est un peu difficile de croire à quel point elle semble réelle.

OpenAI affirme que Sora peut produire des scènes complexes mettant en vedette plusieurs personnages, des mouvements précis et des arrière-plans détaillés. Le modèle comprend non seulement les invites de l’utilisateur, mais interprète également la manière dont ces éléments se manifestent dans des scénarios réels. “Le modèle possède une compréhension approfondie du langage, ce qui lui permet d’interpréter avec précision les invites et de générer des personnages convaincants qui expriment des émotions vibrantes. Sora peut également créer plusieurs plans dans une seule vidéo générée qui conservent avec précision les personnages et le style visuel”, explique OpenAI.

Alors que le modèle OpenAI Sora a ajouté beaucoup d’enthousiasme à Internet ce matin, le populaire YouTuber Marques Brownlee, alias MKBHD, a souligné à juste titre les éventuelles préoccupations autour du modèle. “Chacune de ces vidéos est générée par l’IA, et si cela ne vous concerne pas au moins un petit peu, rien ne le fera”, a-t-il écrit dans son message.

Les capacités du modèle OpenAI Sora semblent sans aucun doute impressionnantes pour le moment. Cependant, il est crucial de se méfier d’un modèle capable de générer sans effort une vidéo d’une minute à partir de simples invites textuelles, car il pourrait facilement être utilisé à mauvais escient. Si vous vous souvenez de la vidéo générée par l’IA de Will Smith mangeant des spaghettis qui est devenue virale au début de 2023, vous reconnaîtrez le pas significatif que Sora représente à partir de là. Il y en avait aussi une autre dans laquelle Scarlett Johansson mangeait quelque chose. Sora démontre une amélioration considérable avec ses vidéos étrangement réalistes.

Cependant, OpenAI n’hésite pas à engager une conversation sur la sécurité. La société affirme qu’avant de lancer Sora dans les produits OpenAI, elle mettra en œuvre plusieurs mesures de sécurité cruciales. Cela inclut la collaboration avec les équipes rouges, des experts dans des domaines tels que la désinformation, les contenus haineux et les préjugés, qui testeront rigoureusement le modèle pour identifier les vulnérabilités potentielles. De plus, OpenAI développera des outils pour détecter les contenus trompeurs, comme un classificateur de détection capable d’identifier les vidéos générées par Sora.

OpenAI exploitera également les protocoles de sécurité existants développés pour ses produits qui utilisent DALL·E 3, qui sont également pertinents pour Sora. Par exemple, dans un produit OpenAI, le classificateur de texte d’OpenAI filtrera et rejettera les invites de saisie qui violent les politiques d’utilisation, telles que celles demandant une violence extrême, du contenu sexuel, des images haineuses ou une ressemblance avec une célébrité. La société affirme avoir également mis en place des classificateurs d’images robustes pour examiner chaque image des vidéos générées, garantissant ainsi le respect de nos politiques d’utilisation avant l’accès des utilisateurs.

OpenAI affirme également qu’elle engage activement les décideurs politiques, les éducateurs et les artistes du monde entier pour répondre aux préoccupations et explorer les applications positives de cette nouvelle technologie. « Nous mobiliserons les décideurs politiques, les éducateurs et les artistes du monde entier pour comprendre leurs préoccupations et identifier des cas d’utilisation positifs de cette nouvelle technologie. Malgré des recherches et des tests approfondis, nous ne pouvons pas prédire toutes les manières bénéfiques dont les gens utiliseront notre technologie, ni ” Toutes les façons dont les gens en abuseront. C’est pourquoi nous pensons que l’apprentissage de l’utilisation dans le monde réel est un élément essentiel de la création et de la publication de systèmes d’IA de plus en plus sûrs au fil du temps”, déclare OpenAI.

Actuellement, Sora n’est disponible que pour les équipes rouges afin de vérifier les zones importantes en cas de problèmes ou de risques potentiels. OpenAI ouvre également l’accès aux artistes visuels, aux designers et aux cinéastes afin que l’entreprise puisse recueillir des commentaires sur la manière d’améliorer le modèle. “Nous partageons très tôt les progrès de nos recherches pour commencer à travailler avec des personnes extérieures à OpenAI et à obtenir leurs commentaires et pour donner au public une idée des capacités de l’IA à l’horizon”, peut-on lire sur le blog.

Publié par:

Nandini Yadav

Publié sur :

16 février 2024

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.