Le dernier outil d’Epic peut animer des MetaHumans hyperréalistes avec un iPhone

Le dernier outil d’Epic peut animer des MetaHumans hyperréalistes avec un iPhone

Aujourd’hui, Epic lance un nouvel outil conçu pour capturer la performance faciale d’un acteur à l’aide d’un appareil aussi simple qu’un iPhone et l’appliquer à un “MetaHuman” hyperréaliste dans l’Unreal Engine en “minutes”. La fonctionnalité, surnommé MetaHuman Animator, a été détaillé lors de la conférence des développeurs de jeux en mars, mais est désormais disponible pour que les développeurs puissent l’essayer par eux-mêmes. Epic a également publié une nouvelle vidéo aujourd’hui réalisée par une de ses équipes internes pour montrer de quoi l’outil est capable.

Alors que le court métrage d’Epic montre une animation faciale incroyablement subtile, le gros avantage sur lequel la société met l’accent est la rapidité avec laquelle MetaHuman Animator produit des résultats. “L’animation est produite localement à l’aide de matériel GPU, l’animation finale étant disponible en quelques minutes”, indique le communiqué de presse de la société. Cela a le potentiel non seulement d’économiser de l’argent pour un studio en rendant la capture de performances plus efficace, mais aussi, selon Epic, cela pourrait leur permettre d’expérimenter et d’être plus créatifs.

a:hover]:text-gray-63 [&>a:hover]:ombre-souligné-noir foncé:[&>a:hover]:text-gray-bd dark:[&>a:hover]:ombre-souligné-gris [&>a]:ombre-souligné-gris-63 foncé:[&>a]:text-gray-bd dark:[&>a]:shadow-underline-gray”>Image : Epic Games

“Besoin d’un acteur pour vous donner plus, creuser dans une émotion différente, ou simplement explorer une nouvelle direction ?” Le communiqué de presse d’Epic demande. « Faites-leur faire une autre prise. Vous serez en mesure d’examiner les résultats dans environ le temps qu’il faut pour faire une tasse de café. L’animation faciale peut être appliquée à un personnage MetaHuman “en quelques clics”, explique Epic, et le système est même assez intelligent pour animer la langue d’un personnage en fonction de l’audio de la performance.

La capture de performances à l’aide d’iPhones est possible dans l’Unreal Engine depuis au moins 2020 avec le lancement de Application iOS Live Link Face d’Epic, mais maintenant, il est combiné avec le haut niveau de détail promis par la technologie MetaHuman d’Epic. En plus de travailler sur l’iPhone 12 et plus (qui est capable de capturer à la fois des données vidéo et de profondeur), Epic dit que MetaHuman Animator peut également être utilisé avec “la caméra stéréo verticale existante montée sur la tête”. [systems] pour atteindre une fidélité encore plus grande.

Epic dit que le Point bleu court métrage sorti aujourd’hui devrait donner une idée de ce dont est capable son outil d’animation. Il a été produit par l’équipe 3Lateral d’Epic Games et l’acteur vedette Radivoje Bukvić livrant un monologue basé sur un poème de Mika Antić. Bien qu’Epic affirme qu’il est possible de modifier l’animation après la capture, il affirme que des “interventions minimales” ont été effectuées en plus de la capture des performances de MetaHuman Animator pour obtenir ces résultats.

2023-06-15 17:00:00
1686840540


#dernier #outil #dEpic #peut #animer #des #MetaHumans #hyperréalistes #avec #iPhone

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.