Meta dévoile une IA qui génère des vidéos à partir d’un simple texte

meta ai


Meta lance une intelligence artificielle capable de créer des clips vidéo sur base d’un simple texte. L’IA peut aussi générer des séquences animées à partir d’une image fixe. Pour éviter les dérives, le groupe de Mark Zuckerberg assure avoir pris des précautions.

Ce 29 septembre 2022, Meta a levé le voile sur Make-A-Video, une intelligence artificielle capable de concevoir une courte vidéo à partir d’un texte. En miroir de DALL-E de l’éditeur OpenAI ou de Midjourney, il s’agit d’une intelligence artificielle générative. Ces systèmes intelligents produisent des contenus sur base de brèves informations communiquées par l’utilisateur.

« Le système apprend à quoi ressemble le monde à partir de données de texte-image combinées et comment le monde se déplace à partir de séquences vidéo sans texte associé », explique Meta dans son communiqué de presse.

Grâce à l’apprentissage automatique, ou « machine learning » en anglais, l’IA est parvenue à comprendre le monde en s’appuyant sur une importante quantité de données. Selon Meta, il suffit désormais de « quelques mots ou lignes de texte » pour obtenir des clips vidéo de qualité. L’IA peut par ailleurs créer des vidéos à partir d’images fixes ou générer d’autres clips analogues sur base d’une seule séquence.

Le géant californien précise que la création de Make-A-Video fait suite à Make-A-Scene. Lancée l’été dernier, l’IA de Meta est capable de transformer des croquis et du texte en œuvres d’art très convaincantes. Il suffit de gribouiller quelques traits pour que le système produise une œuvre. Les résultats basés sur du texte étaient cependant plus aléatoires.

À lire aussi : Meta présente Builder Bot, une IA capable de générer un monde virtuel grâce à votre voix

Des possibilités infinies

Sur son site web, Meta a mis en ligne plusieurs exemples des créations de son IA classées en trois catégories : réaliste, surréaliste et stylisé. Les clips réalistes ressemblent à de véritables vidéos mettant en scène des éléments du quotidien, comme un couple marchant sous la pluie ou un cheval qui s’abreuve. Il est difficile d’y deviner l’œuvre d’une intelligence artificielle.

meta
Un clip créé à partir du texte “Horse drinking water”.

Les productions estampillées surréalistes montrent notamment un ours en peluche en train de peindre ou un chat avec une télécommande à la main.

 

meta
Un clip généré par l’IA sur base du texte “A dog wearing a Superhero outfit with red cape flying through the sky”

Enfin, les clips stylisés comprennent des peintures à l’huile en mouvement ou des séquences cartoonesques. Comme annoncé, Make-A-Video est capable de produire une vidéo inspirée d’une ou deux images fixes. Sur ce point, les rendus nous paraissent plus approximatifs. Les mouvements ajoutés par l’IA semblent parfois anormaux, surtout quand des êtres humains sont impliqués.

meta
Une vidéo conçue sur base d’une image fixe.

Plusieurs exemples de vidéos conçues sur base d’une séquence originale sont aussi visibles. L’IA peut générer une vidéo similaire à la première en identifiant quels sont les éléments importants. Là encore, certains rendus manquent de précision. Certains éléments du clip initial paraissent mal interprétés.

Les précautions de Meta

Conscient des dérives éventuelles, Meta place un filigrane sur toutes les images conçues par son intelligence artificielle. Cette précaution vise à éviter qu’un clip factice soit utilisé pour propager de fausses informations. L’entreprise explique vouloir s’assurer « que les téléspectateurs savent que la vidéo a été générée avec l’IA et qu’il ne s’agit pas d’une vidéo de la réalité ». Meta assure par ailleurs mettre en place un système de filtres pour « réduire le risque de création de contenu nocif ». Il ne sera donc pas possible de créer n’importe quoi.

Pour le moment, Make-A-Video n’est pas disponible pour tous les internautes. Pour tester l’intelligence artificielle, il faut déposer une demande d’inscription au programme d’essai de Meta. Le géant américain s’est cependant engagé à mettre en ligne « une expérience de démonstration » dans un avenir proche. Gageons que le système soit ouvert à tous les utilisateurs dans les mois à venir.

Source :

Meta



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.