Modèles avancés de génération vidéo pour créer des contenus visuels remarquables à partir de descriptions textuelles.
Sora 2 offre un son synchronisé, une qualité 4K et une physique améliorée pour des vidéos cinématographiques.
Le modèle révolutionnaire de génération vidéo d’OpenAI, capable de créer des scènes réalistes et créatives à partir d’instructions textuelles.
Kling 3.0 propose une génération multi‑plans, des mouvements tenant compte de la physique, une sortie 4K native et un audio synchronisé dans un modèle unifié.
Kling 2.6 offre une génération audio native ainsi qu’un contrôle avancé de la cohérence visuelle et de la fidélité des mouvements des personnages.
Kling O1 intègre diverses tâches vidéo dans une architecture unifiée, incluant la génération basée sur des références et l’interpolation d’images clés.
Runway Gen-3 Alpha offre des visuels de qualité cinématographique avec des personnages humains expressifs et un contrôle temporel précis.
Pika 2.1 introduit la génération vidéo haute définition 1080p avec Pikadditions pour une insertion d’objets fluide.
Pika 2.0 a ajouté la fonctionnalité Scene Ingredients pour intégrer des images téléchargées par l'utilisateur dans des vidéos générées par l'IA.
Pika 1.5 a introduit Pikaffects, permettant des transformations imaginatives comme le gonflement ou la fonte d’objets.
Luma Dream Machine est un modèle de génération vidéo à partir de texte, capable de produire des mouvements réalistes à partir de requêtes utilisateur ou d’images fixes.
Luma Ray3.14 offre une génération vidéo native en 1080p, 4 fois plus rapide et 3 fois plus économique, avec une meilleure cohérence des mouvements.
Luma Genie transforme du texte et des images en ressources 3D de haute qualité en quelques minutes.
SeeDance 2.0 est un modèle vidéo IA professionnel capable de traiter simultanément texte, images, audio et vidéo avec une qualité cinématographique.
SeeDance 1.0 est conçu pour transformer des images statiques en vidéos fluides et naturelles.
Google Veo 3.1 offre une résolution 4K native, une meilleure cohérence des personnages et la prise en charge des formats vidéo verticaux comme YouTube Shorts.
Google Veo 3 produit des séquences de 8 secondes en haute fidélité, en 720p ou 1080p, avec génération audio intégrée.
Google Veo 2 crée des vidéos de haute qualité avec une interprétation précise des prompts et une simulation réaliste de la physique.
Hailuo 2.3 offre une qualité visuelle améliorée, une meilleure cohérence des mouvements et une compréhension supérieure des prompts, avec des esthétiques cinématographiques affinées.
Hailuo 02 est un modèle vidéo cinématographique d’IA produisant des vidéos de qualité professionnelle avec des simulations physiques ultra‑réalistes.
MiniMax Video-01 est le modèle de base offrant des capacités multimodales pour la génération vidéo.
Mochi 1 est un modèle texte‑vers‑vidéo open source doté de 10 milliards de paramètres, offrant une forte fidélité au prompt et un mouvement de haute précision.
LATTE3D génère des maillages texturés en quelques secondes, agissant comme une imprimante 3D virtuelle.
Haiper 2.5 a introduit des intégrations API avant que le service ne soit arrêté début 2025. Désormais acquis par NetMind.AI.