Modelos avanzados de generación de video para crear contenido visual impresionante a partir de descripciones de texto.
Sora 2 ofrece audio sincronizado, calidad 4K y física mejorada para video cinematográfico.
El revolucionario modelo de generación de video de OpenAI capaz de crear escenas realistas y creativas a partir de instrucciones de texto.
Kling 3.0 ofrece generación multisecuencia, movimiento con reconocimiento físico, salida nativa en 4K y audio sincronizado en un modelo unificado.
Kling 2.6 incorpora generación de audio nativa y control avanzado sobre la coherencia visual y la fidelidad del movimiento de los personajes.
Kling O1 integra varias tareas de video en una arquitectura unificada, incluida la generación basada en referencias y la interpolación de fotogramas clave.
Runway Gen-3 Alpha ofrece imágenes de calidad cinematográfica con personajes humanos expresivos y control temporal de alta precisión.
Pika 2.1 introduce generación de video en alta definición 1080p con Pikadditions para una inserción de objetos fluida.
Pika 2.0 añadió la función Scene Ingredients para integrar imágenes cargadas por el usuario en videos generados con IA.
Pika 1.5 introdujo Pikaffects, lo que permite transformaciones imaginativas como inflar o derretir objetos.
Luma Dream Machine es un modelo de texto a video capaz de generar movimiento realista a partir de indicaciones del usuario o de imágenes estáticas.
Luma Ray3.14 ofrece generación de video nativa en 1080p, 4 veces más rápida y 3 veces más rentable, con una mayor consistencia en el movimiento.
Luma Genie transforma texto e imágenes en recursos 3D de alta calidad en minutos.
SeeDance 2.0 es un modelo de video de IA de nivel profesional que procesa texto, imágenes, audio y video simultáneamente con calidad cinematográfica.
SeeDance 1.0 se centra en transformar imágenes estáticas en videos fluidos y de aspecto natural.
Google Veo 3.1 ofrece resolución nativa 4K, mayor coherencia en los personajes y compatibilidad con formatos de video vertical como YouTube Shorts.
Google Veo 3 ofrece clips de 8 segundos en alta fidelidad en 720p o 1080p con generación de audio integrada.
Google Veo 2 crea videos de alta calidad con una interpretación precisa de las indicaciones y una simulación realista de la física.
Hailuo 2.3 ofrece una calidad visual mejorada, mayor coherencia de movimiento y una comprensión superior de los prompts con una estética cinematográfica perfeccionada.
Hailuo 02 es un modelo de video cinematográfico con IA que produce videos de nivel profesional con simulaciones físicas ultrarrealistas.
MiniMax Video-01 es el modelo base que ofrece capacidades multimodales para la generación de video.
Mochi 1 es un modelo de texto a video de código abierto con 10 mil millones de parámetros, que ofrece una fuerte adherencia a los prompts y movimiento de alta fidelidad.
LATTE3D genera mallas texturizadas en segundos y actúa como una impresora 3D virtual.
Haiper 2.5 introdujo integraciones de API antes de que el servicio se descontinuara a comienzos de 2025. Ahora adquirido por NetMind.AI.