Modelli avanzati di generazione video per creare contenuti visivi straordinari a partire da descrizioni testuali.
Sora 2 offre audio sincronizzato, qualità 4K e fisica migliorata per video cinematografici.
Il rivoluzionario modello di generazione video di OpenAI, in grado di creare scene realistiche e creative a partire da istruzioni testuali.
Kling 3.0 offre generazione multi-shot, movimento con consapevolezza fisica, output nativo in 4K e audio sincronizzato in un modello unificato.
Kling 2.6 include generazione audio nativa e un controllo avanzato sulla coerenza visiva e sulla fedeltà dei movimenti dei personaggi.
Kling O1 integra varie attività video in un’unica architettura, includendo la generazione basata su riferimenti e l’interpolazione dei fotogrammi chiave.
Runway Gen-3 Alpha offre immagini di qualità cinematografica con personaggi umani espressivi e un controllo temporale preciso.
Pika 2.1 introduce la generazione video ad alta definizione 1080p con Pikadditions per un'integrazione fluida degli oggetti.
Pika 2.0 ha aggiunto la funzionalità Scene Ingredients per integrare immagini caricate dagli utenti nei video generati dall’IA.
Pika 1.5 ha introdotto Pikaffects, consentendo trasformazioni immaginative come gonfiare o sciogliere oggetti.
Luma Dream Machine è un modello text-to-video in grado di generare movimenti realistici a partire da prompt dell’utente o immagini statiche.
Luma Ray3.14 offre generazione video nativa in 1080p, 4 volte più veloce e 3 volte più conveniente, con una migliore coerenza del movimento.
Luma Genie trasforma testi e immagini in asset 3D di alta qualità in pochi minuti.
SeeDance 2.0 è un modello video AI di livello professionale che elabora testo, immagini, audio e video in modo simultaneo con qualità cinematografica.
SeeDance 1.0 si concentra sulla trasformazione di immagini statiche in video fluidi e dall’aspetto naturale.
Google Veo 3.1 offre una risoluzione 4K nativa, una migliore coerenza dei personaggi e il supporto per formati video verticali come YouTube Shorts.
Google Veo 3 offre clip ad alta fedeltà della durata di 8 secondi in 720p o 1080p con generazione audio integrata.
Google Veo 2 crea video di alta qualità con un'interpretazione accurata dei prompt e una simulazione realistica della fisica.
Hailuo 2.3 offre una qualità visiva migliorata, una coerenza del movimento superiore e una comprensione dei prompt più accurata, con estetiche cinematografiche raffinate.
Hailuo 02 è un modello video AI cinematografico che produce video di livello professionale con simulazioni fisiche ultra realistiche.
MiniMax Video-01 è il modello di base che offre funzionalità multimodali per la generazione video.
Mochi 1 è un modello open-source da testo a video con 10 miliardi di parametri, che offre una forte aderenza ai prompt e un movimento ad alta fedeltà.
LATTE3D genera mesh testurizzate in pochi secondi, funzionando come una stampante 3D virtuale.
Haiper 2.5 ha introdotto le integrazioni API prima che il servizio venisse interrotto all’inizio del 2025. Ora acquisito da NetMind.AI.