Zaawansowane modele generowania wideo do tworzenia imponujących treści wizualnych na podstawie opisów tekstowych.
Sora 2 oferuje zsynchronizowany dźwięk, jakość 4K oraz ulepszoną fizykę do filmowych materiałów wideo.
Rewolucyjny model generowania wideo firmy OpenAI, zdolny tworzyć realistyczne i kreatywne sceny na podstawie instrukcji tekstowych.
Kling 3.0 oferuje generowanie wieloujęciowe, ruch zgodny z zasadami fizyki, natywne wyjście 4K oraz zsynchronizowany dźwięk w jednym modelu.
Kling 2.6 oferuje natywne generowanie dźwięku oraz zaawansowaną kontrolę nad spójnością wizualną i wiernością ruchu postaci.
Kling O1 integruje różne zadania związane z wideo w ujednoliconej architekturze, obejmując generowanie na podstawie materiału referencyjnego oraz interpolację klatek kluczowych.
Runway Gen-3 Alpha zapewnia kinową jakość obrazu z ekspresyjnymi postaciami ludzkimi i precyzyjną kontrolą czasową.
Pika 2.1 wprowadza generowanie wideo w wysokiej rozdzielczości 1080p z funkcją Pikadditions umożliwiającą płynne wstawianie obiektów.
Pika 2.0 dodał funkcję Scene Ingredients do integrowania obrazów przesyłanych przez użytkowników z filmami generowanymi przez AI.
Pika 1.5 wprowadza Pikaffects, umożliwiając kreatywne transformacje, takie jak nadmuchiwanie lub topienie obiektów.
Luma Dream Machine to model text-na-wideo zdolny generować realistyczny ruch na podstawie podpowiedzi użytkownika lub nieruchomych obrazów.
Luma Ray3.14 zapewnia natywne generowanie wideo w 1080p, 4 razy szybsze i 3 razy bardziej opłacalne, z lepszą spójnością ruchu.
Luma Genie przekształca tekst i obrazy w wysokiej jakości zasoby 3D w kilka minut.
SeeDance 2.0 to profesjonalny model wideo AI, który jednocześnie przetwarza tekst, obrazy, dźwięk i wideo, zapewniając filmową jakość.
SeeDance 1.0 koncentruje się na przekształcaniu statycznych obrazów w płynne, naturalnie wyglądające filmy.
Google Veo 3.1 oferuje natywną rozdzielczość 4K, ulepszoną spójność postaci oraz obsługę pionowych formatów wideo, takich jak YouTube Shorts.
Google Veo 3 generuje wysokiej jakości 8‑sekundowe klipy w 720p lub 1080p z wbudowanym dźwiękiem.
Google Veo 2 tworzy wysokiej jakości filmy z precyzyjną interpretacją promptów i realistyczną symulacją fizyki.
Hailuo 2.3 oferuje ulepszoną jakość obrazu, lepszą spójność ruchu i doskonalsze rozumienie poleceń, z dopracowaną filmową estetyką.
Hailuo 02 to filmowy model wideo AI tworzący profesjonalne materiały z ultrarealistycznymi symulacjami fizyki.
MiniMax Video-01 to bazowy model oferujący multimodalne możliwości generowania wideo.
Mochi 1 to otwartoźródłowy model text‑to‑video z 10 miliardami parametrów, zapewniający wysoką zgodność z promptem i wysoką wierność ruchu.
LATTE3D generuje teksturowane siatki w kilka sekund, działając jak wirtualna drukarka 3D.
Haiper 2.5 wprowadził integracje API, zanim usługa została wycofana na początku 2025 roku. Obecnie przejęta przez NetMind.AI.