Stilstaand is niet genoeg meer
Beelden die bewegen, veranderen, reageren. Dat is waar AI naartoe gaat. Dankzij generatieve video- en animatietools maken we de stap van statisch naar dynamisch — van beeld naar ervaring. Een statische afbeelding kan worden omgezet in een video, zoals een foto van iemand bij een zwembad die transformeert tot een bewegend tafereel. Ook de overgang tussen twee afbeeldingen kan nu gevisualiseerd worden met behulp van AI.
Waar men vroeger fade-effecten of andere filmtechnieken gebruikte om transformaties te realiseren, kan AI nu elk frame uniek maken, wat resulteert in een vloeiende overgang. Het eindresultaat is precies zoals je wenst, terwijl je volledige controle hebt over de transitie. De resultaten zijn nog ruw, maar de richting is duidelijk: beeld wordt vloeibaar.
WAN2.1 en LTX kunnen vandaag al korte video’s genereren op basis van een stilstaand beeld. Denk aan een schilderij dat tot leven komt, of een AI-personage dat je prompt omzet in een dans. Maar verwacht nog geen Hollywoodkwaliteit: de frames zijn vaak beperkt, de bewegingen stijf en het neemt nog heel veel tijd in beslag.
Zo kan een Nvidia 4090-videokaart, momenteel een van de krachtigste grafische kaarten met 24GB VRAM, tussen de 30 en 50 uur nodig hebben om een video van slechts vijf seconden in full HD te genereren. En zelfs dan is het resultaat vaak slechts gedeeltelijk bruikbaar doordat het model tijdens het proces de consistentie in beweging kan verliezen, wat leidt tot artefacten.
De video die wel 30 uur nodig had om te verwezenlijken was met WAN2.1 gemaakt, een van de meest geavanceerde videomodellen. WAN2.1 biedt indrukwekkende mogelijkheden doordat het bewust is van fysica en complexe bewegingen, maar de benodigde verwerkingstijd blijft een groot obstakel.
Andere modellen zoals LTX hebben bewezen dat videoproductie ook sneller en op lichtere hardware mogelijk is. Met LTX kan een video van vergelijkbare lengte binnen een minuut worden gegenereerd op een Nvidia 4090-kaart.
Beide modellen ondersteunen het maken van video’s op basis van een prompt, een enkele afbeelding, of twee afbeeldingen. Het gebruik van twee afbeeldingen biedt de mogelijkheid om video’s aan elkaar te verbinden, wat interessante creatieve toepassingen mogelijk maakt.
Hoewel AI voor video nog relatief erg nieuw is, zijn de eerste resultaten veelbelovend. Toch blijft de creatieve controle voor video voorlopig beperkt. Je kunt een begin- en eindframe definiëren, maar verdere detaillering is momenteel nog lastig.
Een AI die drie benen genereert of gezichten vervormt? Dat is niemand onbekend. De reden hierachter is dat AI-modellen niet context bewust werken. Bovendien worden belangrijke elementen van referentiemateriaal vaak aangepast.Vroeger noemden we dat een fout. Maar steeds vaker omarmen veel makers net die absurditeit. AI wordt zo een bron van visuele humor, vervreemding en expressie. De artefacten worden een esthetisch element.
Denk maar aan een man met duikuitrusting vergezeld door een roze panda en een kat met een hoge hoed, terwijl op de achtergrond een vulkaan uitbarst. Zulke over-the-top beelden worden vaak met meer humor en minder kritiek ontvangen, juist omdat ze overduidelijk door AI zijn gemaakt.
“In plaats van het gebruik van AI te verbergen, kun je er beter op inspelen.”
De resultaten die AI genereert, zijn sterk afhankelijk van de input die aan de modellen wordt gegeven. Met de juiste input en datasets kan AI complexe gegevens omzetten in indrukwekkende visuele creaties.
Een treffend voorbeeld is het werk van Rafik Anadol voor het MoMA. Hij creëerde een continu evoluerende video die gebaseerd was op de volledige geschiedenis van het museum. Dankzij AI werd abstracte data omgezet in een visuele ervaring. De video van Anadol is uniek in zijn soort, geen enkel frame is ooit dezelfde. Dit geeft het kunstwerk een digitaal organisch karakter, alsof het voortdurend "leeft" en zichzelf aanpast.
Deze constante evolutie kan ook worden toegepast in interactieve installaties. In real time kunnen beelden worden beïnvloed en aangepast op basis van veranderende input. Een eenvoudige toepassing van deze interactieve mogelijkheden is bijvoorbeeld het gebruik van AI-filters. Complexere toepassingen kunnen echter verder gaan door gebruik te maken van meer geavanceerde datasets of inputs. Stel je een video-installatie voor waarbij het aantal mensen bepaalt of een AI landschap rond hen zonnig of grijs is. AI maakt het mogelijk om zulke dynamische interacties te ontwerpen, waarbij data en visuals samenkomen.
Het tijdperk van de traditionele afbeelding ligt achter ons. De lijn tussen echte en gegenereerde beelden vervaagt in een ongekend tempo. Is een beeld nog een fysieke momentopname, of is het een visuele vertaling van een complexe dataset? Het onderscheid is nu al nauwelijks te maken. Dankzij AI worden beelden, zowel stilstaand als bewegend, steeds veelzijdiger en adaptiever.
AI vervangt de klassieke beeldmaker niet, maar introduceert een nieuwe taal: een die beweegt, verandert en reageert. De toekomst van beeld is vloeibaar. En de vraag is niet of je daarin meegaat, maar hoe je het gebruikt om je verhaal krachtiger te maken.
Victor is een digitale artiest met een passie voor de samensmelting van technologie en kunst. Dankzij zijn uitgebreide academische achtergrond heeft hij diepgaande kennis van creatieve processen in uiteenlopende media, variërend van illustratie tot games. Tegenwoordig richt hij zich op het innoveren met de nieuwste AI-technologieën, waarbij hij streeft naar ethische en vernieuwende vormen van creatie.
Wil je graag meer weten over een bepaald inzicht of samen bespreken welke mogelijkheden deze inzichten voor jouw merk te bieden hebben?
Neem contact met ons op en we bespreken het graag.
Sven Luyten
Co-Founder en Growth Architect +KOO