Het nieuwe Veo 3.1 AI-videomodel van Google kan afbeeldingen in clips samenvoegen

Google DeepMind heeft Veo 3.1 geïntroduceerd, de nieuwste update van zijn videogeneratiemodel. Zoals de naam al doet vermoeden, is dit een verbeterde versie van Veo 3. Deze nieuwe iteratie is beschikbaar via platforms als Flow, de Gemini-app en de Gemini API en richt zich op het bieden van geavanceerdere tools aan makers voor het combineren van afbeeldingen en het verbeteren van het visuele realisme in door AI gegenereerde media. Google heeft ook een kleinere, minder krachtige versie uitgebracht genaamd Veo 3.1 Fast. Dit laatste biedt snellere generatietijden wanneer volledige betrouwbaarheid niet strikt noodzakelijk is.

De kerncapaciteit van Veo 3.1 is de mogelijkheid om meerdere, afzonderlijke beelden samen te voegen tot één enkele, uniforme videoclip. Deze functie, die binnen de Flow-bewerkingstool ‘Ingredients to Video’ wordt genoemd, stroomlijnt de vroege productiefasen. Een gebruiker kan verschillende afzonderlijke referentiebeelden invoeren (die een personage, een object of een artistieke stijl specificeren) en het model synthetiseert een doorlopende scène waarin al deze visuele elementen zijn verwerkt. Een belangrijke verbetering in deze versie is het genereren van rijke, gesynchroniseerde audio voor de clips. Dit voegt een cruciale laag van diepgang en professionaliteit toe die voorheen ontbrak.

Het model komt ook tegemoet aan de behoefte aan een betere verhaalstroom in gegenereerde clips. De functie “Frames to Video” vereenvoudigt het creëren van vloeiende, filmische overgangen. Gebruikers leveren alleen het startbeeld en het eindbeeld van een reeks, en Veo 3.1 genereert automatisch de doorlopende videobeelden die de twee eindpunten naadloos met elkaar verbinden. Deze functie is vooral handig voor het maken van opnamen of kunstzinnige overgangen tussen scènes. Hoewel twee contrasterende beelden onvoorspelbare, surrealistische resultaten kunnen opleveren, leidt het leveren van esthetisch vergelijkbare frames tot een zeer coherent resultaat.

Bovendien kunnen makers nu langere reeksen bouwen. Met de verbeterde “Extend”-mogelijkheid kunnen gebruikers een bestaande clip verlengen door het model de voortzetting te laten baseren op de laatste seconde van de voorgaande beelden. Dit helpt de visuele samenhang en continuïteit te behouden bij het maken van reeksen die een minuut of langer kunnen duren. Over het geheel genomen zou het de historische beperkingen op de videolengte in AI-tools aanzienlijk moeten verminderen.

Google heeft ook de toolkit voor directe scènemanipulatie uitgebreid. Met de functie ‘Invoegen’ kunnen makers nieuwe elementen in een bestaande clip introduceren. De AI verzorgt het complexe integratiewerk en past automatisch schaduwen, belichting en texturen aan om ervoor te zorgen dat de toevoeging er visueel natuurlijk uitziet binnen de scène.

Bovendien zal Google binnenkort een functie uitbrengen waarmee gebruikers ongewenste objecten of tekens uit een clip kunnen verwijderen. De AI reconstrueert de achtergrond om een ​​nette bewerking te garanderen. Deze nauwkeurige bewerkingsmogelijkheden bieden een niveau van gedetailleerde controle dat makers zullen waarderen.

Veo 3.1 is nu beschikbaar en biedt een verbeterd realisme en een betere naleving van gebruikersprompts. Het belooft ook een verfijnder begrip van filmstijlen. De introductie van het model biedt een nauwkeurigere en capabelere reeks opties voor degenen die AI gebruiken in hun workflows voor het maken van video’s.

Thijs Van der Does