Runway lancerer en ny neural netværksmodel til at lave videoer ud fra en tekstbeskrivelse
Miscellanea / / April 02, 2023
Dette er en analog af Midjourney, men til korte videoer.
Kunstig intelligens, der konverterer tekst til et billede, er nu ægte mainstream, men lignende neurale netværk til video tager kun fart. Forrest i denne retning er startup'en Runway, som frigivet allerede den anden AI-model, der genererer korte videoer baseret på flere ord.
Runway tilbyder en webbaseret videoeditor, der er specialiseret i maskinlæringsværktøjer såsom fjernelse af baggrund. Dette firma hjalp med at udvikle Stable Diffusion tekst-til-billede-modellen, og i februar annonceret sin første AI-videoredigeringsmodel Gen-1.
Gen-1 fokuserede på at konvertere eksisterende optagelser, hvilket giver brugerne mulighed for at anvende en bestemt stil af overlejring fra billede til rulle. Gen-2-modellen er mere fokuseret på at skabe videoer fra bunden.
Demoerne, der deles på Runway, er korte, ustabile og bestemt ikke fotorealistiske, men selv sådanne rammer demonstrerer en god forståelse af AI af tredimensionelt rum, proportioner og bevægelseslogikken genstande.
Mens Gen-2 ikke er frit tilgængelig, forsikrede en Runway-talsmand, at virksomheden vil "give bred adgang i de kommende uger."
Udsigterne for introduktionen af en sådan kunstig intelligens skræmmer allerede eksperter. Når alt kommer til alt, lover neurale netværk til at arbejde med video ikke kun nye kreative muligheder, men også nye trusler mod desinformation.
Læs også🧐
- Fotorealisme og fem fingre: Midjourneys neurale netværk er blevet opdateret til version 5
- Midjourney neurale netværk kombinerer nu billeder. Her er 15 sjove "kryds"
- Midjourneys neurale netværk tegnede "de smukkeste mennesker på planeten"