Adobe ha dichiarato di aver iniziato a distribuire pubblicamente un modello di AI in grado di generare video a partire da richieste di testo, unendosi al crescente campo di aziende che cercano di sconvolgere la produzione cinematografica e televisiva utilizzando l’intelligenza artificiale generativa.
Il Firefly Video Model, come viene chiamata la tecnologia, competerà con Sora di OpenAI, presentato all’inizio di quest’anno, mentre il proprietario di TikTok, ByteDance, e Meta Platforms hanno annunciato i loro strumenti video negli ultimi mesi.
Di fronte a rivali molto più grandi, Adobe ha puntato il suo futuro sulla costruzione di modelli addestrati su dati di cui detiene i diritti d’uso, garantendo che i risultati possano essere utilizzati legalmente in lavori commerciali.
Adobe, con sede a San Jose, California, inizierà ad aprire lo strumento alle persone che si sono iscritte alla sua lista d’attesa, ma non ha fornito una data di rilascio generale.
Sebbene Adobe non abbia ancora annunciato alcun cliente che utilizzi i suoi strumenti video, ha dichiarato che Gatorade, di proprietà della PepsiCo, utilizzerà il suo modello di generazione di immagini per un sito in cui i clienti possono ordinare bottiglie personalizzate, e Mattel ha utilizzato gli strumenti di Adobe per aiutare a progettare le confezioni della sua linea di bambole Barbie.
«Per i suoi strumenti video, Adobe ha puntato a renderli pratici per l’uso quotidiano da parte dei creatori e degli editor di video, con un’attenzione particolare a far sì che i filmati si fondano con quelli convenzionali», ha dichiarato Ely Greenfield, Chief Technology Officer di Adobe per i media digitali.
«Ci concentriamo davvero sul controllo a grana fine, insegnando al modello i concetti che usano gli editor video e i videografi – cose come la posizione della telecamera, l’angolo della telecamera, il movimento della telecamera», ha detto Greenfield a Reuters in un’intervista.