Come l'intelligenza artificiale e il cloud stanno cancellando i confini nella realizzazione di film e programmi TV

Se sembra che le conversazioni sull'intelligenza artificiale e il cloud computing siano ovunque in questi giorni, non solo nei circoli tecnologici e degli investitori rari, è vero. E da nessuna parte ciò è più vero che nel mondo dell'intrattenimento, dove le classi creative e imprenditoriali sono entrambe preoccupate per le possibili implicazioni per il mestiere che hanno affinato per anni ed entusiaste del potere democratizzante delle tecnologie.

Al recente Sundance Film Festival, ho parlato con numerosi registi, montatori e altri che utilizzano la nuova intelligenza artificiale e le funzionalità cloud-to-camera che trasformano il processo di produzione di film e TV, e dirigenti con Adobe, che rende il software di editing ampiamente utilizzato Premiere Pro e altri strumenti per abilitare la creatività.

È un momento straordinario, in rapida evoluzione, con previsioni senza fiato sia positive che negative, ma anche alcune grandi opportunità per rifare il modo in cui film e TV (chiamiamoli semplicemente basati su video) sono stati realizzati per più di un secolo.

L'abbraccio del settore è appena iniziato. ComcastCMCSA
, ad esempio, appena ricevuto un Emmy tecnico per il suo utilizzo dell'intelligenza artificiale per generare rapidamente momenti salienti di video sportivi.

Anche le star e i loro rappresentanti se ne stanno accorgendo, poiché le tecnologie AI spuntano anche in angoli specializzati del settore.

Ad esempio, l'agenzia di talenti CAA ha firmato una partnership strategica con Metafisica, che fornisce strumenti di "riduzione dell'invecchiamento". Qui, un lungometraggio Miramax basato su una graphic novel. Le star Tom Hanks e Robin Wright interpreteranno i personaggi in una stanza singola mentre invecchiano nel corso di molti anni, dalla loro giovinezza in poi.

Per un'agenzia, l'attrattiva di tale tecnologia è ovvia: le loro più grandi star/clienti sono improvvisamente praticabili in più ruoli, per decenni in più.

Le possibilità rinforzanti della nuova tecnologia

Ma giorno dopo giorno, le possibilità si stanno rafforzando per editori, registi e altri coinvolti nel complesso compito di creare un progetto basato su video. Nelle conversazioni con gli autori in erba i cui progetti indipendenti e documentari riempiono il programma del Sundance, è chiaro che vedono Premiere Pro come una piattaforma collaborativa ad alta velocità che consente una gamma sempre più ampia di possibili usi creativi, da parte di una gamma sempre più ampia di possibili creatori.

di AdobeADBE
Meagan Keane, direttrice del marketing di prodotto per i video professionali, ha definito l'intelligenza artificiale "un enorme apriporta di possibilità quando pensiamo al futuro del cinema. Pensiamo che il futuro sia per tutti”.

Con ciò, intende come l'intelligenza artificiale può aumentare la creatività umana, piuttosto che sostituirla, come alcuni temono. Gli strumenti alimentati dall'intelligenza artificiale potrebbero consentire ai creatori con competenze, risorse o connessioni tecniche modeste o nulle per progetti di moda avvincenti in video e altri media. Anche ora, per i creatori professionisti, l'intelligenza artificiale riduce la fatica di attività ripetitive come guadare filmati per una scena specifica, consentendo agli editor e ad altri creatori di concentrarsi sul quadro (letteralmente) più ampio.

Ma è più grande di questo, ha affermato Michael Cioni, direttore senior dell'innovazione globale di Adobe e sostenitore di lunga data delle tecnologie camera-to-cloud con Frame.io di proprietà di Adobe.

Ogni risorsa digitale è anche una risorsa cloud

Lo dice semplicemente: “Entro il 2031, ogni risorsa elettronica generata nei media e nell'intrattenimento sarà generata nel cloud, dal cloud. È la verità. La chiamo una certezza tecnologica, che ogni risorsa elettronica che viene generata da un dispositivo verrà generata nel cloud" invece che, ad esempio, su un disco rigido locale, celluloide, videocassetta o scheda di memoria.

In un ciclo familiare di trasformazione dei media, i documenti di testo sono stati i primi a passare al cloud (e all'intelligenza artificiale). Ora vengono regolarmente creati, condivisi e rimodellati su servizi basati su cloud come Google Docs, Apple Pages, Microsoft Word e Adobe Acrobat. Centinaia di milioni di persone ascoltano (e creano, collaborano e vendono) musica sul cloud, grazie a Spotify, Apple Music, Amazon Music, Tidal e altri. Ora sta cambiando i media più complessi che creiamo.

"Diciamo che stai girando una scena di un film", ha detto Cioni. “Dopo aver girato una scena: 'Fai piovere', sarai davvero in grado di digitare la lingua. E l'acqua apparirà nello scatto, inizierà a piovere. "Fai nevicare" e inizierà a comparire nello scatto. E non avrai bisogno di essere un ingegnere per farlo. Sembra davvero fantascienza, ma diventerà totalmente fattibile. Lo stiamo vedendo accadere nelle primissime fasi di fermo immagine (foto) e sappiamo che si riverserà nel video. E questo è un attributo davvero importante di dove dobbiamo pensare a come questo influisce sulle persone creative ".

Ciò ha un sacco di implicazioni per il futuro della creazione di immagini in movimento. Come ha affermato Leonard Cohen molto tempo fa, mentre passava da poeta a romanziere e cantautore nei suoi 30 anni, "i confini tra molti sforzi sono svaniti".

Molti cineasti più giovani attraversano abitualmente quei confini, facendo un po' di tutto per realizzare i loro progetti e collaborando abitualmente su piattaforme digitali. Con la consegna cloud-to-camera e l'intelligenza artificiale, possono girare una scena, generare rapidamente un "assemblaggio" approssimativo come punto di partenza per un montaggio, determinando se ce n'è abbastanza per far "funzionare" la scena o se sono necessarie più riprese .

Possono anche elaborare gli effetti visivi di base, la correzione del colore e persino il sound design prima di consegnarlo agli specialisti per la messa a punto. In quanto tale, Premiere è diventato più di un tradizionale programma di editing video non lineare per molti creatori di Sundance.

Costruire una nuova relazione tra esseri umani e immagini

"Questa è una delle nostre più grandi passioni: il rapporto tra gli esseri umani e le telecamere e il modo in cui influisce sulla società", ha dichiarato Maximilien Van Aertryck, co-regista (e co-montatore) del provocatorio documentario Macchina fantastica, quale ha vinto un premio speciale della giuria al Sundance per la visione creativa. "Siamo come antropologi a cui piace divertirsi."

Il loro documentario richiede gentilmente un approccio ponderato al mondo che stiamo creando con questi nuovi strumenti. Come diceva il vecchio scherzo politico, "a chi crederai: a me o ai tuoi occhi bugiardi?" Sempre più spesso, abbiamo bisogno di capire quando i nostri occhi sono mentire e le immagini in movimento dovrebbero essere credute, ha detto il condirettore / montatore di Aertryck, Axel Danielson.

"Il film non ha molte risposte", ha detto Danielson. “Ha delle domande. L'unica risposta che conosciamo è che noi, come società, dobbiamo prendere l'alfabetizzazione mediatica molto seriamente".

Il progetto raccoglie più di un secolo di immagini in movimento, risalendo a pionieri come Georges Melies (il cui soggetto reale avrebbe esclamato quello che è diventato il nome del film). Lungo la strada, si ferma a una snervante e avida Leni Riefenstahl, che fa play-by-play dei suoi scatti preferiti da un raduno nazista a Norimberga, e un combattente dell'ISIS che ripetutamente sbaglia le sue battute in una bobina di blooper da un video di reclutamento di terroristi. Presenta anche parti molto più delicate, ma il punto è che i creatori grandi e terribili sfrutteranno nuovi strumenti in molti modi.

On Macchina fantastica, Van Aertryck e Danielson hanno passato anni a raccogliere clip particolari sulla complicata relazione tra uomo/macchina fotografica e le immagini che creano. Una volta giunto il momento di assemblare il film, hanno lavorato a distanza con il montatore Mikel Cee Karlsson e il produttore esecutivo Ruben Ostlund, lo sceneggiatore e regista due volte candidato all'Oscar (Triangolo della Tristezza) la cui Plattform Produktion ha prodotto il film.

“Non siamo redattori esperti; lo facciamo perché dobbiamo farlo”, ha detto Van Aertryck. "Adobe diventa lo strumento perfetto per noi, perché possiamo inserire tutto lì e condividerlo avanti e indietro".

I quattro hanno utilizzato gli strumenti basati su cloud di Premiere per scambiare clip e sequenze come se fossero seduti attorno a un tavolo, ha detto Van Aertryck, anche se erano sparsi in tutta l'Europa occidentale dal Baltico (Göteborg, Svezia) alle Baleari (Maiorca). Questo è un esempio particolarmente vasto della libertà che offre ai creatori di venire da qualsiasi luogo e lavorare praticamente ovunque, se ne hanno bisogno o lo desiderano.

"Essere in grado di condividere online rende molto più possibile", ha affermato Crystal Kayiza, sceneggiatrice e regista di Sosta, che ha vinto un premio della giuria al Sundance per i cortometraggi statunitensi. "Se voglio tornare in Oklahoma, posso farlo se ci sto (creando) un corto."

L'anno scorso, Adobe ha annunciato nuove funzionalità direct-to-cloud in alcune popolari fotocamere e altri dispositivi di produzione che trasmettono simultaneamente il video mentre viene acquisito. Ciò consente a montatori, produttori, dirigenti e altri specialisti della post-produzione di iniziare a lavorare sul filmato già pochi minuti dopo che è stato girato.

Anche le piccole produzioni utilizzano le tecnologie. Le connessioni cloud erano essenziali, soprattutto all'inizio, nella realizzazione Varsity in Mariachi, ha affermato Daniela T. Quiroz, che ha vinto un premio per il montaggio al Sundance.

I registi Alejandra Vasquez e Sam Osborn stavano ancora girando il documentario sulle gare di ballo delle scuole superiori nella Rio Grande Valley in Texas, quando Quiroz, con sede a Brooklyn, ha iniziato a mettere insieme il progetto. La sua visione iniziale e fresca del materiale già catturato ha contribuito a plasmare le riprese successive e le aree di messa a fuoco.

"In qualità di redattori, abbiamo il privilegio unico di vedere queste persone davanti alla telecamera per la prima volta", ha affermato Quiroz. "Riesci davvero a vedere di chi ti stai innamorando e di quale musica ti stai innamorando."

Fare a meno di quei quotidiani digitali immediatamente accessibili, come i “vecchi tempi” di pochi anni fa, era una necessità per girare A volte penso di morire sul posto in una parte remota della costa dell'Oregon. Invece, i filmati di ogni giorno venivano caricati su dischi rigidi, quindi spediti durante la notte a New Orleans per l'acquisizione negli intermediari digitali. È stato un promemoria dei miglioramenti apportati dalla tecnologia, ha affermato l'editore Ryan Kendrick.

Un nuovo tipo di collaborazione

Ciò ha permesso a Kendrick, con sede a Nashville, di iniziare il montaggio, collaborando con la regista Rachel Lambert e altri in più stati.

"Quanto è bello poter lavorare con chi voglio lavorare, e non siamo legati allo stesso posto", ha detto Kendrick. Cambia anche la dinamica tra registi, direttori della fotografia, montatori e il resto della produzione.

"Ti sei sempre sentito isolato dai set" in passato, ha detto Kendrick. “Ora ti senti più connesso ad esso. Non ti senti così separato dal tono che stanno facendo. La sala di montaggio è davvero un posto fantastico per fare un sacco di errori e fare l'esatto opposto di quello che vuoi fare. Dico sempre: 'Non lo so. Scopriamolo.'”

On A volte mi sento morire, Kendrick, Lambert e il direttore della fotografia Dustin Lane hanno iniziato a parlare settimanalmente molto prima dell'inizio effettivo delle riprese, per evitare potenziali problemi in anticipo.

"Parleremmo dei problemi di editing che potrebbero sorgere", ha detto Kendrick. “Quando ottieni le sceneggiature, la cosa più difficile a cui pensare è come il film passerà alla parte successiva. Nello specifico, nel film, (i protagonisti) vanno al cinema. Abbiamo parlato molto di come avremmo ottenuto le immagini di cui avevamo bisogno per mantenere il peso emotivo".

I rapidi turnaround possibili con Camera-to-Cloud sono particolarmente utili per progetti brevi come spot pubblicitari e video musicali, ha affermato Kendrick.

"Alcuni dei turnaround negli spot pubblicitari sono selvaggi", ha detto Kendrick. Essere in grado di passare avanti e indietro i progetti in Premiere Pro, Frame.io e After Effects era davvero fattibile solo con un'architettura basata su cloud.

"È il più grande (ritardo nei flussi di lavoro di produzione) che è stato eliminato negli ultimi cinque anni", ha affermato Kendrick.

I principi guida per costruire una tecnologia migliore

L'approccio di Adobe alle sue tecnologie si basa su cinque "principi guida": flusso di lavoro, media, collaborazione, produttività e sicurezza, ha affermato Keane.

"Inseriamo davvero l'intelligenza artificiale nella 'produttività'", ha affermato Keane. “Non si tratta di sostituire i creativi. Si tratta di sostituire il banale.

I sindacati di Hollywood stanno osservando da vicino lo spazio dell'IA in rapida evoluzione. Puck ha riferito che il consiglio del più grande sindacato di Hollywood, SAG-AFTRA, prevede di includere la questione dei diritti di somiglianza - utilizzando l'intelligenza artificiale per ricreare l'aspetto, la voce o altri aspetti dei suoi membri - nella prossima contrattazione contrattuale.

Per ora, gli avvocati del talento sono stati avvisati che "qualsiasi lingua in un contratto che pretenda di controllare il diritto di simulare la performance di un attore, (è) 'nulla e inapplicabile fino a quando i termini non saranno stati negoziati con il sindacato'", ha riferito Puck .

La complessa nuova questione potrebbe portare a trattative contrattuali impegnative questa primavera. Gli artisti più giovani e di mezza età che desiderano estendere le loro opportunità di carriera possono abbracciare alcuni usi della tecnologia, ma senza forti protezioni contrattuali, alcuni punti vendita potrebbero utilizzare la tecnologia come un modo per evitare di pagare per spettacoli digitali che tecnicamente non sono gli attori.

Un esempio grossolano di ciò che alla fine potrebbe accadere potrebbe essere trovato per settimane su Twitch, dove "watchmeforever" ha creato un infinito "episodio" generato dall'intelligenza artificiale di Seinfeld. Lo "spettacolo" presentava voci generate al computer, grafica semplice e battute non particolarmente divertenti. Lo spettacolo suggerisce anche ciò che potrebbe eventualmente essere possibile a un livello di qualità molto più elevato. Vale la pena notare che il ciclo infinito è stato interrotto con un avviso di spegnimento quando la routine in piedi del personaggio "Jerry" è virata in quella che era considerata una routine anti-trans.

Aprire il mondo alle attività creative

Su una nota molto più positiva, Keane di Adobe sottolinea l'accesso molto più ampio agli strumenti creativi che l'intelligenza artificiale e il cloud alimenteranno. Elimina la necessità di grandi render farm per generare immagini e suoni di processo, generare effetti e tutto il resto, pur fornendo la potenza di elaborazione e la sicurezza necessarie a qualsiasi progetto video moderatamente ambizioso.

"Se riesci a centralizzare il cloud, puoi aprire la possibilità di avere storie provenienti da tutto il mondo", ha affermato Keane. “La collaborazione deve essere in ogni fase. La prospettiva condivisa rafforza le tue idee o ti sfida ulteriormente.

Come esempio dell'importanza della sicurezza per i registi, ha indicato Keane Piano C, un documentario del Sundance sull'aborto. I suoi creatori dovevano eseguire molteplici sfocature dei volti e delle voci di alcune interviste davanti alla telecamera e una sicurezza corazzata anche per i media originali non sfocati.

L'esplosione dell'intelligenza artificiale generativa, dei falsi profondi e dei problemi correlati significa anche che l'autenticità è più importante che mai, ha affermato Keane. Adobe è membro della Content Authenticity Initiative, insieme ad altre società di media e tecnologia come il New York TimesORA
e Canone.

Keanu Reeves, star dell'iconico franchise di fantascienza La matrice, è meno ottimista. Di recente ha dichiarato a Wired che un uso dannoso di video assistiti da intelligenza artificiale, creazione deepfakes, è "spaventoso". I contratti di Reeves includono abitualmente una clausola che vieta agli studi di manipolare digitalmente la sua performance, una disposizione che risale a decenni fa a una produzione che ha inserito una lacrima virtuale sul suo viso.

"La cosa frustrante è che perdi la tua agenzia", ​​ha detto Reeves delle pratiche invasive. “Quando fai una performance in un film, sai che verrai montato, ma stai partecipando a questo. Se vai nella terra del deepfake, non ha nessuno dei tuoi punti di vista. È spaventoso. Sarà interessante vedere come gli esseri umani gestiranno queste tecnologie".

La prossima tecnologia rivoluzionaria

La prossima tecnologia all'avanguardia, già disponibile in versione beta su Premiere Pro, è il cosiddetto editing basato sul testo, che consente a una persona di modificare il video modificando il testo del dialogo estratto e trascritto dal video dall'intelligenza artificiale. L'intelligenza artificiale evidenzia anche importanti morsi sonori, può creare un assemblaggio iniziale del progetto finale e generare ricerche basate su parole chiave per trovare rapidamente clip o conversazioni specifiche. I dati creati per il progetto diventano un nuovo potente modo per gestire in modo efficiente tutto quel filmato.

"Stai idratando i media con tutti questi dati ricchi", ha detto Keane.

Alcune aziende più piccole hanno già lanciato le loro iniziative su tecnologie simili. Descrizione e podcast può creare una versione digitale della tua voce, quindi farle leggere script basati su testo, senza bisogno di ulteriori modifiche. Descript ha anche recentemente aggiunto l'editing basato su testo per i video, che si tratti di podcast o altri contenuti.

L'editore Kendrick ha affermato di aver già utilizzato gli strumenti di modifica basati su testo di Adobe per aiutare un amico a girare rapidamente un mini-documentario ambientato in Alaska. È probabile che anche l'editing basato sul testo sia immensamente utile per i cosiddetti "predittori", produttori/montatori che in genere devono guadare giorni di filmati per assemblare rapidamente spettacoli senza copione su tempistiche ristrette, ha affermato Kendrick.

Audiolibri, sceneggiature, social media ottengono anche l'intelligenza artificiale

L'intelligenza artificiale sta entrando anche in molti altri angoli dell'intrattenimento. MelaAAPL
lanciato una suite di strumenti AI progettati per creare narrazioni per audiolibri, creando un'altra opzione per gli autori per creare versioni audio a basso costo dei loro progetti "narrati da una voce digitale basata su un narratore umano". La notizia ha suscitato forti obiezioni da parte del corpo d'élite dei narratori di audiolibri umani e dei loro numerosi fan.

C'è sicuramente motivo di fare tesoro del miglior lavoro di quei narratori umani, e potrebbe passare molto tempo prima che uno strumento di intelligenza artificiale possa avvicinarsi alle voci e alle performance avvincenti dei migliori lettori umani sui migliori libri.

Ma il costo dell'utilizzo di quel talento è di gran lunga superiore alle finanze di decine di migliaia di libri pubblicati ogni anno. È qui che la suite di strumenti di Apple potrebbe fornire l'accesso a un altro mercato per quei piccoli libri, autori ed editori che cercano di raggiungere un mercato precedentemente remoto che vale già circa 1.5 miliardi di dollari in tutto il mondo.

Startup Filmustage utilizza l'intelligenza artificiale per scomporre i componenti della sceneggiatura, inclusi elementi come il cast, gli oggetti di scena, i costumi, i veicoli utilizzati, i suoni, i luoghi e altro ancora.

E per quanto riguarda i video brevi e brevi dell'attività, TikTok, Meta's Reels e Alphabet's YouTube Shorts dipendono tutti dall'apprendimento automatico e dagli strumenti di intelligenza artificiale per pubblicare il prossimo video "consigliato" che pensano vorrai guardare, e collegare gli annunci a quell'esperienza in un modo più fluido e coinvolgente.

Ha chiamato l'analista Rich Greenberg di LightShed Partners il passaggio di Facebook a consigli sui contenuti migliorati guidati dall'intelligenza artificiale è estremamente costoso, ma "alla fine potrebbe rivelarsi (il CEO di Meta Mark) il secondo perno più impressionante di Zuckerberg (dopo il mobile) su una piattaforma che si è costantemente evoluta sin dal suo inizio."

Fonte: https://www.forbes.com/sites/dbloom/2023/02/24/how-ai-and-the-cloud-are-erasing-the-borders-in-making-movies-and-tv- Spettacoli/