Innovation Stories
"Innovation Stories" è un podcast dinamico che si immerge nei temi dell'innovazione e della crescita personale, condotto da Daniele Di Veroli. Questo podcast è dedicato a scoprire i modelli ricorrenti che portano al cambiamento e alla trascendenza dei confini personali. La missione di Daniele è quella di condividere preziose intuizioni su come l'innovazione possa essere sfruttata non solo nella tecnologia e nel business, ma anche come potente strumento per lo sviluppo personale e il successo. Ogni episodio invita gli ascoltatori in un mondo in cui la trasformazione è possibile, esplorando come gli individui e le organizzazioni possono navigare nelle complessità del mondo moderno per emergere più forti, più adattabili e innovativi. Unisciti a noi per comprendere l'essenza dell'innovazione e della crescita personale, ispirandoti a superare i tuoi limiti e raggiungere un successo senza precedenti.
Innovation Stories
L'Intelligenza Artificiale e il Cinema
Scoprite come l'intelligenza artificiale stia ridefinendo il cinema nel nostro ultimo episodio di Innovation Stories. Assieme al produttore cinematografico Riccardo Marchegiani esploriamo il passaggio epocale dalla pellicola al digitale, e come l'AI stia modificando il panorama produttivo cinematografico.
Nel cuore della post-produzione, l'intelligenza artificiale si manifesta attraverso strumenti avanzati come Film AI e Color Lab. Discutiamo di come queste tecnologie non solo semplifichino il montaggio e il color grading, ma migliorino anche la collaborazione e la creatività tra registi e produttori. L'efficienza acquisita permette di risparmiare tempo prezioso, che può essere reinvestito nell'aspetto artistico del cinema, dalla luce ai colori, fino all'audio e agli effetti speciali.
Visit my website https://danielediveroli.com
If you want to discuss a project, brainstorm an idea or for any other reason, schedule a free consulting video call.
Benvenuto su Innovation Stories, il podcast che parla di innovazione, growth mindset e intelligenza artificiale. Vorrei innanzitutto che ti introducessi ai nostri ascoltatori, ci raccontassi un po' chi sei e cosa fai, in particolare nel settore del cinema, e poi inizieremo a parlare un po' di come stai utilizzando o utilizzerai l'AI, l'intelligenza artificiale.
Riccardo Marchegiani:Ciao Daniele, grazie intanto di avermi invitato. Ho visto la prima puntata con grande, grande attenzione. Mi è piaciuta molto. Io sono un produttore esecutivo soprattutto e faccio anche il produttore cinematografico soprattutto e faccio anche il produttore cinematografico. Però quello che volevo dire è che ho un background molto più legato alla fabbricazione del prodotto che non al finanziamento. Per spiegare che cos'è un produttore, vengo appunto dalla tecnica. Ho cominciato relativamente molto giovane a lavorare alla camera, poi sono passato al montaggio e infine sono passato alla parte logistica della produzione e lì ho ampliato il mio sguardo sulla gestione dei workflow, perché poi alla fine nel cinema è un grande incastro di tanti tipi di workflow, cioè c'è quello della fabbricazione, ognuno dei quali poi è un grande diagramma di Gantt come si incastrano i vari pezzi che sono legati alla camera e dopo alla gestione dell'immagine. Ma lo è anche la parte di produzione, perché comunque io adesso mi occupo spessissimo di cash flow. Quindi significa, come dire, il workflow dei soldi è sempre la stessa cosa, sono tutte quante grandi pipeline che devi fare in modo che non si intasino. Questo è per cominciare e finire praticamente il prodotto.
Riccardo Marchegiani:Come cambia il mio rapporto con l'intelligenza artificiale? Intanto penso che il cambio sia stato molto graduale, solo che noi cominciamo ad utilizzare da due anni e mezzo, insomma, dall'annuncio di CharGPT, cominciamo ad utilizzare il termine intelligenza artificiale C'è sempre stata, nel senso che io le mie prime reti neurali le ho studiate 25 anni fa e grosso modo dal punto di vista teorico non mi sembra che ci siano state delle rivoluzioni incredibili. Dico dal punto di vista teorico, cioè dal punto di vista pratico. Invece ci siamo trovati con questo connubio di masse di dati incredibili. Con l'arrivo della rete, quindi chiaramente diciamo con internet perché io ti parlo appunto delle prime reti neurali, non c'era ancora il protocollo Gouffer, quando mi ricordo che ho sentito la parola rete neurale Abbiamo cominciato ad avere grandi masse di dati e grande potenza di calcolo. Grande potenza di calcolo Le due cose insieme hanno creato, diciamo, la possibilità di avere chat GPT, che dalla settimana scorsa ci parla come computer di Star Trek.
Riccardo Marchegiani:L'algoritmo invece invece c'è da tanto tempo. Però voglio dire che quando noi utilizziamo i programmi, cioè nel senso comunque, quando noi utilizziamo qualsiasi tipo di software, gli algoritmi, dentro il software ce n'è da tanto. Quindi l'intelligenza artificiale ha un cammino lungo che viene da lontano e di cui improvvisamente adesso si parla nel lagone pubblico. Però, ecco, la differenza è solo quella. Nel cinema che cosa succede? abbiamo fatto tantissime rivoluzioni tecnologiche, l'abbandono della pellicola sicuramente è stata la cosa più marcante. Ancora oggi diciamo la pellic per antonomasia, per dire il film, quindi insomma il stesso film.
Riccardo Marchegiani:La parola in inglese vuol dire pellicola. Quindi voglio dire, è proprio la sua natura tecnologica che lo definisce il cinema, e quella l'abbiamo scavalcata. Lo possiamo fare oggi, ma non è necessario, non è più così importante. Quello comincia da che, ti devo dire, comincia il grande processo di trasformazione. Comincia appunto con l'arrivo del digital intermediate, del DI, cioè quando abbiamo cominciato a fare le scansioni della pellicola e abbiamo completamente cambiato il processo di color grading, cioè tutto quello che prima era una stampa molto simile a quella vecchia fotografica, cioè i principi chimici sono esattamente gli stessi e quindi si andava a ritoccare qualche punto di colore nelle scale importanti.
Riccardo Marchegiani:Però insomma, il grande lavoro si doveva fare sul set, sostanzialmente, e poi dopo c'era la possibilità di recuperare un pochino, riequilibrare, ma insomma i direttori della fotografia vedevano i giornalieri, cioè giorno per giorno si proiettavano quello che avevano visto. Quindi io ho cominciato a lavorare. Noi eravamo obbligati perchéunto conciata la camera, quindi ero più piccolo della camera tutta l'equipe doveva seguire il direttore fotografia. Andavamo tutti al laboratorio e ci vedevamo tutti quello che avevamo fatto, tipo due giorni prima che era il tempo tecnico praticamente dello sviluppo, la stampa per proiettarlo qui, ciò da regionale, infinite, molto, molto lunghe, quindi pochissimo sonno, perché poi appunto la scala gerarchica prevedeva sempre che tu eri quello che chiudeva il camion, eri pure quello che l'apriva e quindi insomma dovevi fare queste cose.
Riccardo Marchegiani:Oggi è molto più facile perché, per esempio, la proiezione non esiste più, cioè la proiezione dei girati, salvo casi specifici in cui ci sia il regista che la domanda non si fa più. Quindi non c'è più proprio questo. Anche rito, perché comunque era un momento in cui poi magari una volta a settimana prima, il regista arrivava con la segretaria di edizione, con i capi reparto, quindi il costumista, il truccatore, la costumista, le truccatrici, insomma tutti a vedere quello che avevamo fatto. Era un lavoro molto, molto più amalgamato, diciamo così.
Riccardo Marchegiani:Grazie a questi momenti oggi invece hai la possibilità di vederti direttamente sul telefonino e guardi quello che è stato girato magari il giorno prima. Quindi hai pure accorciato direttamente tantissimo questi tempi. Quindi ci sono dei cambi con la tecnologia. Quello che succede con l'intelligenza artificiale è che ti posso dire che fra poco penso non veramente molto potrai vedere quello che hai girato poche ore prima, cioè durante la stessa giornata, sul tuo telefonino, grazie al fatto che in realtà, probabilmente il percorso del video assist sarà sostituito da un algoritmo che risponde direttamente a quello che gli chiedi e quindi gli dici scusa, mi fai rivedere le scene di tre ore fa. E quello ce l'ha sull'hard disk.
Daniele Di Veroli:C'ha anche magari un suo wifi personale, per cui lo vedi direttamente sul telefonino, sul set, chiedendolo al telefonino secondo te, come l'intelligenza artificiale sta cambiando il processo creativo del cinema e anche quello produttivo, cioè dammi due esempi, secondo te, di come questa cosa si sta implementando allora guarda dal punto di vista creativo.
Riccardo Marchegiani:Ti dico, per esempio, in Francia passo la gran parte del mio tempo negli ultimi anni, ma io sono sempre dalla Roma a Parigi hanno creato un'intelligenza artificiale per la scrittura che si chiama Gennario. Esiste già da qualche anno. È stata pensata da uno dei creatori di Bracco, che è una serie televisiva che qui ha avuto molto successo, un poliziesco e che sostanzialmente ha una struttura da prima che arrivasse a Antropic. Ha una cosa molto simile a Cloud, che è la gestione della Project Knowledge, cioè il fatto che tu possa addestrare minimamente il tuo, il tuo algoritmo su i personaggi, la storia che stai scrivendo, il world setting che hai costruito, quindi su una serie poi addirittura ancora più interessante.
Riccardo Marchegiani:Quindi questo aiuta molto nella parte, diciamo, di scrittura, per individuare i buchi di sceneggiatura. Quindi in questo sta diventando molto più efficace. E Gennario ha proprio all'inizio di settembre 2024 chiuso un accordo con la CACD, che sarebbe l'equivalente della CIAE francese, per una ridistribuzione dei diritti d'autore sulle sceneggiature che utilizza per l'addestramento, visto che diventa un'intelligenza artificiale che si alimenta di storie di sceneggiature, di storie di sceneggiature, ridistribuisce una parte del denaro che ottiene, visto che poi è la comunità stessa e gli iscrittori che la utilizza invece, rispetto al text to video e all'image to video, cioè alla possibilità che l'intelligenza artificiale generi direttamente video.
Riccardo Marchegiani:Come la vedi, beh, siamo ancora un po' lontani, cioè nel senso tutto è embrionale. In questo momento non ci sono, a parte degli esperimenti, non ci sono dei veri equivalenti di mercato. Non abbiamo ancora in sala il film fatto con il text to video o l'image to video. Quando ci sarà quello, chiaramente avremo un nuovo standard, diciamo. Nel settore però è il discorso sempre tra il dilettante e il professionista, cioè il dilettante, per quanto possa essere anche più bravo del professionista, però lo fa per diletto. Diciamo che qui siamo ancora o nel diletto o nell'R&D. Quindi diciamo comunque nella ricerca però non siamo all'interno di circuiti professionali, per cui guadagniamo del denaro. Capito, tutto qua. Quindi non è possibile considerarlo ancora fonte di. Però stiamo andando in questa direzione perché per esempio uno dei tre, uno dei più grossi player del settore del textliono utilizzare. Runaway Lionsgate ha detto in ogni caso dobbiamo integrare le intelligenze artificiali all'interno dei nostri workflow. Però ancora questa cosa fa abbastanza ridere. Io non so se tu hai visto la serie prodotta da Disney, tra l'altro per la sua piattaforma Disney+, di Boris.
Riccardo Marchegiani:L'ultima stagione di Boris è una cosa che parla molto alla bolla dell'audiovisivo italiano. Infatti credo che gli interessanti incassi del film siano stati solo dentro il raccordo anulare di Roma. Però ti dico la quarta stagione è molto interessante perché prende in considerazione la piattaforma, cioè il fatto che Boris dà una cosa che doveva essere proprio segna il passo, diciamo anche, del cambio del nostro rapporto con l'audiovisivo e quindi loro che stavano facendo la telenovela diciamo così, cioè comunque la classica, il classico prodotto per televisione di flusso, che improvvisamente si ritrovava a fare la serie per la piattaforma e quindi dovevano sviluppare tutta la serie per la piattaforma e ogni volta c'era questo ritorno anche dell'executive che parlava dell'algoritmo. Quindi c'era sempre questa cosa, insomma un po' il dio algoritmo, ragazzi, quella è l'intelligenza artificiale, comunque. Quindi, in ogni caso, già da tanti anni con l'arrivo delle piattaforme siamo molto, molto influenzati dall'intelligenza artificiale perché addirittura dal punto di vista editoriale ci dice cosa dobbiamo scrivere prima ancora di fabbricarlo. Siamo toccati già da tempo, dopodiché non abbiamo ancora l'algoritmo per dire ok, facci questa cosa e arriva la sceneggiatura, arriva l'audiovisivo.
Daniele Di Veroli:Questa magia non c'è invece in termini di post produzione. Per quanto riguarda la post produzione, tu utilizzi già dei tool di intelligenza artificiale, tra le altre cose.
Riccardo Marchegiani:Se non erro, hai anche prodotto alcuni film recentemente dove hai utilizzato queste tecnologie io in questo momento sono in post produzione di un film che si chiama MacTube My Love, canto 2, che abbiamo girato nel 2017. È passato un po' di tempo, però abbiamo girato, diciamo, in due momenti differenti cinque mesi di riprese a cavallo del 2016 e del 2017, quindi Canto 2 termina verso fine febbraio 2018 le sue riprese. Il processo è stato piuttosto lungo perché poi c'è stata la creazione di un terzo film non previsto data la massa di girato che abbiamo avuto, e quindi il suo regista ha deciso di andare prima con questo inaspettato film che è diventato Make True My Love, intermezzo passato in concorso a Cannes del 2019, e da quel momento, viste le recezioni, con un mixed feelings sul film, il regista si è preso un grande momento di riflessione nel rifare, ricostruire quel film e poi passare a Canto 2. Quindi Canto 2 adesso è in finale di post-produzione, visto la circolarità che abbiamo nel workflow con questo regista. La circolarità che abbiamo nel workflow con questo regista è che ha bisogno molto di raffinare le immagini e il suono durante la fase di montaggio, perché noi di solito abbiamo un workflow piuttosto semplice, ma quando si gira c'è un trattamento del girato in marina tale che venga ridotto a dei file più leggeri e quindi più gestibili. Con questi si monta.
Riccardo Marchegiani:Una volta che si è montato tutto il film, si fa l'online, cioè si recupera la parte di girato originale con la sua qualità originale e si ricostruisce In qualche modo. È una tradizione che abbiamo ripreso dal fatto che noi giravamo il negativo e poi tagliavamo, montando pezzi di negativo per fare quella che si chiamava la copia lavoro, cioè che era una prima copia di tutto il negativo. Quando abbiamo introdotto il montaggio non lineare che comunque risale a fine anni 80, inizio anni 90, a quel momento lì abbiamo cominciato ad utilizzare appunto dei file, solo che non avevamo le macchine. E anche oggi difficilmente abbiamo delle macchine che riescano a gestire un'enorme quantità di dati prodotta dalle camere E quindi siamo costretti a una fase di downscaling che ci permette di lavorare al montaggio per poi rifare invece la costruzione della copia originale. Questo processo, in realtà è stato molto aiutato grazie a delle nuove tecnologie come film, ai o Color Lab.
Riccardo Marchegiani:In particolare è quello più interessante per noi ci hanno permesso di avere delle LUT, cioè delle Lookup Table, come dire matrici da mettere sopra l'immagine grezza in maniera tale che noi possiamo vedere l'immagine con dei colori differenti. Il color grading, cioè la parte di correzione del colore, comincia attraverso praticamente questo tipo di lavoro con le loot e noi abbiamo avuto la possibilità, anche fortunati, lavorando su un film che è un sequel, che poi sono stati più o meno pensati insieme, hanno gli stessi personaggi, gli stessi attori, le stesse situazioni, quindi gli stessi luoghi e quindi ci ha permesso di poter recuperare già tutte le still del primo film, cioè prendere direttamente dal primo film la color correction che era stata fatta all'epoca e rimetterla direttamente sul secondo. Mentre stavamo lavorando, senza scomodare, già il direttore della fotografia e il colorist, che hanno cominciato a lavorare dopo, hanno ripreso quello che noi gli abbiamo dato al montaggio e hanno cominciato a lavorare rifacendo tutto da capo, però sapendo già come avevamo preso delle decisioni. È stato abbastanza interessante perché quanto meno guadagnato un tempo rispetto al regista in sala di color. Ti voglio dire sicuramente farà ancora delle modifiche perché stiamo facendo ora le color correction, però è stato un processo più fluido. Temo che sarà sempre più così, nel senso che la cosa che è interessante è che quando facciamo la color correction esistono due momenti veri e propri, anche al mix audio, per esempio.
Riccardo Marchegiani:Un primo momento è quello della tecnica, cioè quello di cercare di rendere tutto allo stesso livello, in maniera tale che sia poi lavorabile. Mi sembra una cavolata, però tante volte tu non hai la continuità di luce. Cioè magari hai girato una scena, l'hai girata alle 9 del mattino e poi alle 7 di sera per cercare di recuperare più o meno lo stesso, però non è detto che sia la stessa cosa e poi c'è la famosa nuvola che passa, quella per cui tante volte ci fermiamo e siamo lì 5 minuti a aspettare che recuperiamo lo stesso sole. Cioè quando si gira in generale c'è una continuità di luce. Questa continuità di luce non è detto che oggi, soprattutto quando si va veloce e che si utilizzano tante macchine, non è detto che si possa avere sempre un controllo incredibile, in particolar modo il nostro film che è stato in questo senso particolarmente sperimentale. Quindi c'è bisogno di recuperare questa continuità alla fase finale della posta.
Riccardo Marchegiani:La stessa cosa per l'audio, cioè cercare di avere tutti i suoi stessi ideali. Una volta che hai fatto tutto questo, comincia la parte artistica, cioè quella dove ti diverti e cominci a dire veramente no, però voglio che arrivi da destra più in alto, perché così posso ridisegnare meglio lo zigom, insomma, tutte a destra più in alto, perché così posso ridisegnare meglio lo zigom, insomma tutte queste cose qui. Ecco, noi paradossalmente abbiamo, mentre montavamo, grazie a ColorLab abbiamo avuto la possibilità di dare al regista già l'idea di come fare queste cose, salvo poi però mollare tutto al Colorist e dire adesso però vedetela tu, come rimettere a posto le cose? Invece, credo che nel giro di qualche anno sarà esattamente il contrario, cioè l'intelligenza artificiale e gli algoritmi ci permetteranno veramente, con poco calcolo, di riequalizzare tutto.
Riccardo Marchegiani:Daremo presente direttamente il film conformato all'intelligenza artificiale, li dire a giusta e poi, una volta che tutto è esteso, entriamo e cominciamo a lavorare e cominciamo a fare tutta la parte artistica della luce. Quindi questo, paradossalmente, in un'industria che produce sempre di più e che quindi accorcia anche i tempi dedicati a questo tipo di riflessioni, l'intelligenza artificiale può arrivare a ridarci, a restituirci quel tipo di tempo per la riflessione che non abbiamo più, soprattutto nel cinema. Poi c'è la grande differenza di quello che dobbiamo fruire prima in sala, che comunque è una che utilizza dispositivi diversi, cioè quindi proprio appunto, noi di solito facciamo i color grading o i mix pensando al fatto che venga proiettato dentro una sala. Quindi devi calcolare la grandezza dello schermo, com'è l'impianto dell'audio, e poi tutto questo piano piano si sta riducendo. Entriamo nel computer fino ad arrivare agli iPad e ai telefonini, ai tablet e ai telefonini.
Riccardo Marchegiani:Ecco, questa cosa credo che ci ha portato via tanto tempo che dedicavamo prima alla creazione artistica per avere invece degli standard tecnici, e soprattutto perché poi ci sono sempre meno soldi, diciamo così, perché produciamo molto di più e quindi poi alla fine dobbiamo investire in molti più prodotti. Però il cinema io penso sempre, faccio sempre questa metafora automobilistica e dico il cinema, per quanto sia un grande mercato, rimane sempre un po' la Formula 1 dell'automotive, cioè, mentre la televisione e forse oggi le piattaforme mischiano un po' questa cosa a rendi, lo fai nella formula 1 piuttosto e poi dopo applichi tutto quello che scopri lì, lo applichi direttamente anche all'automotive. Non che non si facciano le ricerche anche nell'automotive, però se ne fanno un po' di meno e in termini, diciamo di contaminazione fra tecnologia e linguaggio che sono la base del cinema, cioè il cinema comunque è una di quelle arti in cui c'è sempre stato questo doppio binario del, del costo, perché comunque è quella che più di tutti ha bisogno dell'equip, ha bisogno comunque di avere più persone che sono dietro il regista, per l'appunto, quindi il director è quindi qualcuno che gestisce, come il direttore d'orchestra. Ecco, quindi significa che devi avere tanti strumenti, solo che questi strumenti cambiano anche con la tecnica, da Melies che facciamo degli esperimenti sempre sull'immagine, e poi ogni volta si integrano e diventano linguaggio.
Riccardo Marchegiani:Tu pensi all'arrivo dell'estetica, che è stato rivoluzionario nell'uso della camera, cioè. Tu pensi all'arrivo della Steadicam, per esempio, che è stato rivoluzionario nell'uso della camera, anche prima scusa dal punto di vista della fotografia. Ecco uno ripensa alla profondità di campo. Poi c'era questo direttore della fotografia americano, greg Tollab. Aveva già cominciato a fare qualche film in cui decideva di lavorare molto sui campi, e Orson Welles lo vede e dice cavolo, però questo è veramente interessante. E con lui fa Citizen Kane, che diventa una di quelle milestone nel cinema per, appunto, come cambia il linguaggio, la grammatica del linguaggio rispetto proprio anche semplicemente alla tecnica. Quindi, con l'arrivo dell'intelligenza artificiale, la grammatica del linguaggio rispetto anche alla tecnica. Quindi, con l'arrivo dell'intelligenza artificiale ci troviamo sicuramente a questo, e poi ci sarà probabilmente anche il cambio del gusto.
Riccardo Marchegiani:Non so se faremo prima noi adattarci all'immagine sintetica o l'immagine sintetica diventerà indistinguibile da quella reale. Non so quale delle due cose arriverà prima. Però un esempio c'è, perché poi, appunto, il fatto di avere nel cinema tutte queste componenti tecnologiche fa sì che in realtà queste tecnologie sono sviluppate in altri campi. Prima quindi, per esempio, l'autotune nella musica. L'autotune nella musica ha aggiustato appunto il tono, quindi insomma il fatto che fa diventare tutti quanti intonati già da tanti anni, talmente tanti anni che ci siamo talmente abituati ad ascoltare cantanti con l'autotune che oggi, quando senti la voce sintetica di un'intelligenza artificiale tipo Suno, che ti crea la musica, non ti fa mica fastidio.
Riccardo Marchegiani:Anzi, passa così. Dunque, questa cosa anche dipende da quanto ci abituiamo noi all'utilizzo dell'intelligenza artificiale. Per esempio, sempre la musica che è più facile, cioè adesso i text to song, nel senso creare veramente subito una canzone già dall'anno scorso mi sembra particolarmente facile. Non mi sembra che abbiamo visto questa scalata delle classifiche in giro per il mondo di canzoni sintetiche. Io la prima che ho visto è stata a luglio del 2024, di una nella scaletta dal luglio del 2024 nella top ten tedesca, ma comunque fatta da un produttore musicale che quindi conosce esattamente tutti i meccanismi e non è una persona che si è svegliata una mattina, ha spinto un pulsante su su uno e improvvisamente è uscita la nonna di Beethoven a questo proposito volevo chiederti come vedi l'avvento degli attori digitali e dei deepfake, cioè tutto questo tipo di tecnologie che vengono utilizzate per la sostituzione degli attori.
Daniele Di Veroli:Io penso all'ultimo film di Indiana Jones, ma mi potresti anche fare tu tantissimi esempi. Come vedi questa cosa?
Riccardo Marchegiani:quello di Indiana Jones è sicuramente quello più famoso per ora in maniera positiva, diciamo così, probabilmente ti direi di Irishman, quello che non ha usato i deepfake e che è passato invece in maniera negativa, cioè che è stato proprio il momento spartiacco in cui ci siamo detti ma perché i deepfake?
Riccardo Marchegiani:no, perché utilizzava invece una tecnologia più classica di CGI guarda, io sono un grande fautore, cioè proprio quelli che chiamo i beauty shot, il fatto di comunque anche solo semplicemente cercare di ringiovanire. Sono un grande, un grande fan del deep fake. Penso che ci farà appunto guadagnare tempo rispetto a prostetici, rispetto a trucco, parrucco, cioè il fatto in generale di poter lavorare così normalmente e poter ritoccare dopo in post-produzione. È sempre una questione di tempi. È sempre una questione di tempi e costi, chiaramente, di quante persone tu quindi stai mobilizzando nella fabbricazione di un film. Sono il momento delle riprese, perché è il momento in cui aggreghi tutti e quindi tu hai tantissimi reparti che devono lavorare tutti insieme. E parliamo di piccoli film indipendenti che si fanno quelli che lo fanno, 1, 2, 3, per carità, però diciamo che normalmente c'è sempre quel minimo di 15-20 persone e arriviamo ai grandi colossal.
Riccardo Marchegiani:Vi parlo proprio il blockbuster o le serie importanti, che sui momenti di azione, per esempio, possa avere anche i pd 500 persone più tutto quello che muove intorno, perché io ti sto parlando di tecnici, cioè quando cominciamo a mettere anche le comparse che, per esempio, sono una delle cose che è stata prima toccata dall'utilizzo dei VFX, cioè la moltiplicazione. Ti ricordi Forrest Gump, la grande scena del lago, come si chiama la cosa, washington, dove sono stati moltiplicati la battaglia di Algeria e di Ponte Corbo, quelli erano tutti liberi. Questa cosa oggi diventa molto più facile, cioè il fatto che i VFX sono la cosa che sicuramente è più impattata e sarà sempre meglio e saranno sempre ridotti, però ci tornerà sempre poi il controllo creativo di tutto questo. Quindi io ti dico secondo me abbiamo finito con le rotoscopie in India, però avremo sempre bisogno di più bravi VFX supervisor, e questa cosa si integrerà sempre di più anche con con gli attori, che ci porta a un problema più etico.
Riccardo Marchegiani:Diciamo che anche la scoperta di nuovi talenti, cioè indiana jones per esempio, è chiaramente l'occasione mancata di lanciare un nuovo attore che avrebbe potuto prendere il ruolo di Harrison Ford da giovane, come abbiamo fatto prima, come facevamo, come abbiamo sempre fatto in generale, quando ci sono i passaggi di età e tu prendi degli attori che a volte poi non sono nemmeno così somiglianti, ma proprio perché sono dei bravi attori, si prendono la stessa smorfia, lo stesso sguardo, le stesse cose e recuperando quella roba creano praticamente una una, una continuità. Questo, come dire, c'è il bene e il male. Il fatto che abbiamo la possibilità di recuperare lo stesso attore è sicuramente interessante. Il fatto che non potremmo utilizzare dei nuovi volti, ormai sono diversi anni.
Riccardo Marchegiani:Abbiamo proprio una guerra dell'attenzione e quindi il meccanismo dei divi all'interno di un mercato del genere è già molto anacquato. Oggi il divo di Hollywood all'interno di un mercato del genere è già molto anacquato. Oggi il divo di Hollywood fa molta fatica a stare dietro l'influencer di YouTube o di Instagram. Mr Beast pesa moltissimo come un attore hollywoodiano e lo vedi dal fatto che c'è Amazon che va a fargli il contrattone, esattamente come farebbe per un produttore barra attore su una serie, poter replicare questo tipo di attenzione. Però non sono così sicuro che i pro saranno più importanti dei contro.
Daniele Di Veroli:Certo, parlando sempre di questo, le tecnologie oggi permettono di avere, per esempio, delle camere che hanno delle feature e una qualità che magari 5 anni fa o 10 anni fa costava 10 volte tanto, e questo quindi è un aspetto, e quindi vorrei che intanto toccassi questo aspetto qua. e l'altra domanda è legata a questo il fatto che con le AI democratizzi la produzione dei contenuti non porta anche al rischio, come dicevi tu prima, di una generazione notevole di contenuti e quindi tanti contenuti ma con poca qualità? Quindi vorrei che toccassi questi due temi.
Riccardo Marchegiani:Allora. No, io invece sono in disaccordo su questa cosa, nel senso che penso che la democratizzazione delle tecnologie sia arrivata prima delle AI, almeno nel cinema, e che quindi questo processo di abbassamento della qualità sia già avvenuto. Molto semplicemente, adesso abbiamo YouTube per dire il fatto che comunque c'è una grandissima piattaforma video dove puoi mettere i contenuti fatti direttamente con il telefonino, subito, senza doverci lavorare. Questa cosa ha abbassato la qualità. Guarda come per esempio la televisione, che aveva degli standard molto alti, quindi il fatto che dovessi venire in studio, c'erano le persone che ti facevano il controllo dei microfoni, c'era la camera con le luci, le cose, quello e quell'altro, e poi con Zoom, durante la pandemia, è diventato tutto valido e improvvisamente ci siamo ritrovati a vedere delle, delle trasmissioni sulle ammiraglie, che però poi arrivava il tipo con le cuffiettine su skype e faceva la sua intervista. Ecco, quindi la qualità si è abbassata, cioè perché anche là, dove c'era toper fare, abbiamo deciso di abbassare la qualità.
Riccardo Marchegiani:Allo stesso tempo ti dico l'intelligenza artificiale secondo me eliminerà la mediocrità, perché già la produce lei. Quindi la mediocrità, nel senso la parte media, quindi tutto quello che è basso fino al medio, te lo fa l'intelligenza artificiale E quindi significa che a quel punto nella democratizzazione del contenuto. Sì, certo, ci può essere più, però ritorniamo lì alla guerra di attenzione. Quindi ci può essere più un discorso legato alle sfere di prossimità. Se faccio io una cosa mediocre, però poi mio cugino se la vede perché è mio cugino, gli amici però insomma, diciamo che rimani nei tuoi gradi di separazione del reso, non ha più l'impatto virale, mentre quello lo puoi fare tranquillamente con l'intelligenza artificiale. Poi dico virale, basso, invece cosa potrai fare con l'intelligenza artificiale? poi dico virale e basso, invece cosa potrai fare è andare a recuperarti tutta la parte alta della scaletta. Quindi, secondo me l'intelligenza artificiale sta entrando a risolvere un problema che abbiamo già creato prima e la democratizzazione delle tecnologie arriva già, ma arriva già, ma arriva già negli anni.
Riccardo Marchegiani:Per il cinema ti potrei dire già dagli anni 80 e ancora sempre studiare il porno per le tecnologie, perché il porno è sempre quello che utilizza le tecnologie per primo come settore. Quindi, quando comincia il cinema in 35 mm, il porno da 35 mm vede a un certo punto un'opportunità incredibile. Diciamo possiamo abbassare i costi, c'è il super 8 e si gettano sul super 8 e lì comincia il primo cinema indipendente del super 8. Quindi tu vai a vederti, io sono un autarchico di Nanni Moretti, girato il Super 8 tra amici, quello che oggi potremmo fare con i telefonini, però già all'epoca prevedeva il fatto che dovessi avere una camera, che dovessi avere la pellicola.
Riccardo Marchegiani:Cioè c'era una barriera di ingresso particolarmente complicata data dalla tecnologia, non ti dico dallo sfruttamento dopo proprio nella fabbricazione. Oggi questa barriera di ingresso non c'è più nella fabbricazione, c'è solo se decidi che puoi mettere degli standard particolarmente alti di distribuzione. Quindi, quando ti dici voglio andare su Netflix, la piattaforma ti dice ah, però devi girare almeno in 4K con l'HDR, perché dopo tutte queste cose qui ti danno loro però di fatto non esistono. Perché poi l'HDR? ci sono i direttori della fotografia, che mi sono molto divertito negli anni in cui è partita questa cosa, che mandavano i setting del televisore su Instagram dicendo oh, mi raccomando, se dovete guardarlo, mettete il televisore così, perché altrimenti non vedete la stessa cosa che voglio io. Quindi figurati a che livello siamo arrivati sì, c'è il famoso filmmaking mode.
Daniele Di Veroli:Io guardavo recentemente una televisione da acquistare che è il filmmaking mode dei televisori di brand tipo LG e Samsung, che di base toglie tutte le feature aggiunte e praticamente ti dà il video flat, perché è quella l'esperienza del direttore della fotografia. Questo per dirti poi che l'intelligenza artificiale viene utilizzata in questi strumenti. Quindi, scusami, quello che ho capito, l'intelligenza artificiale ti ha permesso anche di fare una serie di savings in termini di costi, cioè di risparmiare in termini di produzione. Però, dall'altra parte ti faccio una domanda provocatoria secondo te, per esempio, pensando al mercato dell'advertising, della pubblicità, per quanto le aziende saranno disposte, i clienti saranno disposti a pagare per qualcosa che l'intelligenza artificiale fa in maniera semplice, veloce? in che cosa si fa la differenza nella produzione?
Riccardo Marchegiani:allora devo dire intanto che devo fare una prepessa, che io non frequento più il mondo delle pubblicità, dell'advertising dalla fine degli anni 90, quindi figurati insomma quanto sono lontano, proprio perché mi ricordo il BPM, come si chiamav le riunioni che facevamo, le discussioni c'è talmente tanta fuffa che non stiamo vendendo la fabbricazione. Comunque è il solito discorso del vendere il somio e quindi quello lì comunque non te lo vende la macchina. Quindi non penso che l'intelligenza artificiale possa arrivare a sostituirsi. Ancora una volta è l'oggetto che ti dicevo della mediocrità, cioè se devi fare qualcosa che è una battuta da bar, non c'hai più bisogno, non hai bisogno sicuramente dei creativi dell'agenzia. Quindi tutta quella parte lì non hai neanche più bisogno di girarla.
Riccardo Marchegiani:Probabilmente cioè veramente fai text to video e può anche funzionare, ma ci sarà sempre comunque un elemento creativo che è quello che sceglie tutta questa roba qui dentro, il cliente. Quindi quello che ti posso dire è che si accorciano forse un po' le filiere, cioè i produttori cominceranno a essere un po' più agenzia, le agenzie cominceranno a essere più produttori, quindi scomparirà quella roba lì. Credo che sia già succedendo questa cosa, cioè nel senso che già produttori puri di pubblicità, che sono chiamati da agenzie pure di pubblicità, cominciano a non esserci più cominciano a fondersi o comunque allargarsi da un lato o dall'altro, da un lato o dall'altro Questa cosa può portare a dei reparti marketing dentro le aziende più corposi che fanno tutto questo, cioè che diventano loro stessi agenzia e produttori del contenuto. Quindi questo può succedere eventualmente, però significa che trasli quelle competenze da un vaso ad un altro, cioè il copywriter non lavorerà più dentro l'agenzia, lavorerà dentro l'ufficio marketing dell'azienda. Però uno che ci pensa con la testa ci deve stare per forza.
Daniele Di Veroli:Quindi tu vedi l'applicazione di queste tecnologie soprattutto nella parte di preproduzione. Penso ad esempio a tools tipo LTX Studio, cioè che ti permettono di storyboardare.
Riccardo Marchegiani:Allora LTX l'ho usato proprio proprio in beta. Tra l'altro sono entrato subito come beta tester, quindi mi sono particolarmente divertito e devo dire che è estremamente interessante. Sì, perché ti dà la possibilità di previsualizzare delle scene, ti anche i breakdown direttamente delle scene. Fa tante proposte. Ma in generale l'intelligenza artificiale dal punto di vista creativo è sempre molto interessante, quantomeno da un punto di vista. Diciamo, i processi di creazione possono essere sempre o per impulso o per reazione. Ok, i bravi creativi in generale sono tutti per impulso, cioè tutti i visionari, gli artisti lavorano sempre con il loro impulso interno. E poi io, per esempio, invece lavoro per reazione, cioè io sono uno, per esempio, che dal punto di vista editoriale mi dai una sceneggiatura, la leggo e ti faccio tutti i commenti. Se mi dici vuoi scrivere una sceneggiatura, io non saprei da dove cominciare, avrei subito il blocco della pagina bianca. Con un'intelligenza artificiale, invece, posso trovarmi esattamente nella mia comfort zone di reazione. X ti permette, per esempio, di fare una cosa del genere senza nemmeno andarla a cercare, perché ti fa già i breakdown, ti mette già le sue inquadrature, addirittura tu hai la possibilità di creare dei caratteri consistenti che lui ti riporta in giro nelle varie. Poi però ti dico la resa grafica, ecco, va bene per la preproduzione, ma quando cominci a generare i video con LTX sembrano non so se ti ricordi le animazioni degli anni 60, quando si muovevano le bocche siamo più o meno a quel livello. Questo non significa che poi non diventerà uno strumento estremamente interessante, perché ti permette già di ordinare il caos, mentre con Runaway, per esempio, tutti questi strumenti che secondo me stanno cominciando ad avanzare sono quelli che già mettono ordine.
Riccardo Marchegiani:Tu vedi Cloud che ti fa i project con la Project Knowledge, ltx, come dici te, che fa queste cose. Così Cloud non è differente poi da ChatGPT. Però già il fatto che tu hai la possibilità di mettere in ordine le tue dentro un progetto, le tue conversazioni, è tanto rispetto a recuperarti le cose dentro chat GPT, perché se lo usi tanto chat GPT, poi alla fine hai una lista lunghissima di conversazioni dove ti perdi. La stessa cosa è il TX, cioè runaway. Tu devi andare lì e farti la tua per ogni singolo, per ogni singola immagine. Invece questi sono che poi sono cose stupide da implementare, quindi poi ci arriveranno tutti quanti.
Riccardo Marchegiani:Però è per dirti come siamo ancora molto presi dall'idea di appunto creare e tanto che non ci mettiamo a pensare a come gestire poi il caos di questa creazione.
Riccardo Marchegiani:Quindi ti dico sì, questo sicuramente, sicuramente aiuterà moltissimo nei processi di preproduzione. Però, ancora una volta, penso che il rasoio di Occam è quello della mediocrità, cioè ti eliminerà tutta quella roba lì e ti porterà quindi a poter sfruttare al meglio le cose sopra. Se tu consideri che ancora oggi, con le tecnologie che abbiamo, investiamo milioni di dollari per fare pubblicità del profumo ok, dove non c'è niente ti sei risposto gli investimenti continueranno ad esserci perché lì dobbiamo vendere l'intangibile e quindi dobbiamo anche il solo fatto di poter fare quell'investimento e dirti io sono in grado di mettere 5 milioni su una pubblicità di intelligenza artificiale. Non è importante il risultato, ma il processo, cioè il fatto che io posso farti fare quella cosa lì e che la faccio già. Questo è pubblicità, perché è il solito discorso che il mezzo è il messaggio. Quindi già la costruzione del messaggio è un messaggio. Quindi già la costruzione del messaggio è un messaggio e questo secondo me non cambia.
Daniele Di Veroli:Ok, molto interessante. Un altro aspetto volevo chiederti tra le varie piattaforme e tecnologie che oggi sono presenti penso a Pika, penso a Adobe Firefly, penso a Stable Diffusion, confui, insomma varie quale secondo te è quella destinata a rimanere?
Riccardo Marchegiani:onestamente, è un momento talmente caotico che ci sono proposte, offerte a volte anche molto similari. Ieri a un certo punto ho fatto un esperimento volevo vedere come poter togliere un watermark da un'immagine per rendermi conto se ha ancora senso che inviamo i film con la skin not for commercial use, per esempio. Ci sono tantissimi tool. Credo di aver incontrato almeno mezza dozzina di siti che offrivano questo tipo di possibilità e poi ho trovato quattro modelli su github che fanno esattamente la stessa cosa, uno in locale, uno lo metti su collab, quindi con approcci differenti, e credo che i siti che ho visto prima utilizzare i modelli comunque sono stati già sviluppati. Dipende veramente chi mette il vestito migliore su queste cose qui e poi invece quelli che fanno la ricerca per davvero, cioè quelli che tu dici tipo Pika, tipo Stable Diffusion ha appena fatto una partnership con James Cameron che entra in Stability per portare appunto il suo know-how sui VFX che, come ti ho detto, sono la prima cosa che scomparirà, diciamo, dai nostri computer per essere fatta dalle intelligenze artificiali.
Riccardo Marchegiani:Quindi, quando entra un peso massimo, come James Cameron che, ti ripeto, è una persona che ha obbligato tutti i cinema del mondo a passare alla proiezione 3D, quindi sa quello che fa e ti dici ok, questi sono sicuramente gli attori che rimangono, perché sono quelli che fanno la ricerca pura. Siamo tutti aspettando ormai da un anno sora, quindi sarà il tiro di dati che ci permetterà di capire tutti gli altri se veramente stanno solo ricorrendo o se hanno cominciato ad anticipare. Però credo che stanno solo ricorrendo o se hanno cominciato ad anticipare. Però credo che quelli che rimarranno di più sono quelli che fanno, da un lato, la ricerca migliore e, dall'altro, quelli che offriranno l'interfaccia con la user experience più facile, che ci permetteranno quindi di organizzare meglio il caos. Il solito discorso, quello che dicevamo prima.
Daniele Di Veroli:Prima hai toccato il tema della distribuzione. Vorrei tornarci un attimo chiedendoti, da un lato, come l'intelligenza artificiale cambia la distribuzione dei contenuti in parte l'hai toccato, ma vorrei che l'approfondissi e anche sull'aspetto della localizzazione, cioè di come, per esempio, nel dubbing, nel doppiaggio, l'intelligenza artificiale sta entrando proprio a gamba tesa no, è già proprio entrata.
Riccardo Marchegiani:Il doppiaggio, è proprio la cosa su cui già siamo arrivati. I VFX ancora stiamo discutendo su che tipo di VFX andrà. Appunto il deepfake lo consideriamo AI o no? perché c'era pure prima. Quindi col no e poi no, ma non possiamo ancora gestire. Io ricordo che il primo deepfake, quando parlavo cinque anni fa di utilizzarli nella metodologia utilizzata per Harrison Ford, la risposta dei VFX supervisor era no. Però sai, siamo ancora che non possiamo andare a più di 1024, come facciamo, se dobbiamo fare poi in 4k, quando comunque lo standard di distribuzione al cinema rimane ancora in 2k. Te lo dico per rimettere in ordine, diciamo le cose. Vfx ci siamo entrati, sta succedendo lentamente ed è più uno strumento che ancora utilizzano i compositor. Stessa cosa per il color grading Al suono. Non te lo dico, nemmmmeno la quantità di plugin che esiste oggi e che possono essere utilizzati. Però il suono rimane ancora una. Non voglio dire una cosa a parte, però è una setta differente rispetto a quelli che lavorano l'immagine in generale. Tutti quelli che si occupano di fabbricazione al limite sono un po più preparati sull'immagine, che comunque rimane centrale, e quindi sul suono è sempre vabbè fa, lui funziona. Però ti posso dire che invece, quando entri realmente al montaggio del suono, che è una cosa in cui non va mai nessuno.
Riccardo Marchegiani:Ti rendi conto che la loro vita per certi versi è diventata molto più facile grazie a tutti i plugin che sono inseriti e che sono intelligenze artificiali, per cui oggi tu lo puoi vedere molto più facilmente con una tecnologia tipo Adobe Podcast, cioè puoi andare sul sito internet di Adobe Podcast, lo puoi usare anche gratuitamente, e tu gli dai un file qualunque, audio o video, e lui ti ripulisce completamente lo sfondo e ti tira fuori un suono estremamente pulito. Questa cosa ce l'abbiamo già da tanto tempo. Sono dei filtri passo a basso che comunque tagliano le frequenze, ricostruiscono anche altre cose. Il passo successivo è questo, invece del doppiaggio che stiamo avendo. Io ricordo che ebbi a che fare con questa società ucraina che aveva sviluppato un modello di addestramento della voce che permetteva erano riusciti a rifare la voce di Carrie Fisher dopo che era morta, su uno Star Wars, per esempio, e quindi dicevano avete la possibilità eventualmente di sviluppare il vostro modello per il vostro film, cioè noi vi facciamo l'addestramento del modello per ogni vostro film con le voci dei vostri attori, e così dopo, quando vendete il film all'internazionale, sai che noi facciamo una ricostruzione della banda sonora.
Riccardo Marchegiani:Quando si fa un film esiste quella che chiamiamo VO, la versione originale, e quindi dove ci sono tutte le voci, e poi c'è una ricostruzione completa della versione internazionale. La versione internazionale è una versione dove non ci sono i dialoghi e quindi tu vedi tutto il film con tutti gli attori che parlano muti e sotto ci sono tutti i suoni. E questo passaggio si fa una volta che hai completiamo il montaggio del suono del film e il mix del film. Mentre fai il montaggio del suono, costruisci anche questa versione internazionale e una volta che, finito il mix del film, di solito dedichi l'ultima giornata a fare il mix della versione internazionale, che è la versione che tu vendi all'estero in maniera tale che quando devono doppiare appoggiano le voci sopra a quello che però è una base già mixata, già fatta di tutto il resto del film, che quindi ti permette di essere molto più efficace.
Riccardo Marchegiani:Questa versione internazionale diventerà sempre più facile farla grazie alle AI e ora già facciamo il doppiaggio grazie all'AI. Prendiamo un modello che viene addestrato, dopodiché registriamo una qualunque persona che parla dicendo nella sua lingua qualunque altra cosa, e utilizziamo la voce come filtro, diciamo così, trasformando quindi la voce registrata nella voce dell'attore. Queste sono le due cose. Ora stiamo andando ancora più avanti, cioè ora generiamo direttamente una voce che ha questo filtro applicato sopra e che quindi viene generata direttamente la voce dell'attore nella lingua però di destinazione, il video. Ci sono queste due, queste due dinamiche. La cosa, che cosa? che cosa succede?
Riccardo Marchegiani:che netflix sta mettendo, per esempio, in piedi la sua piattaforma per autodoppiarsi tutti i contenuti e quindi il grande lavoro sarà quello di tirare fuori direttamente il modello che il giorno dopo sulla piattaforma tu scegli la lingua e l'intelligenza artificiale fa automaticamente il doppiaggio questo significa anche che un'intera parte dell'industria perde il lavoro ho capito.
Riccardo Marchegiani:Sì, è vero, ma questo succede ad ogni rivoluzione tecnologica. Quando abbiamo inventato l'autovettura, dopo che abbiamo fatto gli stallieri, è evidente che a un certo punto devi traslare delle competenze. Però ti dico, un'intera parte scompare, però compariranno tutti quelli che devono gestire questa roba qui, perché non è che funziona da sola. Questo è il solito discorso. Il problema è, se tu sei, fai parte di quel sotto insieme che scompare, che chiaramente ti preoccupi perché dici però certo, a me è capitato proprio recentemente. Ti dico c'è incontrato un regista a marzo che mi ha detto ah, vai, mio figlio sta andando alla scuola, ha deciso di fare la scuola per doppiatori. Io ho guardato no, vai a cambiare scuola, semplicemente perché, voglio dire, diventa un lavoro in salita. Ma anche lì ribadisco mediocrità.
Riccardo Marchegiani:Cioè se devi pensare a lavoro semplicemente per pagarti le bollette, ok, forse non è il caso. Non dimentichiamoci che i doppiatori sono anche dei grandi attori e che tanti hanno portato al successo dei personaggi stranieri o degli attori stranieri grazie al fatto che la gente poi si abituava a identificarli con quella voce. Lì. Il caso di Amendola in Italia è abbastanza clamoroso. Quindi questa cosa non ci sarà più. Quindi perderemo quella cosa lì, quindi perderemo i picchi di eccellenza. Non so se a un certo punto interverremo per difenderli e per cui diremo ok, la categoria non ha più bisogno di essere così grande, però ha bisogno invece che ci siano delle vere, come dire, punte di diamante. Non lo so, è perché io insomma preferisco molto vedere, per esempio oggi, un film sottotitolato, per apprezzare la recitazione di un attore a pieno e quindi sentirlo nella sua voce originale, nel momento in cui tu mi dai il traduttore universale di Star Trek e posso sentire la sua voce originale, con la sua interpretazione, che mantenga le sfumature della sua interpretazione, e, allo stesso tempo, in una lingua che io posso comprendere, forse, forse è meglio quindi tu non pensi che questo tipo di tecnologia snaturi un po', diciamo, un'interpretazione, perché ormai la qualità, come possiamo vedere, è esattamente la stessa, cioè non noti la differenza da un dub
Riccardo Marchegiani:il problema è che lì facciamo un passo indietro che riguarda piuttosto invece il linguaggio, che comunque è uno strumento pure quello.
Riccardo Marchegiani:Però la difficoltà in termini di linguaggio è la cadenza in generale, perché comunque ogni lingua ha un po' la sua. Quindi io credo che l'interpretazione alla fine sia anche data dall'utilizzo di questo strumento e questo purtroppo sfugge un po' in più. Ora, per esempio, questo servizio fa una modifica anche sulle labbra per permetterti di avere il lip sync capito. Quindi comincia a esserci la modifica non solo della voce ma anche dell'immagine per farle matchare, e questa cosa quindi io non so esattamente come impatterà sul lungo periodo nella nostra percezione, nel senso non sono sicurissimo che vedere degli attori che americani che al posto di recitare in inglese ci recitano in italiano, ci darà la possibilità di apprezzarli di più. Non sono convintissimo, però almeno avremo con questo tipo di tecnologia, però avremo la possibilità di salvaguardare la loro voce poi nel futuro, perché comunque sono tutte NPL più le fai, più l'algoritmo apprende, più la sua abilità aumenta. Quindi probabilmente nel giro di pochissimo, perché quando ci sarà un uso così su scala, così importante, imparerà subito a fare bene anche la cadenza e l'intonazione.
Daniele Di Veroli:Allora a quel punto sarà indistinguibile dall'originale e allora sarà meglio del doppiaggio se dovessi consigliare ai nostri ascoltatori un libro, un film su questi temi, qua cioè per approfondire questi temi, qua dei contenuti che le persone possono trovare online o appunto in libreria, su questi temi, cosa ti viene in mente, cosa suggeriresti su questi temi? cosa ti viene in mente? cosa suggeriresti?
Riccardo Marchegiani:io ritornerei un po' a base di tutti quanti leggere essere digitali di necroponte. La differenza che faceva fra infopoveri e inforicchi negli anni 90 oggi sta diventando ancora più importante. Lo vedo quando comunque comincio a discutere con dei colleghi di intelligenza artificiale mi fanno no, no, io non voglio si parlare di queste cose, non vanno via esatto.
Daniele Di Veroli:Io sostengo sempre che è una tecnologia che è al pari della ruota del fuoco della stampa a carattere mobile.
Riccardo Marchegiani:Quantomeno allora un po' meno nel senso che comunque è data della stampa a carattere mobile, quantomeno allora un po' meno nel senso che comunque è data da una dipendenza, cioè nel senso che ci sono un paio di grandissime scoperte, prima che ti ricordi com'era Civilization, cioè la mappa delle scoperte, per cui c'era, c'erano i collegamenti l'una con l'altra. Se non ci fosse stata internet, probabilmente non arrivavamo così velocemente a questo tipo di di singolarità, che poi non è neancora quella che stiamo aspettando tutti, dell'arrivo dell'intelligenza artificiale generale e su tutti, che oddio arriva Skynet, moriremo tutti. Però la questione è impressionante il tipo di automatizzazione che possiamo ottenere nei processi da colletto bianco, diciamo così, che stanno diventando al pari di quelli che abbiamo avuto quando c'è stata la rivoluzione industriale per i colletti blu. La cosa interessante sarà che comunque tutto questo, per esempio gli LLM di cui noi discutiamo tanto, sono i futuri cervelli dei robot E quindi quando avremo le due cose insieme e ci avremo quello che può fare i lavori da colletto bianco e da colletto blu, quindi dipenderà semplicemente da quanto costa fabbricare e mantenere il robot.
Daniele Di Veroli:Insomma, altre cose che vorresti aggiungere.
Riccardo Marchegiani:La cosa interessante, diciamo adesso, a parte tutto del del cinema, diciamo così, nello storytelling, è l'idea che possiamo andare a crearci dei mondi completamente autonomi. Cioè voglio dire oggi, incredibilmente, io potrei provare a dire a Chad GPT mi racconti una favola, e lui la farebbe probabilmente, e quella favola esisterebbe solo per me. Non ci sarebbero altre persone che l'avrebbero. Quindi la cosa interessante è che in un mondo dove c'è la lotta incredibile per l'attenzione e che massifica tantissimo il prodotto per cercare di arrivare a tutti, ci ritroviamo che possiamo andare a creare dei prodotti su misura, che sono solo per noi e che non saranno mai usufruiti da altri. E diventa un po' complicato, messo in relazione al fatto che non abbiamo poi più una condivisione, già con le piattaforme abbiamo perso il palinzesto, quindi l'idea di una verticalità temporale che era uguale per tutti.
Riccardo Marchegiani:Quindi oggi che cosa succede? che stabiliamo delle regole, per esempio quando ci sono gli youtuber o comunque in generale i recensori della serie che dicono tutti quanti, comunque bisognerebbe aspettare almeno tre giorni prima di fare la recensione della serie che è appena uscita, perché devo dare a tutti il tempo di vederla. O allora l'episodio nuovo, si creano delle regole per dire non posso fare gli spoiler troppo presto E quindi è interessante questa cosa di dire quando puoi fare gli spoiler o no? Allora, tu pensa adesso che abbiamo la possibilità di crearci delle cose che ci staccano completamente dalla comunione. Quindi capito, da un lato facciamo di tutto per integrarci sempre di più e poi però creiamo degli strumenti che ci danno la possibilità di completamente separarci mi è venuto in mente lo spot di Apple, dell'apple Vision Pro, cioè del papà che sta alla festa dei bambini con il caschetto e li riprende.
Daniele Di Veroli:Ok, dei bambini con il caschetto, e li riprende.
Riccardo Marchegiani:Come vedi la tecnologia VR applicata al cinema e poi, più in generale, all'entertainment per me la VR è l'ultima forma di audiovisivo, però insomma, io diciamo sono cresciuto con, con Journal, ciberspazio, insomma, quindi sono cresciuti libri, gibson, ecco, quindi per me la la vr diventa l'elemento di visualizzazione della propria navigazione di internet, è quella roba che ci dà l'accesso al ciberspazio. Con la VR arriviamo finalmente al ciberspazio o al cyberspace, come lo preferisci. Questa cosa non ci avrei mai creduto di vederla nella mia vita fino all'avvento degli algoritmi generativi text to video. Quando vedo una roba del genere mi dico forse fra poco ci arriviamo. Significa che, paradossalmente, zuckerberg per anni abbiamo detto questo è troppo visionario, questa cosa di meta non andrà da nessuna parte.
Riccardo Marchegiani:E invece no, ora si ha ragione lui, perché avremo la possibilità di generare molto rapidamente le immagini e di poterle vivere e quindi chiaramente avremo la possibilità di integrare. Cioè, secondo me più facile la realtà virtuale che la realtà aumentata oggi, mentre tre anni fa diciamo il contrario. Perché se andiamo con questo tipo di scalabilità e di velocità sul text to video, sarà facilissimo cominciare a creare dei mondi diversivi in cui stare con direttamente il nostro casco, dopodiché è chiaro che l'interazione con gli altri sarà sempre dovuta a quanti caschi abbiamo previsto. Anche lì meta, fatto la scorsa settimana la presentazione, i prezzi sono estremamente più vantaggiosi. Oggi la partnership con luxottica per i Ray-Ban stanno andando in una direzione molto interessante, più di Apple, paradossalmente, e questa cosa probabilmente ci darà la possibilità di avere questo tipo di incontro del ciberspazio molto più rapidamente di quanto non credessi invece in termini di produzione vera e propria, per esempio Venezia ha una sezione immersiva, anche Cannes esiste un mercato già, come lo vedi tu qua ci sono diverse società.
Riccardo Marchegiani:Io ho appena finito di lavorare, per esempio, una serie ho fatto per una società di produzione che fa parte di un conglomerato dove la sua più interessante azienda in realtà fa VR e hanno vinto già diversi premi a Venezia, per esempio sul VR. E hanno vinto già diversi premi a Venezia, per esempio sul VR. Però sono ancora molto specifici, cioè è più per il B2B che non per il B2C, quindi non abbiamo ancora delle cose che sono realmente per il consumatore finale. Gli investimenti diventano sempre più importanti, però ancora una volta, come ti avevo detto prima, il porno cominciamo a vedere se prende nella direzione della VR, perché se funziona poi seguono tutte le altre tecnologie. Per riassumere molto brevemente, noi abbiamo tre grandi momenti, che sono la preparazione, le riprese e la post-produzione. Ti dico in riprese non ancora tanto, però nei due estremi, cioè nella preparazione e nella post-produzione, sta entrando pesantemente sopra tutto questo, però c'è ancora prima e nella post-produzione sta entrando pesantemente Sopra tutto questo, però c'è ancora prima la parte editoriale, cioè la scelta del contenuto. E ti dico lì paradossalmente è già entrata da tanto, perché quando cominciamo a fare delle scelte di contenuto che ci vengono dettate da, la percezione che si ha di come il contenuto sarà ricevuto.
Riccardo Marchegiani:E tutto questo è fatto grazie non semplicemente a degli studi, ma a delle analisi tramite algoritmi, tale per cui, tutto sommato, per esempio con i decisori più importanti, cioè con Netflix o con Amazon, che sono le più grosse piattaforme Paramount, sono tutti gli altri, però le due più grandi sono quelle e tu ti devi riconfrontare circa ogni sei mesi per capire qual è la linea editoriale. Cioè non è più una linea editoriale che per dieci anni è quella cosa, più o meno come è sempre stato prima, con certe con certi produttori di contenuti. Hbo, tu sai che fa delle serie televisive solo di un certo livello, con un certo tipo di costruzione, quindi non gli vai nemmeno a presentare la sitcom, non so come dire. Pate, per esempio, come distributore, che comunque è un grande creatore di contenuti in Francia, ha due linee molto semplici che sono film d'autore di grande impatto sul pubblico o grandi commedie di grande impatto sul pubblico. Cioè c'è proprio queste due cose.
Riccardo Marchegiani:Quindi, se tu gli dici voglio fare un film di fantascienza, loro ti dicono sì, ma perché sei un autore o perché fa ridere. Non è nel senso della fantascienza la cosa interessante. Hanno comunque un mercato molto, molto grande, quindi chiaramente hanno flussi da controllare e quindi magari stanno producendo tanto crime in una parte del mondo che dicono no, basta, lo stiamo facendo troppo lì, quindi ora cerchiamo di fare i period di qua. Ecco, questo è il discorso, sia per come sono appunto apprezzati i contenuti e quindi analizzati questi apprezzamenti e ti dicono guarda, adesso ci serve. Questo quindi è molto complicato perché devi semplicemente anticipare delle tendenze che cambiano costantemente. Tutto qui.
Daniele Di Veroli:Riccardo, io ti ringrazio moltissimo del tempo che ci hai dedicato. Credo che anche per i nostri ascoltatori sia stata una chiacchierata estremamente interessante e ti ringrazio ancora e vi do appuntamento alla prossima volta, al prossimo episodio. Grazie mille, grazie a tutti.