Tutto è possibile

Categoria: Generica

articoli non riassumibili a nessuna categorai

Anni 80, un mito creato o veramente facevano dei film come non si fanno più?

Spesso parlando con le persone mi capita di notare come oggi il cinema oltre a non raccontare storie nuove, non lascia traccia, e non è una sensazione di nostalgia pensare agli anni 80, ma mancano proprio i film… film che lascino un segno, che rimangano scolpiti nella memoria e che segnino le generazioni. Forse è colpa dei tempi, ovvero di come oggigiorno il film è oggi al cinema, tra un mese in distribuzione dvd-bluray etc, quindi non si fa neanche più in tempo ad affezionarsi…

mah, non credo…

Ho iniziato a guardare un po’ quali film erano distribuiti negli anni 80, e beh la quantità di FILM con la F maiuscola è grande, molto grande, mentre ho difficoltà a elencare così tanti film nei tempi più recenti … E ho usato una autorità di sito come IMDB per gli elenchi…

1984

1985

giusto per citare quelli che mi sono piaciuti di più, ma in quell’anno sono usciti film come Cercasi susan disperatamente che lancia Madonna come attrice, Il colore viola di Spielberg, Il bacio della donna ragno, Le miniere di re Salomone, L’uomo con la scarpa rossa, che lanciò Tom Hanks, Spie come noi che fu campione d’incassi con Dan Akroid e Chevy Chase, L’onore dei Prizzi, D.A.R.Y.L. e ne tralascio molti altri…

1986

Per citare i più famosi…

facciamo un confronto? ok vediamo l’anno appena passato:

2014

  1. Lo Hobbit terzo capitolo sequel
  2. i guardiani della Galassia
  3. Interstellar
  4. Una notte al museo 3 sequel
  5. Hunger Games 2 sequel
  6. Tartarughe Ninja remake
  7. Scemo e più scemo 2 sequel
  8. Big Hero 6
  9. Birdman
  10. The lego movie
  11. I pinguini di Madagascar spin-off
  12. Maleficent
  13. Ape Revolution sequel-remake-retelling
  14. I mercenari 3 sequel
  15. X-men giorni di un futuro passato sequel
  16. Lucy
  17. Transformer 4 sequel
  18. CapitanAmerica 2 sequel
  19. Hercules il guerriero remake
  20. Spiderman 2 il potere di electro sequel
  21. Noah
  22. Rec4 sequel
  23. Sincity2 sequel
  24. Dracula Untold
  25. Godzilla remake
  26. 300 l’alba di un impero prequel
  27. Robocop remake
  28. I, Frankestein
  29. Wrong turnb 6… sequel
  30. Hunger Games : Il canto della rivolta parte I (sequel parte 1)

2015

 

  1. MadMax Fury road  sequel (di gran classe)
  2. Star wars il risveglio della forza sequel o retelling?
  3. Ex machina
  4. Creed sequel
  5. Operazione U.N.C.L.E. remake
  6. The hateful Eight
  7. The martian
  8. Inside Out
  9. Fast & furious 7 sequel
  10. Kingsman : Segret Service
  11. Avengers : Age of ultron sequel
  12. Hotel Transilvania 2 sequel
  13. Sicario
  14. terminator genesys Sequel
  15. ant man
  16. Jurassik World sequel
  17. Black mass
  18. Birdman
  19. Spy
  20. Big Eye
  21. Mission: Impossible – Rogue Nation sequel
  22. Piccoli brividi
  23. Insidious 3 – L’inizio prequel
  24. Humandroid
  25. Come ti rovino le vacanze remake, retelling, sequel tutto insieme
  26. Lo Hobbit La battaglia delle 5 armate sequel obbligatorio
  27. Steve jobs
  28. Southpaw
  29. Teneramente folle
  30. Everest

Nel 2014 tra primi 300 film dell’anno ci sono principalmente dei remake, dei sequel, film inutili che si basano esclusivamente su impianti visivi di effetti speciali, dai quali tolti quelli poco rimane…

Nel 2015 già va un poco meglio… piu o meno..

Ora a parte l’effetto nostalgico, o i legami sentimentali, facciamo un discorso puramente artistico o commerciale…
Se si fanno sequel, remake, retelling vuol dire che non si hanno più idee o non si vuol investire più di tanto in idee nuove.
Inoltre questo brutto vizio di cambiare, modificare, manipolare il film fino al giorno precedente alla prima mostra come ci sia una debolezza molto grande nella storia fin dall’origine.
Discorso commerciale :  sparare nel mucchio tonnellate di film fotocopia che costano boati di soldi significa essere dei pessimi investitori, perchè anche quando guadagnano il bilancio spesa guadagno se va bene è al doppio o al triplo, ma il rischio imprenditoriale iniziale nel fare questi brutti film è altissimo, infatti molti di questi film sono dei flop perchè avranno recuperato gli investimenti originali solo con la distribuzione HV, che per quanto sicura visto che si vendono i diritti prima ancora di girare i film, è alquanto deprimente…


8 bit, 10bit, 24bit, 32bit che razza di bestie sono quando esporto?

Cosa significano le diverse sigle?

In tante occasioni parlando di video di sentono diverse sigle che in un modo o nell’altro influenzano la qualità dell’immagine che andiamo a vedere e soprattutto a manipolare.

Quando si lavora con il video nella maggioranza dei casi si parla di video catturati a 8 bit, questo valore si riferisce alla componente colore singola, quindi il sensore o il sistema di registrazione cattura 2 alla ottava, il che significa 256 informazioni colore.

256 toni di colore per il canale del rosso, 256 toni per il canale del verde, 256 toni per il canale del blu.
La combinazione di tutte queste possibili sfumature creano una immagine che può contenere 16 milioni e rotti di combinazioni possibili, ovvero una immagine a 24bit.

quando si aggiunge il canale alfa ad una immagine a 24 bit, dato che il canale alfa segue le stesse capacità e regole del colore, avremo una immagini a 256 toni di grigio che definiscono la trasparenza totale (100% di luminosità) o la totale opacità del pixel (0% di luminosità).

quindi abbiamo una immagine a 24 bit (R = 8, G= 8, B=8) + 8 bit di alfa, totale immagine a 32 bit.

quando andiamo a esportare una immagine abbiamo teoricamente (dipende se e come il software supporta l’esportazione) la possibilità di esportare video e immagini a diverse profondità colore, più è alto il numero, maggiori sono le informazioni contenute e quindi maggiore è la qualità registrabile.

Parlo di qualità registrabile perchè se importo un video a 8 bit e lo esporto a 16bit, non significa che il video diventa a 16bit, non migliora l’immagine, nè aumentano i colori originali, restano gli stessi, ma se ho applicato dei filtri di correzione colore, probabilmente esportando a qualità più alta PRESERVO la qualità originale.

da un programma posso esportare :

8 bit per canale : 24 bit + eventuale alfa 8 bit che diventa 32bit
16 bit per canale : 48 bit + eventuale alfa 16 che diventa 64bit
32 bit per canale : 96 bit + eventuale alfa a 32 che diventa 128 bit (solo da vfx e software di post)

quando si parla di video, possono essere registrati a diversi bit da 8, 10, 12, 16 bit a seconda del codec di lavoro e dalle impostazioni dello stesso. Naturalmente avere uno spazio colore maggiore significa avere più informazioni e quindi più spazio di azione dove intervenire con la corezione colore o con la postproduzione in generale.

Perchè servono più di 16milioni di colori?

perchè in realtà quei colori sono la somma di tutti i colori possibili dei tre canali colorati, ma se devo fare una sfumatura di rosso puro, blu puro (il cielo) ho solo 256 possibili sfumature di blu, oltre intervengono leggeri squilibri degli altri colori, che portano il blu del cielo ad andare verso il verde, oppure verso il magenta, quindi non è più il colore puro.

Perchè non posso usare solo 8 bit se ho registrato una immagine nel modo corretto?

perchè non solo il limite è in registrazione, ma soprattutto nella post produzione, per comprendere meglio è possibile fare un esempio molto semplice, creare un colore sul limite e poi aumentare la sua luminosità.

esempio scostamento coloreDopo aver creato un colore rosso di un valore leggermente sbilanciato, ovvero col verde maggiore del blu ho semplicemente applicato una luminosità molto alta, e come potete vedere nelle informazioni finali, il colore non si scosta in modo lineare, perchè il rosso essendo già al massimo (255 come valore) non si può muovere, quindi salgono verde e blu, ma non in modo lineare e proporzionale, quindi man mano che rendo più luminosa l’immagine la quantità di verde del colore aumenta, quindi il rosso si inquina e cambia il colore originale.

Se invece avessimo avuto uno spazio colore a 16bit, dove le possibili combinazioni sono maggiori, il range di lavoro non è più 0-255 ma 0-32768, quindi le possibili sfumature realizzabili prima di ottenere uno scostamento colore evidente sono maggiori e più morbide.

Quando esporto un video a 8bit cosa posso esportare?

quando apriamo un pannello di compressione di un software, a seconda di quale codec esportiamo possiamo selezionare una profondità colore differente, ma attenzione che se si considera anche il canale alfa potremmo esportare più di quanto serve, anche quando non serve.

Se seleziono una esportazione a 8 bit, significa che esporto un file a 24 bit (8+8+8), ma se si attiva l’esportazione del canale alfa, in realtà noi esportiamo un file a 32bit perchè il file colore è a 24bit + 8 bit di canale alfa. Nella maggior parte dei casi il file sarà usato allo stesso modo, quindi nessun problema, ma in situazioni specifiche come con le macchine di messa in onda, un file a 32bit, anche se magari la parte del canale alfa è vuoto, viene rifiutato, e quindi è fondamentale sapere come esportare il materiale nel modo corretto.

Quando si lavora cosa può cambiare se lavoro in uno spazio colore più ampio?

Il discorso è molto semplice, se prendiamo una immagine e spostiamo le informazioni di luminosità, da uno spazio a 8 bit a 8 bit c’è il rischio di perdere delle informazioni intermedie perchè non c’è lo spazio corretto dove spostarli. basta confrontare l’istogramma del progetto a 8 bit con quello a 16bit.

confronto correzione colore 8 16bit

L’istogramma della correzione 8bit si vede come diventa frammentato, con diverse frequenze che spariscono e quindi rappresentano informazioni perse durante la correzione delle informazioni mentre nell’istogramma a 16bit queste informazioni vengono conservate perchè esistono più posizioni è possibile mantenere le informazioni anche di fronte ad una manipolazione più aggressiva dei valori.

Anche se poi il risultato finale sarà esportato in un file codificato a 8bit, la sorgente sarà di un file elaborato a 16bit e quindi preserverà meglio le informazioni originali.

Questo è il motivo per cui i software di correzione colore professionale lavorano solo in uno spazio colore a 32bit per canale, in modo che ogni operazione applicata ai colori delle immagini saranno a prova di errore e non ci sarà rischio di degrado causato da limitazioni dello spazio di lavoro.

Quando si lavora con AfterEffects e si manipola il colore, avere uno spazio colore di lavoro a 16bit serve a preservare il materiale durante la correzione colore, se si lavora con Premiere è importante abilitare le spunte “Rendering alla profondità massima” in modo che il calcolo interno delle elaborazioni del colore sia fatto a 32bit e quindi si corregga al meglio e nello spazio più ampio anche se poi andiamo a esportare in un codec usando solo gli 8bit di registrazione finale. DA RICORDARE come premiere, non essendo un programma di post, il calcolo nello spazio più ampio colore lo esegue in presenza di video manipolati da effetti a 32bit, nel caso la sequenza contenga anche un solo filtro a 8 bit, tutto il rendering sarà eseguito a 8 bit e non nello spazio colore a 32bit.

e quindi?

nella normalità si lavora a 8 bit, perchè le fonti medie di dslr, telecamere medie è a 8bit, e quindi solo per l’export di materiale fortemente manipolato lavorare negli a 16bit fa la differenza, mentre se non vi viene chiesto l’export di materiale con caratteristiche diverse, per fare dvd, bluray, file per tv, file per Online (youtube, vimeo, etc), file per messa in onda è a 8 bit, senza canale alfa.


Partiamo … dalle cose sbagliate…

Durante uno dei miei corsi, è nata un’idea, una cosa banale che però non è troppo banale… partire dagli errori invece che dalle cose giuste.
Uno dei miei principi di docenza si fonda sulla presentazione della tecnica corretta di utilizzo degli strumenti, e degli errori classici che si fanno, e come risolverli. Penso che sia troppo facile presentare le cose che funzionano, sempre e comunque, e poi quando uno ha finito il corso e si trova di fronte al computer e al software, quando sbaglia qualcosa, quando dimentica un passaggio o un principio base e accade qualcosa di inaspettato, allora ci si blocca o si perde entusiasmo.
Per evitare questo tipo di problema tendo a far vedere e porto gli studenti a sbagliare, spiegando l’errore e facendo loro correggere quell’errore, in questo modo rimane impresso l’errore e aiuta le persone a non farlo. Ho pensato che sarebbe interessate sviluppare un canale di training all’errore, per aiutare le persone ad affrontare e correggere gli errori classici in determinati approcci di lavoro. Troppo spesso vedo tutorial, articoli e documentazioni errate che trasmettono e diffondo informazioni errate.

al giorno d’oggi, dove tutto è a portata di mano, parlo dell’informazione, è diventato tutto troppo apparentemente troppo facile da raggiungere, e quindi ci si impigrisce, perchè la risposta tipica è “tanto basta che apro google e so quello che mi serve…”

verissimo, anzi sono uno dei primi fautori di google, ma … chi vi dice quali siano le fonti più autorevoli? chi vi dice che le informazioni più diffuse siano quelle corrette o quelle più efficienti per il vostro tipo di lavoro? Non sempre quelle più evidenti sono le migliori, anzi … sono solo quelle più spinte da chi sa fare bene web marketing.

per farvi un esempio parallelo, ho notato come al supermercato ci sia una bibita in lattina, che venduta in singola lattina è più economica che nella confezione da 4… basta guardare il prezzo al litro (scritto molto in piccolo sull’etichetta dello scaffale) e scoprirete che la confezione da 4 costa 20 centesimi in più che prendere 4 lattine separate, praticamente pagate 0 centesimi il cartone che unisce le 4 lattine, lo stesso cartone che strappate e buttate via per metterle in frigo… le informazioni ci sono, ma in grande vedete il prezzo singolo e della confezione, ma non ho visto nessuno leggere il prezzo al litro che rende evidente la differenza di costo tra i due prodotti…


LUT cosa sono e a cosa servono.

lut-buddyCosa sono le LUT?

ci sono tanti modi di spiegare una LUT, più tecnico o più pratico, a me interessa spiegare il lato pratico, per il lato tecnico basta una ricerca su Google e trovate mille e più pagine tecniche che vi spiegano cosa sono fino alla formula matematica che le descrive.

Una LUT Look Up Table è praticamente una tabella, un preset che prende i colori di una immagine, di un filmato, e li corregge secondo i valori contenuti nello schema della LUT.
Internamente ci sono tabelle a 1, 2, 3 dimensioni che prendono il valore del colore originale e lo cambiano in un altro valore; le LUT 3D sono quelle più precise, perchè descrivono la trasformazione del colore in modo più dettagliato secondo lo spettro cromatico più esteso, se nella modalità 1D è una tabella valori in cui 1 diventerà 1.22, nella lut 3D cubica abbiamo uno scostamento sui tre assi del colore e quindi avendo una descrizione più dettagliata, sarà più precisa la correzione che la LUT andrà ad applicare.

A cosa servono le LUT?

Le LUT servono a tre scopi diversi, a seconda di quando si applicano tali correzioni.

LUT da set/Monitor : girando con camere che lavorano girando il log o in raw, il materiale se rivisto direttamente sarebbe strano, desaturato, piatto come contrasti, quindi spesso si usano monitor che al volo applicano una LUT per mostrare il materiale secondo una visione più “tradizionale” ad esempio il rec709 che è lo standard video.

LUT di sviluppo : sia sul set che magari dopo, si creano delle LUT per fissare un certo tipo di correzione dell’immagine originale per fissare l’estetica dello shot che viene fatto, in modo che il Direttore di fotografia possa al momento verificare l’effetto generale della ripresa fatta, che dare delle indicazioni in modo che chi si occuperà della fase color grading abbia una indicazione precisa di cosa il Direttore di Fotografia intendeva catturare sul set.

LUT di Postproduzione : si carica o si crea una tabella di correzione per dare un particolare look alle immagini partendo da LUT che simulano il tipo di risultato che si avrebbe in “determinate condizioni” ad esempio le Lut che simulano i diversi tipi di pellicola emulano come i colori e i contrasti si altererebbero in funzione della stampa su quel tipo di pellicola.

per far soldi … vendendo dei preset che forse potranno funzionare, su alcune immagini…

Perchè non funziona la LUT che sto applicando?

La spiegazione è molto semplice, la LUT funziona sempre, è l’immagine a cui la diamo in pasto che non è adatta.
Contrariamente a quello che pensano in molti, le LUT nascono come preset di correzione del colore, sviluppate su immagini di tipo X, quindi le LUT vi forniranno quel tipo di risultato SOLO se voi le applicherete ad immagini con lo stesso tipo di contrasto e densità di colore, altrimenti i risultati possono essere di ogni tipo. Le LUT sono SOLO delle tabelle di allocazione del colore, ma non possono essere senzienti, ovvero non sanno quale sarà il risultato finale, solo di quanto cambiare il tutto.

Come faccio a far funzionare una LUT?

domanda semplice, risposta molto semplice, olio di gomito, si deve alterare l’immagine sorgente PRIMA di applicare la lut in modo che sia il più simile possibile all’immagine originale usata per creare la lut, questo farà si che il risultato finale sarà il più vicino possibile a quello che ci si aspetta dall’immagine dimostrativa della LUT.

Perchè una immagine NON vale l’altra quando applico le LUT?

se una immagine ha un contrasto alto o basso, la LUT scosterà i colori in modo diverso.

qui potete vedere un esempio di come una immagine LOG o in modalità video rec 709 per la una LUT Kodachrome siano sbagliate, e quindi da una delle due ho dovuto creare una immagine ad hoc per poter ottenere un risultato più naturale da quella LUT.

completoIl file Log non è abbastanza flat, il file rec 709 è troppo contrastato e troppo saturo, mentre per far funzionare correttamente la lut ho dovuto decontrastare il log, ma saturarlo un po’ di più dell’originale. Quindi diventa evidente che quando si usa una LUT più “aggressiva” di un semplice sviluppo delicato, spesso è necessario mettere in mezzo un livello di correzione per far funzionare la lut nel modo corretto, lavorando sul contrasto e sul colore, perchè spesso la tabella è troppo forte o poco forte.

La Lut deve essere pensata più da un punto di partenza, che un punto di arrivo, per cui può essere interessante per la manipolazione delle immagini, ma non la si deve pensare come una bacchetta magica, non trasforma in pellicola le immagini che gli date in pasto alle Lut, ma aiutano lo sviluppo delle immagini per arrivare ad un determinato risultato.

La free Lut per simulare la cara e vecchia Kodachrome è un dono fatto dal cinematographer Frank Glencairn, la potete trovare sul suo blog in questo interessante Articolo sullo sviluppo del colore in stile kodachrome.

Come le lavoro le immagini prima delle LUT?

con qualunque strumento che vi permetta di vedere in realtime le applicazioni di Lut e correzione colore in contemporanea, ad esempio lo strumento LUMETRI di premiere dalla CC2015 in poi, che contiene la possibilità di caricare le LUT in due punti diversi, sia per lo sviluppo base e poi per lo sviluppo creativo, e la cosa interessante è che nello sviluppo creativo i programmatori di Adobe hanno introdotto controlli di regolazione colore come lo “sbiadito” e vividezza; sbiadito è la traduzione un po’ grossolana di bleach pass, il candeggiante, che aiuta l’applicazione delle LUT rendendo più “flat” piatta l’immagine riducendo contemporaneamente sia la saturazione che il contrasto; la vividezza è uno strumento che aumenta il colore inversamente al valore della saturazione degli elementi, oppure toglie colore in modo direttamente proporzionale alla quantità di saturazione degli elementi, molto utile per uniformare i valori di saturazione dell’immagine, riducendo gli eccessi e i contrasti di saturazione che complicano l’applicazione delle LUT e tutte le altre lavorazioni di correzione colore.

Su photoshop ad esempio le LUT si applicano come livello di regolazione, per cui possiamo inserire prima del livello di LUT due livelli di regolazione di valori tonali e vividezza e controlliamo agilmente l’immagine vedendo anche quanto la LUT la cambia e “dosiamo” l’intervento della lut stessa.

Posso applicare le LUT ad ogni tipo di immagine?

Le lut nascono per lavorare al meglio su immagini flat che nascono da file log o raw, per cui applicandole su immagini morbide e poco sature le LUT possono agire bene, e possono funzionare di più al secondo colpo.

Perchè dico al secondo colpo? Perchè log non è uno standard, se prendiamo un file log di una red, di una blackmagic, di una alexa, di una dbolex avremo tanti log diversi, diverse saturazioni e diversi contrasti. Log è un file in cui il colore e il contrasto invece di essere registrati in modo lineare sono registrati in modo logaritmico per gestire meglio e più latitudine di posa e informazioni, ma ogni azienda ha il suo modo di gestire e catturare le informazioni log.

Ad esempio logC Alexa e log blackmagic sono molto simili, Alexa tiene la saturazione più alta, Blackmagic più bassa, ma il contrasto di luminosità è invertito, quindi la LUT sviluppata sulle immagini di una non va bene su quelle dell’altra e viceversa.
Entrambe le camere registrano un log 10bit in .mov e un 12bit log raw, partendo da un sensore 16bit, ma la curva di gestione è differente.
Potete trovare qui alcune indicazioni della curva di log della Alexa.
Questo significa che anche salendo su camere più professionali non esiste un modo standard di creare le immagini e catturarle allo stesso modo. Se una Lut potesse magicamente equilibrare le immagini e dare l’aspetto X indipendentemente dalla sorgente, probabilmente sarebbe superfluo avere sia sul set che in post diversi ruoli e diverse professionalità, ma nonostante i tentativi di filtri, sistemi di allineamento colore in post, uso di tabelle come il target gretag e simili, i sistemi di correzione colore automatici al massimo posso aiutare a “normalizzare” ovvero uniformare le immagini tra di loro, ma di certo non a creare la magia, per quella servono sempre gli esseri umani.

Un altro esempio di come una camera non possa lavorare in modo lineare è dato dal fatto che a seconda della lente che poniamo davanti, dell’iso impostato, anche lavorando con le stesse condizioni cambierà il contrasto di luce, e quindi anche poi la saturazione. Quindi anche usando la stessa camera, e girando in raw, dove non avvengono elaborazioni, ma si cattura esattamente ciò che il sensore legge, basta aprire o chiudere i diaframmi della lente fissa, che cambiando il contrasto una lut usata a TA (tutta apertura) sarà inutilizzabile a 11 di diaframma perchè l’immagine andrà “massaggiata” prima di essere sottoposta alla lut.


Powered by WordPress & Theme by Anders Norén

error: Content is protected !!