Carlo Macchiavello

Tutto è possibile

Category: I miti da sfatare (Page 1 of 3)

Come si espone correttamente? Cos’è l’esposizione ETTR?

Esposizione corretta

Spesso quando si parla di corretta esposizione sembra che si parli di magia, di pareri, opinioni … mentre sono semplici dati tecnici da leggere e applicare in ripresa e poi eventualmente in post.

Ogni mezzo (sensore o pellicola) ha una sua sensibilità nativa (Iso o Asa a seconda della scala), la giusta esposizione è quando si studia e si espone per il corretto valore del media, al di sotto facilmente si ottiene grana / rumore, al di sopra si tende a appiattire e poi bruciare le informazioni. La tolleranza alle oscillazioni di valore dipende dalla tipologia di pellicola o dalla tipologia di sensore, motivo per cui non basta usare un esposimetro per esporre una camera analogica o digitale, ma si devono fare prove e farsi esperienza per estrapolare il meglio dal sensore o dall’emulsione.

Decidere invece come usare l’esposizione e le luci invece è una questione estetica, artistica e si declina nel gusto, nelle necessità della scena, della fotografia, dell’ambiente e del sistema di cattura della luce che stiamo usando.

Per controllare l’esposizione dell’immagine abbiamo più elementi da tener conto, qui vediamo i diversi valori che ci permettono di avere un controllo totale dell’esposizione dell’immagine.

Il diaframma

Il primo valore che determina la quantità di luce catturata e registrata dalla macchina è l’obiettivo stesso, la capacità dell’obiettivo di aprire e chiudere il diaframma. Il valore del diaframma viene espresso in numeri, quelli più bassi indicano il diaframma più aperto, mentre quello più alto è la chiusura massima che si può ottenere.

Il diaframma della lente aprendosi e chiudendosi ci permette di decidere quanta luce possiamo portare al sensore; quando il diaframma si chiude può avere valori molto alti come 16 o addirittura alcuni obiettivi hanno valore 32, mentre quando si apre possiamo avere lenti che hanno un valore 1.4 o 1.2.

Quando apro e chiudo il diaframma non influenzo solo la luce in ingresso, ma anche la profondità di campo, ovvero la capacità di avere una zona più o meno ampia nitida, quindi quando voglio dare maggiore importanza al soggetto in primo piano posso aprire diaframma per sfocare maggiormente l’immagine dietro di esso. Naturalmente devo compensare la maggiore o minor luce in ingresso.

In sintesi :

il diaframma più è alto il numero, più è chiuso, più profondità di campo; più è basso e più è ristretta la profondità di campo.

Quando si devono scegliere i diaframmi da usare, si tende a non usare i diaframmi estremi, anzi si tende ad escludere il diaframma più basso, perché potrebbe non esprimere il massimo della nitidezza; si tende ad escludere gli ultimi due diaframmi più chiusi, perché a seconda delle lenti si rischia la diffrazione, fenomeno che causa una perdita di nitidezza.

Iso o Asa

Un altro elemento da tenere in considerazione quando andiamo a gestire la luce è la sensibilità ISO o ASA, a seconda delle macchine potremmo trovare una delle due sigle che indicano la sensibilità del sensore alla luce, ovvero la sua capacità di catturare la luce.

Una volta con la pellicola la sensibilità era gestita in modo diretto, ovvero si caricava una pellicola a 80, 160, 320, 640, quindi si esponeva di conseguenza.

Nel momento in cui si è passati al digitale apparentemente le macchine sono in grado di cambiare quello che sono gli Iso/Asa, ovvero sono in grado di abbassare o alzare questo valore per semplificare la fase di ripresa. Dico apparentemente perché in realtà questo tipo di valore anche col digitale è fisso, tranne un paio di camere di alta gamma Varicam della Panasonic.

Nel mondo reale abbiamo un valore che è quello detto sensibilità nativa, la capacità nativa del sensore di catturare quella data quantità di luce, poi quello che sono le sensibilità inferiori o superiori sono elaborazioni o a livello analogico del segnale elettrico catturato da sensore o a livello digitale sulle successive informazioni convertite in digitale.

Tradotto in parole povere significa che ogni macchina che noi andiamo a prendere telecamera e macchina fotografica cinepresa ha una sua sensibilità nativa, quando non utilizziamo la sua sensibilità nativa, apparentemente vedremo immagini più chiare e più scure ma in realtà dato che vengono create queste informazioni per elaborazione analogico – digitale la qualità non sarà come avere un sensore più sensibile o meno sensibile ma sono sempre elaborazioni del segnale originale.

Conoscere la sensibilità nativa di una camera è molto importante perché è la sensibilità nel quale la telecamera, la macchina fotografica, la cinepresa esprimono la loro capacità massima di catturare l’immagine, nella sua luminosità, nella capacità di leggere il contrasto massimo tra luce e ombra.

Quando noi abbiamo una macchina ad esempio prendiamo una macchina fotografica che nasce a 160 ISO e impostiamo un valore di Iso superiore ad esempio mettiamo 1600 o 3200iso perché c’è veramente poca luce nell’ambiente, potremo notare come aumenti una sorta di rumore video, un disturbo, una granulosità che appare sull’immagine perché l’immagine originale viene amplificata quindi fisicamente non è sensore che legge 3200 iso, ma è una elaborazione digitale o analogica.

Molte macchine (telecamere e macchine fotografiche) hanno un sistema di riduzione rumore direttamente in camera, altre (cineprese) per evitare di danneggiare l’immagine o perdere dei dettagli importanti riservano questa fase di riduzione del rumore alla fase della post produzione.

Quindi a seconda della macchina che utilizziamo, possiamo avere una sensibilità iso/asa nativa e un certo range, una gamma di sensibilità aggiuntive che possiamo selezionare per catturare più o meno luce in funzione della luce ambiente e della qualità che mi può esprimere.

Quanti e quali iso/asa possiamo usare di una camera è un qualcosa che dobbiamo verificare, perché ogni macchina offre intervalli di sensibilità più o meno usabili a seconda della quantità di luce che noi abbiamo nell’ambiente di ripresa. Quindi non è possibile dare un’indicazione generica di una sensibilità Iso da utilizzare, ma bisogna scoprire qual è la sensibilità nativa e poi vedere quanto ci possiamo spingere oltre; se parliamo di telecamere normalmente è abbastanza facile perché noi troveremo la macchina con la sua sensibilità di base e poi troveremo un parametro normalmente chiamato Gain o guadagno; il guadagno è quanto stiamo amplificando il segnale elettronicamente, senza guadagno è la sensibilità nativa della macchina.

Con le macchine fotografiche la sensibilità nativa è il valore Iso più basso della macchina, quindi molte macchine hanno ad esempio 160 ISO o 200 Iso; tutte le sensibilità Iso superiori sono elaborazioni, sta poi a noi verificare quali sono usabili quali diventano eccessivamente artefatte per essere utilizzate.

Sulle cineprese nella parte del manuale delle istruzioni è indicato qual è il valore nativo della sensibilità Iso e quali sono gli altri valori che noi possiamo utilizzare come sensibilità pari di xxx.

Quando noi cambiamo la sensibilità Iso e abbassiamo il valore rispetto al valore nativo il risultato è che la sensibilità si abbassa perché la macchina campiona meno informazioni luminose e non abbiamo particolari problematiche, quando noi alziamo la sensibilità Iso, dato che stiamo amplificando un segnale con poche informazioni, poca luce, il possibile deperimento dell’immagine è evidenziato da l’aumento di granulosità o elementi di disturbo video in movimento, l’aumento del contrasto dell’immagine.

L’aumento di contrasto diventa più evidente quanto meno luce è presente; perché se ci sono poche informazioni luminose per rendere più luminosa l’immagine l’aumento degli Iso sposta nelle due direzioni la parte più luminosa e la parte più scura aumentando il contrasto generale dell’immagine.

È molto importante quando si lavora con una camera capire qual è il livello di Iso utilizzabile, entro quale livello possiamo alzare la sensibilità senza avere un deterioramento troppo vistoso dell’immagine.

Per poter gestire l’immagine anche in condizioni di basse luci la soluzione ottimale di gestione dell’Iso è quella di utilizzare iso nativo, e gestire la luce con uno degli altri parametri, ma naturalmente non sempre è possibile farlo e quindi il parametro Iso è uno strumento utile per gestire la quantità di luce che viene catturata per ottenere la corretta esposizione.

Otturazione

Quando eseguiamo una ripresa l’altro fattore che influenza l’esposizione si chiama tempo di otturazione, detto anche shutter molte macchine.

Il tempo di otturazione è l’istante, la frazione di tempo che viene utilizzata per catturare il singolo fotogramma, quindi con un tempo di otturazione più alto o più basso catturiamo più o meno luce. In fotografia si utilizza il tempo di otturazione per modificare anche la quantità di luce che entra all’interno una camera, quando si cattura un filmato il tempo di otturazione non va mai utilizzato per controllare la quantità di luce in ingresso, perché nel momento in cui alteriamo il tempo di otturazione stiamo alterando l’immagine viene catturata da sensore, non è solo una questione di luce, ma è anche una questione di percezione del movimento.

L’impostazione corretta del tempo di otturazione è sempre un valore ben preciso, legato ai fotogrammi al secondo, esistono solo due eccezioni in casi speciali che andremo a elencare più avanti.

Il valore di otturazione corretto per ottenere la cattura di un movimento in maniera fluida è uguale a uno fratto il valore doppio dei fotogrammi al secondo, significa che se io lavoro a 24 fotogrammi al secondo per il cinema, utilizzerò 1/48 di otturazione standard, se io lavoro per la televisione per il video in ambito europeo o australiano dove abbiamo il sistema standard denominato PAL siamo a 25 fotogrammi al secondo, quindi utilizzo una otturazione di 1/50 di secondo, se lavoro per Stati Uniti e Giappone quindi lo standard NTSC, oppure se devo visualizzare il filmato prettamente su computer, tablet e cellulari allora utilizzo di 30 fotogrammi al secondo, quindi il tempo di otturazione sarà 1/60.

Questa semplice formula nacque al tempo del cinema quasi 100 anni fa, la particolare proporzione tra la velocità di otturazione e la cattura di fotogrammi ci offre la corretta scia di movimento sugli oggetti veloci, per far sì che quando noi vediamo filmato lo percepiamo come un movimento continuo.

Utilizzare una velocità / tempo di otturazione differente significa alterare la percezione del movimento catturato, se io voglio ottenere un movimento più mosso allora utilizzo un valore più basso di otturazione ad esempio se io utilizzo valore di otturazione di 1/25 invece di 1/50 l’immagine in movimento sarà più mossa, quindi diventerà più faticoso leggere i dettagli, perché i movimenti si fondono tra di loro, questo tipo d’impostazione si può utilizzare se dobbiamo fare una panoramica a schiaffi molto veloce e non vogliamo vedere gli elementi ma vogliamo vedere una fusione totale di ciò che noi riprendiamo nella panoramica a schiaffo; possiamo utilizzare il trucco di abbassare il tempo di otturazione quando abbiamo veramente poca luce, una camera statica, non abbiamo movimenti veloci nella scena; con una otturazione di durata doppia abbiamo la possibilità di catturare il doppio della luce a parità di scena e diaframmi e iso.

Utilizzare un tempo di otturazione più alto del normale rende invece movimento stroboscopico, quando il tempo di otturazione è più alto del normale oltre a catturare meno luce congela il movimento in ogni istante, in maniera più netta, quindi se ci sono dei movimenti veloci diventano stroboscopici perché i vari fotogrammi non si fondono uno con l’altro per il cervello, ma il cervello percepisce in modo diverso e più fastidioso l’immagine, quel tipo di impostazione si utilizza esclusivamente se in produzione si vuole una ripresa al rallentatore e quindi sia bisogno di immagini nitide e molto dettagliate sintesi l’otturatore va impostato sempre a uno fratto il doppio dei fotogrammi al secondo.

Le uniche eccezioni su questo tipo di situazione sono legate alla creazione di effetti speciali, rallenty, oppure per necessità di catturare più luce possibile nella scena, altrimenti il movimento catturato sarà pieno di artefatti nel movimento cioè non sarà naturale

In sintesi

Otturazione sempre 1/fotogrammi al secondo x 2

Manipolazione esterna alla camera della luminosità

Quindi se vogliamo riassumere i parametri, noi sappiamo che iso dovrà essere impostato preferibilmente nel valore nativo e non dovremmo cambiarlo, il tempo di otturazione andrebbe impostato sempre uno fratto fotogrammi al secondo per due, quindi se dobbiamo controllare la luce da quello che abbiamo detto fino ad ora l’unico parametro che possiamo cambiare è il diaframma, ma abbiamo visto che comporta una variazione non solo della luce in ingresso ma anche della profondità di campo.

Quando noi vogliamo impostare determinati valori diaframma / otturazione / iso, per controllare correttamente l’esposizione dobbiamo quindi agire esternamente alla nostra camera, quindi se abbiamo poca luce dovremo in qualche modo aumentare la quantità di luce disponibile nella scena tramite pannelli riflettenti, tramite luci aggiuntive, eccetera o se invece la luce è troppa possiamo utilizzare pannelli riflettenti neri o bandiere per ridurre la quantità di luce che raggiunge i soggetti, oppure possiamo utilizzare davanti alla lente della camera quello che si chiama un filtro neutro, il filtro neutro è un filtro più o meno scuro che riduce la quantità di luce che colpisce la lente dell’obiettivo.

Riducendo la quantità di luce col filtro ND (neutro) possiamo controllare la esposizione dell’immagine. In questo modo noi siamo in grado di controllare completamente la quantità di luce in ingresso nell’immagine senza toccare i parametri che influenzano gli altri tre parametri : otturazione iso e diaframma.

I filtri neutri esistono in tre incarnazioni ovvero ci sono i filtri neutri digitali introdotti da Sony, che elaborano l’immagine per permetterci di lavorare più comodamente senza dover introdurre elementi davanti alla lente della camera davanti alla lente della camera.

I filtri neutri variabili ovvero un filtro che noi avvitiamo sulla lente della camera e girando in senso orario o antiorario possiamo far passare più o meno luce.

Il filtro neutro variabile è uno strumento molto comodo molto flessibile perché ci permette di controllare in maniera raffinata e precisa la quantità di luce che passa; esso ha due possibili inconvenienti :

  • il primo inconveniente è relativo alla qualità del filtro, se non è un filtro di alta qualità potrebbe influenzare la luminosità e soprattutto la nitidezza dell’immagine stessa quindi è molto importante investire una buona cifra sul filtro neutro per poter avere un’ottima qualità di resa ottica;
  • il secondo fattore che potrebbe (uso sempre il condizionale perché dipende dalla situazione situazione) influenzare la qualità dell’immagine è legato alla natura stessa del filtro neutro variabile, esso è formato da una coppia di polarizzatore che incrociandosi riducono la quantità di luce che passa.

Dato che si parla di filtri polarizzatori, c’è il rischio che qualche tipo di riflesso che io voglia disegnare su una superficie, su un attore vada sparire perché viene polarizzato dal filtro neutro stesso, questo tipo di problematica relativa dipende da situazione a situazione, esiste una semplice soluzione ovvero montare un filtro variabile su un’altra ghiera, che ci permette di girare dopo aver deciso la quantità di luce in entrata, quindi orientare il polarizzatore per quello che ci serve.

Il terzo tipo sono i filtri a lastra ovvero la modalità di sottrazione della luce è unica perchè abbiamo un oggetto che in modo lineare filtra una parte della luce.

Il filtro a lastra normalmente è di qualità superiore ai due precedenti tipi di filtri, ma ha lo svantaggio che a seconda di quanta luce c’è dobbiamo sostituire un filtro rispetto all’altro, richiede un investimento maggiore rispetto al filtro variabile e digitale, richiede avere un porta filtri dove mettere il filtro, ed essendo un elemento che rimane distante rispetto al classico filtro della lente c’è il rischio che possa raccogliere qualche riflesso di luce

La soluzione ottimale è il filtro lastra a livello di qualità di immagine, a livello di praticità il filtro variabile è molto più comodo ed efficiente, quindi a seconda del tipo di lavoro che uno fa, in funzione dei tempi e dei budget a propria disposizione. Il meglio sarebbe poter possedere entrambi, in caso di scelta pratica economica il filtro variabile di qualità dovrebbe essere sempre la prima scelta per una questione di convenienza unita alla praticità di poter avere diverse scale diaframmi che possiamo sottrarre immagine

Esposizione ETTR questa misteriosa…

da qualche tempo si parla di esposizione ETTR in elettronica, ma spesso non è chiaro il perchè di tale scelta, perchè guardando le immagini sembra esserci un errore di esposizione.

L’esposizione detta ETTR Expose To The Right è un metodo di esposizione che tende a sovraesporre in modo più o meno significativo le immagini per ottenere in postproduzione una maggior pulizia delle ombre e/o minor rumore generale.

Questo metodo deriva dal principio dell’esposizione in pellicola, dove una maggior quantità di luce rende il negativo più denso e quindi con un numero maggiore di informazioni rispetto ad un negativo sottoesposto che riceve meno informazioni.

Nell’ambito del digitale dipende da sensore a sensore e come viene usato, perchè ogni sensore ha una sua gamma dinamica di lettura, ma non significa che la si possa sempre salvare, ad esempio le video reflex hanno una gamma dinamica più estesa rispetto alle classiche telecamere, se fanno fotografie, ma quando registrano il video comprimono questa gamma dinamica in uno spazio molto più ridotto : 8 bit contro i 14 bit della cattura fotografica, quindi anche se le informazioni di partenza hanno una certa qualità, queste informazioni vengono compresse in uno spazio più ridotto.

Il nome è nato dal tipo di istogramma che si può leggere dalle immagini ETTR, dove l’esposizione sposta l’istogramma dalle informazioni dei medi alle alte luci.

Il concetto nasce da più motivazioni :

  • immagini più chiare vuol dire ombre più ricche di dettagli, e si può a posteriori abbassare l’esposizione ma avere dettagli anche nelle ombre.
  • immagini più chiare vuol dire compressioni migliori, perchè i codec di compressione a perdita riducono e comprimono molto di più le aree scure delle chiare
  • immagini più luminose normalmente vuol dire avere più informazioni nei medi e nelle alte luci, quindi immagini che percettivamente sono molto più interessanti.
  • ombre più chiare vuol dire meno rumore nelle stesse e quindi immagini più pulite

Quanto e quando si usa l’ettr dipende da diversi fattori, non è una tecnica lineare, ma si può applicare SOLO facendo esperimenti con le proprie attrezzature e si deve capire quale sia il limite delle stesse.

  • Ogni sensore ha il suo limite in alto e in basso come sensibilità, si tratta di testare quali sono i limiti, normalmente le macchine che registrano a 10bit il video, o meglio ancora in raw reggono molto di più delle camere tradizionali l’applicazione dell’ettr, perchè hanno più spazio di azione per recuperare le alte luci.
    Per capire i limiti si deve esaminare e scoprire come l’istogramma della camera (o dal monitor di controllo) vi fornisce i dati su luci e ombre.
    Alcune camere forniscono l’istogramma in relazione al sensore, altre alla capacità di registrazione. E’ importante verificare come funziona tale strumento per evitare di bruciare le immagini.
    Ad esempio le camere Blackmagic Design forniscono un istogramma e la zebra in relazione al sensore, quindi SOLO al salvataggio in raw, mentre se si lavora in prores si deve essere più conservativi, impostando la zebra al 95%, altrimenti le aree si bruciano.
  • Ogni sistema di registrazione interno o esterno può fornire una maggior capacità di registrazione delle informazioni lette dal sensore, dipende da come la camera gestirà la cosa, per cui va verificato, ad esempio nelle videoreflex poche hanno uscite video di qualità, oltre 8 bit 4:2:0, per cui un recorder esterno di qualità potrebbe essere uno spreco di soldi, dipende dall’uso che ne farete.
  • Ogni lente può reggere in modo diverso alla sovra esposizione, ad esempio la maggior parte delle lenti presenta un “purple fringing” ovvero un’area viola attorno alle parti sovraesposte, per cui si può recuperare le aree sovraesposte, ma rimangono aloni colorati che non si possono recuperare facilmente, a livello fotografico dentro Adobe Camera Raw c’è una funzione apposita, ma nei filmati non è così scontato.
  • A seconda dello spazio colore usato rec709 o log si hanno spazi diversi di recupero delle informazioni luminose, e considerato che molte macchine hanno metodi diversi di registrazione del log, se l’immagine non ha un grande contrasto il rischio di usare la tecnica dell’ettr in modo spinto comporta un appiattimento troppo forte delle immagini per poi ricostruire le informazioni che servono per generare l’immagine finale

Come gestirlo in ripresa

Dato che la maggior parte dei monitor interni ed esterni delle camere sono limitati sia come gamma dinamica che capacità di riproduzione del colore e della luminosità, va evitato il loro uso per gestire l’esposizione in ETTR, vanno usati gli strumenti per leggere e capire la vera luminosità delle diverse aree.

Istogramma

Zebra

Falsi colori come funzionano e come leggerli.

Questi strumenti, usati correttamente aiutano a capire quanto possiamo andare a destra con i dati, naturalmente dipende sempre dalla capacità di cattura del sensore e dai vari fattori di gestione della luce. Non va usato sempre e comunque, soprattutto a seconda delle situazioni e del contrasto globale dell’immagine.

Nota Tecnica :

ho preferito lasciare la spiegazione più tecnica alla fine, perchè non a tutti interessano le spiegazioni tecniche dietro alla pratica.
I sensori moderni tendono a lavorare con un principio di esposizione legato a come funziona la sensibilità “digitale” alla luce : quando il sensore quando riceve la luce la differenza di un valore intero di stop (tempo/diaframma) si traduce nel raddoppiare o dimezzare la luce catturata; le tonalità di un’immagine rappresentano la quantità di luce registrata, quindi lo schema di gestione delle informazioni è strutturato allo stesso modo. Immaginiamo un sensore in grado di catturare 16.384 tonalità differenti (14 bit RAW), la metà di queste informazioni 8.192 saranno devolute allo stop più luminoso (l’area a destra dell’istogramma), poi gli stop inferiori avranno rispetticamente ognuno la metà delle informazioni del precedente, quindi rapidamente scendendo verso le ombre le informazioni caleranno in modo drastico.
gradientGuardando questo schema si può notare come già usando una registrazione raw a 14 bit (altissima qualità) il numero maggiore di informazioni viene registrato nella parte alta delle luci, ma se si lavora con la classica registrazione dei sensori a 8 bit diventa FONDAMENTALE tenerci alti con l’esposizione perchè fisicamente il numero di dettagli registrabili cade velocemente, per cui anche avendo tante informazioni nelle ombre, la distribuzione delle informazioni è fondamentale per registrare più informazioni possibili e spostarli nella parte alta è fondamentale, ragione per cui si usa lo spazio log di registrazione che spostando verso il centro le informazioni si cerca di conservare più informazioni possibili dai sensori.

 

Scambiamoci i file… sappiamo come fare?

Negli ultimi 20 anni, si ho scritto venti, ma uso i computer da più di 34 anni, e sono meno vecchio di quanto pensiate, ho scambiato milioni di file, e più passa il tempo e più mi rendo conto che ci sia IGNORANZA COMPLETA su cosa vuol dire fornire i file originali.

Pur essendo un regista, ho sviluppato una buona competenza (in inglese “quite good knowledge” in americano “i’m a god”) nel montaggio e postproduzione video e cinema, dal postprocessing al digital compositing, color grading e 3d animation.

Il problema più grande quando si lavora con le altre persone è l’ignoranza e la superficialità con cui molte persone trattano i file, causando danni con compressioni inutili, e/o conversioni mal fatte che degradano i materiali.

Se non sapete cosa state facendo (90% delle persone) NON TOCCATE NULLA.

In questo post ho deciso di elencare tutte le regole/consigli per importare e/o scambiare i materiali tra progetti e/o programmi e ottenere i migliori risultati. Prima di fare questo sfatiamo qualche mito, perchè prima di metterci a lavorare sul tavolo è meglio pulirlo :

Mito 1 Il peso del file determina la qualità!

Vero, entro certi termini, nel senso che un file molto pesante teoricamente può contenere molte più informazioni, ma anche un file leggero, se ben codificato può contente molte informazioni, per cui il peso da una informazione relativa della qualità generale, ma non è l’elemento definitivo di giudizio.

Mito 2 Un file compresso è più leggero!

Non è vero, è più leggero solo come peso sulla card, ma a livello di calcolo e quindi di utilizzo è più pesante.
Quando si registra un file con una telecamera, videoreflex lo scopo medio di queste macchine è permettere di portare a casa file che abbiano un equilibrio tra peso e qualità, quindi i file hanno codifiche che ottimizzano il peso del file, usando un codec (ieri mpg2, oggi H264 e h265) che usando la codifica hardware (un chip sulla camera) registra le informazioni dei diversi frame in modo da occupare meno spazio, ma tale scelta comporta che non si registrino tutte le informazioni, usando algoritmi che ottimizzano le informazioni.

Nel momento in cui si apre questo file in un programma di montaggio o di post il file, evidentemente nato per rec e play, richiederà un maggior sforzo e quindi prestazioni dal computer per essere Editato, infatti spesso nel campo professionale i diversi programmi di NLE hanno i loro codec DI (Digital Intermediate) nei quali convertono i girati, in modo che tutte le informazioni siano accessibili in modo veloce e rapido. Avid ha DNxHD, Edius ha il suo GV, Adobe ha cineform (di serie da cc2014), Finalcut il ProRes, tutti codec nati per essere usati nel montaggio, che hanno spazio colore ampio, velocità di accesso ai dati, ottimizzati anche per rendering a cascata con perdite ridotte.

Mito 3 Se converto perdo sempre qualcosa!

non è esatto, la conversione può far perdere la qualità  solo se si converte verso il basso, ovvero in un formato più compresso, con meno spazio di codifica colore, o con un bitrate più svantaggioso.
Esistono dei codec di qualità verso i quali convertire può essere conveniente sia per lavorare i video che editarli semplicemente. Se si parte con un file a bassa qualità la conversione verso un formato più ricco non lo potrà migliorare (al max un upsampling del rosso per evitare degradi in post spinta), ma almeno eviterà perdite di qualità durante la manipolazione dello stesso file.

Mito 4 Tanto è digitale quindi è buono

l’idea che l’origine offra una garanzia di qualità è talmente banale, che non vedo perchè debba essere confutata…
quindi dato che acquisisco un vhs in 4k digitale avrò un file di ottima qualità, oppure se ho un prodotto in pellicola 70mm non è di ottima qualità perchè è un mezzo analogico di registrazione dei dati.

Mito 5 Se lo vedo bene in camera va bene per tutto

Dipende la camera come mostra le immagini… la prima accezione che si può fare è che la maggior parte delle camere non hanno monitor della stessa risoluzione di ripresa e/o di dimensioni corrette per giudicare la qualità del materiale girato. Inoltre molti scambiano la visione del materiale live con la registrazione, il fatto di vedere bene le immagini durante la ripresa non significa che il materiale sia registrato in quel modo. Ad esempio la mia vecchia HDV30 aveva un sensore FullHD, un monitor che era sotto la risoluzione SD, la registrazione in HDV 1440×1080, ma l’uscita da HDMI FullHD pulita che registrata esternamente offre una qualità che non sarà mai apprezzabile intermente dalla camera.

Spesso con chi fa questo discorso il rischio è anche un altro, che modifichi i parametri della camera in funzione del monitor, comprese quelle impostazioni come lo sharpness che non è giudicabile se non in zoom al 100% su monitor esterno e in grande, altrimenti si creano difetti e artefatti che non saranno eliminabili in post.

Mito 6 Ti ho dato un file FullHd è materiale buono

il fatto che il formato di salvataggio sia FullHD non significa che contenga una matrice vera di punti di 1920×1080, ma semplicemente che hanno riempito un file di quel formato con delle informazioni… lo scetticismo nasce dal fatto che negli ultimi 20 anni sono esistite tante macchine che salvavano diversi formati HD fullHD partendo da sensori che non contenevano abbastanza pixel per formare una matrice fullHD, comprese diverse cineprese digitali che usavano trucchi diversi dal Pixel shifting all’upsampling di alcuni canali fino a telecamere che mentivano direttamente sulle loro caratteristiche indicando direttamente i formati di uscita, ma non che avevano sensori molto piccoli, e parlo del numero di pixel e non della dimensione del sensore.

Negli anni sono state fatte camere che avevano sensori 960×540, ma traslando il canale del verde, spacciavano la risoluzione reale in uscita in 1920×1080; sensori fullHD che registravano in HDV 1440×1080 con pixel rettangolari, sensori 1280×720 che registrano file 1920×1080 con upsampling, e si nota dalla minor nitidezza salvando alla risoluzione massima (che dovrebbe offrire al contrario una maggior nitidezza).

Inoltre una camera che gira in FullHD e registra in FullHD potrebbe comunque offrire un pessimo file, se troppo compresso, se mal gestito nel campionamento colore, etc potrebbe rovinare il materiale catturato bene dal sensore.

Anche i cellulari catturano in FullHD e 4K, ma tra la compressione, e se manca la luce il risultato può essere di basso livello. Uso il condizionale perchè ho personalmente catturato da cellulari (di fascia alta) filmati di qualità buona e utilizzabili in diverse situazioni video. La differenza oltre alle condizioni di luce lo fanno l’app di cattura e i settaggi di ripresa.

Mito 7 Ti ho esportato i file originali

se li esportiamo non sono più i file originali…
esistono solo poche eccezionali combinazioni tra codec e NLE in grado di esportare i file originali facendo un taglia e incolla del flusso originale, tranne per i punti di transizione, ma solitamente chi dice di aver esportato i file originali non conosce i sistemi di direct to strem nei programmi di NLE quindi probabilmente avranno fatto danni.

Negli altri casi ogni tipo di esportazione avrà rielaborato i file originali, la maggior parte degli NLE non lavorano in uno spazio colore a 32bit, quindi le probabilità di alterazione dei filmati sarà del 99,99%.

Se anche così non fosse l’esportazione consta di un gigantico file senza stacchi complicato e scomodo da usare per la postproduzione, mentre esportare un file XML con collegati i file originali (tutti gli NLE hanno un sistema di collect, content managment, raggruppamento dei file utilizzati nel progetto).

Ogni scambio di materiale per la lavorazione video la soluzione migliore sarebbe che ci sia un Dit che segue e controlla la procedura, ma in assenza di esso, il miglior modo di evitare perdite di qualità è che si fornisca una copia del girato originale per evitare perdite legate ai diversi passaggi di materiale da parte di persone non addette ai lavori.
Insieme al materiale un file di edit in formato XML FinalCut che è apribile da ogni NLE e programma di Post serio. Una copia Lavoro del filmato per ricontrollare che il materiale esportato corrisponda al materiale creato.

Mito 8 Lavoriamo in interlacciato che è più fluido

no comment… chiunque faccia questo discorso ha un solo alibi, se lavora per filmati che andranno messi in onda, altrimenti la ripresa interlacciata e la ripresa progressiva offrono la stessa fluidità a parità di corrette impostazioni di ripresa di shutter.

Il vantaggio effettivo dell’interlacciatura è che separando al cattura dei campi, i due semiquadri sono sfasati e quindi come tali offrono la percezione di maggior sfuocatura di movimento rispetto alla ripresa classica.

Spesso chi fa la ripresa preferisce l’interlacciatura al progressivo perchè spesso il progressivo è catturato a shutter troppo alti e quindi come tali risultano stroboscopici, per cui la soluzione migliore è la scelta della corretta otturazione, ho dedicato un articolo relativo proprio a questo tipo di problematiche e come agire correttamente.

Di Digital intermediate un must per i corretti workflow di editing e post

Storia dei software di editing

Fin dalla preistoria dei programmi di montaggio c’è sempre stato il problema di gestire il flusso video, in primis per questioni di performance, perché i dati di una pellicola non erano gestibili in tempo reale dai computer degli anni 80, e quindi si lavorava con il concetto dell’Offline, ovvero si creava una copia in bassa qualità del girato, si montava la bassa qualità, poi veniva generata una lista di tagli, e una persona dedicata tagliava e rimontava la pellicola alla vecchia maniera, in moviola con scotch e taglierina. Nel caso del video lo stesso discorso avveniva esportando una EDL (edit decision List) compatibile con le centraline dell’epoca e il video veniva nuovamente montato da zero ripartendo dai nastri.

I primi sistemi di montaggio software utilizzavano il nastro come sistema di archiviazione dati, poi negli anni 80 apparve una evoluzione chiamata EditDroid, fatta creare da un tizio barbuto per montare le sue produzioncine, dato che non era soddisfatto della bassa qualità dell’offline su nastro, Edit Droid era un sistema che utilizzava il Laserdisk come supporto, per cui il computer in realtime leggeva e saltava da un laserdisk all’altro (c’erano più lettori in linea) in modo rapido e con una buona qualità rispetto al nastro, con la soddisfazione del personaggio in questione e il suo amico che girava sempre con il cappello da baseball calcato sulla testa, i due strani personaggi che insistevano tanto sulla qualità e sul portare il montaggio ad un livello maggiore erano Lucas e Spielberg, che erano sicuri della rivoluzione in corso.

Negli anni 90 nacque Avid, il primo sistema di massa per il montaggio Offline, dove anche se si montava materiale in bassa qualità, una finestra da 320*200 pixel, con una compressione molto alta, era un modo rivoluzionario rispetto ai precedenti sistemi perché non richiedeva tutto lo spazio per i lettori dei laserdisk stile EditDroid, aveva una compressione variabile (in un’epoca in cui 120 MEGA di hard disk costavano quanto 5.000 euro di oggi, quindi era fondamentale ottimizzare lo spazio), permetteva di lavorare con strumenti più evoluti rispetto ai precedenti.

Fin dalla sua nascita Avid basò il suo flusso di lavoro su il codec DI Avid, ovvero il materiale originale era convertito in un formato più adatto a lavorare il video, pur mantenendo le informazioni come codici di tempo per il montaggio finale da centraline, codici pellicola per un taglio preciso, strumenti più vicini a quella che era la mentalità dell’epoca di montatori video e cinema.

Con il passare del tempo questo codec di lavorazione si è evoluto fino all’attuale DnxHR che supporta una risoluzione spaziale virtualmente infinita, e può essere codificato in qualità 4:4:4 per essere non solo un codec off-line a codec on-line.

Facciamo un salto in avanti di qualche anno, nascono diversi software di montaggio video e ogni marchio svilupperà il proprio codec di lavoro, che nel tempo si sono evoluti, da codec offline, quindi di bassa qualità, ma alta compressione al principio opposto ovvero un codec DI, Digital Intermediate.

Cos’è il codec DI?

Un codec DI, Digital intermediate è un codec di lavorazione che nasce per essere il modo migliore di gestire il materiale audio video che abbiamo realizzato, un Di nasce per essere :

  • un codec di altissima qualità e livello visivo
  • leggero da usare, leggere e scrivere su qualunque programma
  • supportare profondità colore anche maggiore del file di partenza per agevolare la correzione colore e preservare ogni tipo di informazione.
  • permettere ricompressioni (generazioni multiple) senza perdite apparenti

Anche se la maggior parte dei programmi di montaggio moderni prevedono la possibilità di usare i file nativi, in molte situazioni è molto più efficiente come velocità e qualità convertire i file in un codec DI per gestire meglio il materiale video.

Perchè usare un codec DI

per quanto il nostro sistema di editing sia potente, veloce, ottimizzato, arriveremo sempre al suo limite, o per quantità di tracce, effetti, o per filmati a crescente risoluzione e profondità colore (4k HDR), quindi è importante sapere che possiamo ottimizzare le capacità e potenzialità dei nostri computer sfruttando questo tipo di codec alternativo ai codec originali.
Una buona ragione per usare un codec DI?

  1. possibilità di editare e riprodurre correttamente video pesanti che la macchina non sarebbe in grado neanche di riprodurre
  2. possibilità di editare e manipolare in modo più rapido il video
  3. esportare in un formato non a perdita, ma che conservi la qualità originale senza occupare tutto lo spazio del non compresso
  4. poter usare un codec che non venga INTERPRETATO ma letto direttamente per evitare le strane problematiche che possono nascere con codec h264/5, Mpg di vario tipo etc etc
  5. usare un codec universalmente riconosciuto da ogni programma che acceda ai codec di sistema sui due principali sistemi operativi (MacOsX e Windows), senza doversi legare ad un programma o a un sistema, che in passato ha creato problematiche e incompatibilità di vario genere.

I miti sui DI

  1. Ma se converto in perdo qualità….
    la perdita di qualità è relativa alla conversione in formati a perdita, non con i DI che nascono esattamente per preservare e mantenere la qualità orginale.
    La conversione va fatta con software dedicati, mentre spesso la perdita di qualità si nota nell’uso di utility di dubbie origini e/o per uso amatoriale, che per convertire rapidamente usano scorciatoie di vario tipo per accelerare le lavorazioni e quindi scartano informazioni secondo loro non utili.
  2. Ma se converto con il codec DI xxx è più pesante…
    verissimo per il peso sul disco, al contrario sulla CPU, perchè un codec DI converte i frame da GOP (group of picture) in frame completi, per cui occuperà un maggior spazio sul disco, ma il processore sarà sollevato dai compiti di estrazione dei singoli frame ogni volta che si farà play, avanti, indietro, etc e quindi potrà dedicare i processi alla elaborazione e non alla semplice estrazione dei frame.
  3. Perdo tempo a convertire invece che usare direttamente…
    questo è il mito più ridicolo… le persone spesso vedono come tempo perso il tempo di copia e conversione in DI, ma non si accorgono di tutti i rallentamenti che avvengono quando si deve attendere le preview, il calcolo degli effetti, i tempi di analisi durante il montaggio. Usare un DI accelera tutti i processi di rendering e analisi, quindi il tempo di conversione si fa una volta, tutti i tempi di elaborazione durante il progetto vengono sollevati grazie al codec DI.
  4. Ma se poi non posso più leggere il codec XX su un’altra macchina?
    i codec DI nascono per la compatibilità, per cui TUTTI sono installabili GRATIS su ogni macchina windows e MacOsX, e spesso sono già integrati sulle suite dei maggiori prodotti di Editing e Post.
    Ad esempio Adobe e Blackmagic Design hanno acquisito i diritti per fornire di serie con i loro prodotti encoder e decoder per leggere senza installazioni aggiuntive Prores, Cineform, Avid dnxHD/HR, e per quanto riguarda BMD anche i codec GrassValley.
    Se per una qualunque ragione vogliamo visualizzare i file su una piattaforma che non ha questi software è possibile scaricare i codec free per vedere e codificare TUTTI questi codec sui software che leggono dal sistema le librerie dei codec sia sotto MacOsX che Windows.
  5. Se il mio cliente non può installare codec?
    partiamo dal principio che di serie senza codec praticamente si può leggere poco o niente su qualunque sistema operativo, perchè persino l’mpg2 senza un lettore dvd software installato non si può leggere sotto windows perchè non hanno acquistato i diritti, stessa cosa sotto MacOsX che legge i dvd, ma non gli mpeg2 dai software se non ha lui stesso i codec, viene letto giusto l’h264 e poco più.
    Comunque il cliente mica deve vedere i file originali, e/o consegnare il master al cliente, il cliente riceverà il prodotto finito, che sarà un file compresso, non un DI.
    Se il cliente pretende di avere un master o il girato, dovrà anche avere i mezzi per leggerli correttamente… il concetto che non può installare codec non può riguardare la visione il materiale intermedio, e comunque potrà chiedere al reparto IT di installare i codec relativi dato che nessuno di essi offre problemi di compatibilità o rischi di sicurezza (la bufala del quicktime risale ad una versione di quasi 10 anni fà, del 2008, che Apple chiuse ai tempi, l’ultima release del QT per windows non ha nessun rischio di sicurezza).
  6. Qualcuno mi ha detto che è meglio lavorare con i file nativi
    quel qualcuno probabilmente intendeva non comprimere i dati ulteriormente convertendoli in formati a perdita, oppure quando si parla di file raw per la parte del montaggio, ma quando si lavora con quel tipo di dati o si ha un DiT che gestirà il workflow o si saprà bene cosa fare e quindi tutto questo discorso e questa domanda non sarà posta.

 

Come scegliere la lente per la ripresa, perchè sceglierla…

Due chiacchiere con una amica regista mi ha dato uno spunto per un articolo sulle lenti e sulle focali, su come andrebbero usate, e in questo caso il condizionale d’obbligo, perchè ci sono regole stilistiche, ma ci sono anche necessità pratiche, per cui … non amando le regole, preferisco fare una disanima più ampia, in modo da capire cosa succede quando si fanno le diverse scelte e quindi quale saranno le conseguenze sulle immagini.

Esistono tanti miti, tante regole, hanno riempito libri su libri su come si usano le lenti e le focali in fotografia e/o in cinematografia, ma spesso si tende a spargere le informazioni in troppe centinaia di pagine, e spesso le persone non sono interessate alla teoria, ma al risultato pratico.

Focale fissa o Zoom?

La prima scelta che di solito si deve affrontare è se prendere delle focali fisse o degli zoom, e le motivazioni sono molto semplici nella scelta.

La focale fissa offre i seguenti vantaggi:

  • maggior qualità ottica.
  • minor breathing durante il cambio di fuoco (ingresso di aria e leggero spostamento della lente durante il cambio di fuoco).
  • maggior luminosità a parità di fascia di prezzo degli zoom.
  • maggior robustezza in caso di maltrattamento delle lenti.
  • minor numero di lenti per comporre l’obiettivo quindi meno riflessi interni e meno problematiche di riflessi interiori.
  • maggior possibilità di essere tropicalizzato.

Offre un paio di svantaggi

  • essendo una focale fissa costringe l’acquisto di più lenti per coprire un certo range di ripresa.
  • cambiando le diverse lenti è possibile introdurre polvere e detriti all’interno della lente o sul sensore.
  • difficilmente posseggono sistemi di stabilizzazione per la ripresa video.
  • essendo a focale fissa, costringe a muovere la camera per cambiare inquadratura (il che non è necessariamente un difetto).

Gli zoom contenendo più focali al loro interno offrono diversi vantaggi :

  • cambiare la focale non richiede un cambio lente.
  • spesso hanno un buon livello di stabilizzazione per le riprese video.
  • nelle riprese più “run and gun” offrono il vantaggio di poter essere più versatili senza rischiare di far entrare polvere sul sensore.

Di contro ci possono essere degli svantaggi

  • gli zoom spesso offrono meno luminosità degli equivalenti fissi.
  • un buon zoom luminoso diventa molto costoso, anche 10 volte uno zoom normale.
  • spesso gli zoom se non sono cine, non sono parafocali (vedi fondo articolo).
  • gli zoom sono molto più pesanti degli equivalenti fissi.

La scelta dipende dalle proprie necessità e dal proprio budget.

La scelta delle lenti in funzione dell’angolo focale

L’angolo focale è l’angolo visivo che una certa lente è in grado di catturare, questo valore a parità di focale può cambiare, perchè a seconda che la lente sia calibrata dal sensore o no, può esserci il fattore di crop che altera l’angolo focale riducendolo.

Raramente ha senso ragionare con l’angolo focale, perchè comunque si inizierà a leggere equivalenze varie, che alterano la capacità visiva di catturare elementi della lente, ma non conosco nessuno che a occhio sappia dirmi l’angolo focale che gli serve, quindi… è una sega mentale pensare all’angolo focale nella scelta di una lente, mentre è molto più importante pensare alla lunghezza focale, soprattutto perchè nelle equivalenze delle pubblicità non vi dicono a quale serie di errori vi stanno portando.

La scelta delle lenti in funzione della lunghezza focale

La lunghezza focale esprime la distorsione prospettica di una lente in funzione della sua lunghezza, quindi se noi partiamo da un elemento neutro come 50mm, che viene chiamato normale perchè offre la distorsione prospettica dell’occhio umano, possiamo poi scendere o salire per dare maggior spazio o comprimere lo spazio ripreso.

In questa gif animata potete comprendere bene come il cambio di focale cambi completamente la percezione dello spazio, e col salire della focale lo sfondo sembri avvicinarsi al soggetto.
Qui sotto ho riassunto l’effetto delle focali base, poi in realtà a seconda che si usi uno zoom o altri fissi tutti i valori intermedi sono proporzionali come resa tra una focale e l’altra.

L’effetto delle diverse focali si divide in tre componenti :

La resa tridimensionale avviene sia in caso di ripresa statica, che in movimento.
Il movimento camera viene alterato dalla lunghezza focale, più è bassa la lunghezza focale, maggiore è la velocità percepita; maggiore è la lunghezza focale, minore è la velocità percepita nel movimento.
La profondità di campo è influenzata in modo inversamente proporzionale dalla lunghezza focale, minore è la lunghezza focale, maggiore è la profondità di campo, maggiore è la focale minore è la profondità di campo.

  • 14mm supergrandangolo che deforma lo spazio, accelera ogni movimento laterale, se usato per soggettive o piani sequenza offre una resa molto forte del movimento laterale.
  • 24mm grandangolo che offre maggior spazio e una deformazione della prospettiva.
  • 35mm angolo di ripresa maggiore ma non ci sono deformazioni apprezzabili.
  • 50/55mm normale stessa resa dell’occhio umano.
  • 85mm leggero schiacciamento delle profondità e i piani tendono a sembrare più vicini, ma grazie alla sfuocatura di campo permettono un distacco maggiore tra soggetto in pp e lo sfondo.
  • 100mm tele aumenta lo schiacciamento dei piani e lo stacco tra soggetto e primo piano.
  • 200mm tele più spinto, amplifica lo schiacciamento tra i piani, utile per dettagli o riprese che si capisca della ripresa da distanza.

Un 17 mm offre una distorsione doppia rispetto ad un 35mm, quindi andrebbe usato in funzione di un maggior spazio di azione, altrimenti l’ambiente e gli elementi tenderanno a distorcersi in modo vistoso, ma se abbiamo la necessità di catturare un angolo maggiore visivo saremo costretti a scegliere una lente in funzione dell’angolo invece che della resa prospettica.

Ci sono autori che amano il grandangolo, per la sua capacità di rendere grottesche le forme e distorcere la realtà, uno di questi è l’ex Monthy Python Terry Gilliam.

Un’altro amante della deformazione grottesca è il francese Jean-Pierre Jeunet, che ama le sue distorsioni portando molto vicina la camera ai soggetti distorcendo geometrie, visi, amplificando nella distorsione le emozioni degli attori.

Il recente premio Oscar Emmanuel Lubezki è un altro amante dei grandangolari spinti, in favore della maggior dinamicità che offrono, e contrariamente ai due precedenti autori che amano la distorsione, lui tende ad usarlo in ampi spazi per esaltare e amplificare lo spazio, dando una maggior sensazione di ariosità alle scene d’azione.

Altri autori, come Hitchcock, amano usare la terna classica dei fissi 35-50-85mm per raccontare le loro storie, ma zio Alfred non disdegnava gli zoom per lavorare più rapidamente (forte della sua lunga esperienza di produzione televisiva) e per ottenere effetti particolari come l’effetto Vertigo, che naque su sua richiesta.

Personalmente sono un pragmatico, conosco la resa di queste focali, aggiungo alla terna classica altre focali, scelgo focali sotto il 35mm solo in situazioni particolari, per necessità di ripresa, mentre mi piacciono le focali lunghe per schiacciare le prospettive, per catturare dettagli, o ottenere effetti particolari. Ma se ci troviamo in uno spazio ristretto e la storia richiede di raccontare nell’inquadratura più elementi si deve trovare il modo, o con giochi di specchi (Orson Welles insegna) oppure useremo una lente con una focale più corta del solito, per raccogliere ogni briciolo di elemento nell’inquadratura.

Lenti e zoom fotografici o Cine, quali sono le differenze?

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

Con l’avvento delle video dslr sono nate tante dicerie, miti e leggende su cosa sia meglio o peggio, il tutto mescolato da quel calderone che è il web 2.0.
Le lenti fotografiche sono nate per la fotografia, quindi con necessità di un certo tipo, anche se usate per il video non offrono esattamente lo stesso tipo di performance.

Le lenti fotografiche offrono un’ottima qualità di ripresa, ma non essendo nate per la ripresa continua spesso mancano delle seguenti caratteristiche :

  • breathing, le lenti fotografiche nella maggioranza soffrono di questo fenomeno che per lo spostamento delle lenti interne si dice che “respirino” ovvero entra aria all’interno delle lenti con l’aspirazione di eventuale polvere, ma soprattutto nei cambi di fuoco comporta un leggero movimento, che spesso è fastidioso nelle immagini. Nel caso di lenti fotografiche tropicalizzate il fenomeno è ridotto, ma non annullato, perchè lo spostamento lenti esiste comunque e quindi si evita solo l’ingresso della polvere.
  • diaframma cliccato, ovvero il diaframma può essere aperto e chiuso solo in passi ben precisi, mentre una lente cine prevede una manipolazione del diaframma continua, quindi possiamo impostare qualunque frazione di diaframma per trovare la corretta esposizione.
  • Parafocale, quando si lavora con gli zoom nella maggior parte delle lenti fotografiche cambiando la focale si deve correggere la messa a fuoco, quindi non si può fare una zoomata e mantenere il fuoco, mentre uno zoom cinematografico sarà parafocale, quindi una volta stabilito il fuoco, rimarrà su tutta la lunghezza focale dello zoom.
    (gli zoom broadcast delle telecamere sono normalmente parafocali e fanno parte di una categoria a parte)
  • robustezza, anche se prodotte con le migliori intenzioni, le lenti fotografiche nascono per scatto singolo e soprattutto essere trasportate con la macchina, quindi la leggerezza è un punto fondamentale, contro la robustezza. L’attacco PL cinema è un aggancio notevolmente più robusto rispetto a quello fotografico, per cui diventa evidente come la lente diventi un tutt’uno con il corpo macchina, in favore di cambi di fuoco e il resto.

Da questa breve disamina diventa evidente come lenti fotografiche e cinema abbiamo criteri di costruzione differenti, per destinazioni differenti.
Questo non significa che non si possano usare lenti fotografiche al posto di quelle cinema, considerato il diverso costo sia di acquisto che di noleggio, è il motivo per cui l’attacco EF (attacco canon fotografico) sia diffuso anche tra diverse cineprese digitali, la cosa importante è conoscere i limiti delle lenti fotografiche usandole in ripresa, e quindi aggirarli o lavorare entro i limiti e sfruttarne tutti i punti positivi.

Quale marchio è migliore?

questa è la domanda più semplice a cui rispondere: nessuno…

Ogni dop ha le sue preferenze, ogni lavoro può richiedere lenti diverse e risultati diversi, ogni regista ha un gusto particolare e quindi può richiedere lenti più “cliniche” o più “morbide”, con più o meno “carattere”, che diano atmosfera o sappiano catturare particolari sfumature di luce. Ci sono amanti delle Zeiss per la loro resa di contrasto mentre altri preferiscono le Cook, più morbide e meno asettiche, altri ancora lenti speciali come le Voitlander, e molte altre ancora, ognuno ha le sue preferenze e condivido le scelte.

La scelta è molto vasta, e oggi ancor di più si differenzia più di ieri, infatti molti produttori di lenti stanno “tornando indietro”, come Cooke che ha deciso di produrre le sue lenti anche senza il coating superficiale per proteggere le lenti dai flare delle luci e ottenere una resa più vician a quella della produzione delle Cook degli anni 60-70, perchè si sta tornando ad un certo gusto ottico visivo relativo a come la luce veniva massaggiata dalle lenti senza coating.

Ultron Voitlander 55mm 1.4 AR lente radioattiva degli anni 70 su sensore 4k moderno.

Io stesso a seconda delle situazioni ho preferenze diverse, sono amante delle lenti vintage, ma sono conscio dei loro limiti, quindi ho anche lenti moderne; mi piacciono i fissi, ma ho una coppia di zoom molto luminosi per la loro versatilità. In un mondo digitale dove teoricamente tutto è riproducibile, tornare al concetto che si possa gradire l’uso di un tipo di lente contro un’altro per puro gusto visivo personale ci permette di avere una certa libertà…
Se poi, come un certo Stanley volessimo crearci il nostro parco ottiche, perchè gradiamo quella particolare luce di quella lente prodotta nel piccolo stabilimento tedesco, su progetto di xxx con componenti tedeschi e giapponesi… beh… è il bello del mondo moderno, un giro su uno store moderno, un occhio ai mercatini di ebay su tutto il mondo e la nostra luce potrà essere… unica.

Supporti fisici, questa illusione

mold-8mm-film-reelsOgni tanto sentendo parlare di supporti fisici mi viene da ridere, più che altro perché continuano ad esserci miti e leggende che tanti continuano a perseguire… quindi facciamo un poco di chiarezza sui miti, perché sono nati, e soprattutto perché molti restano dei miti creati dall’ignoranza e dalla rapporto superficiale con gli elementi.

Mito 1 il negativo è immortale

Troppo spesso quando si parla di fotografia digitale sento dire “eh con la fotografia digitale è tutto volante, almeno con i negativi avevi qualcosa in mano che resta, con i file non si sa mai…”.

Sono le stesse persone quando gli chiedi come conservano i negativi, che tipo di sviluppo hanno subito etc rispondono vagamente, e quindi so che i loro negativi sono :

  • in un cassetto appiccicati tra di loro
  • l’emulsione che lentamente si altera perché sviluppata con acidi a sviluppo rapido
  • con colori che si sono scostati perché probabilmente non conservavano i rullini prima dello sviluppo in frigo
  • non sanno che esiste una data di scadenza dei rullini
  • se va bene non hanno troppe muffe attaccate sopra che mangiano lentamente i loro ricordi…

Il negativo fotografico può sopravvivere nel tempo  :

  1. se è un prodotto di buona qualità di partenza, non un negativo commerciale, che pensato per la massa può avere difetti intrinsechi della produzione di massa
  2. se è stato conservato correttamente durante trasporto e stoccaggio, senza essere esposto a sbalzi termici estremi
  3. se è stato se esposto correttamente entro la sua data di durata
  4. se è stato sviluppato correttamente, con acidi a sviluppo lento, non quelli dello sviluppo in un’ora dai laboratori per i frettolosi, che accelerando lo sviluppo alteravano l’emulsione riducendo la sua durata nel tempo
  5. se dopo esser stato sviluppato, stampato è stato conservato in ambiente buio, asciutto magari con i sacchetti di gel al silicone
  6. se non è stato conservato a contatto con altri negativi (la classica busta di carta fotografica con la taschina dove mettere tutti i negativi insieme era uno dei luoghi peggiori dove conservarli, il modo migliore per far aderire l’emulsioni di un negativo con l’altro, danneggiando entrambi per sempre
  7. se ogni tanto si controllano e si permette loro di prendere aria, evitando che l’emulsione si incolli ai contenitori a striscia del negativo

quindi tutti quelli che hanno decine di centinaia di negativi dimenticati nello scatolone del garage, nei cassetti mai aperti da trent’anni, non preoccupatevi, i vostri ricordi restano nella vostra mente, ma i negativi… auguri

i difetti del negativo fisico?

  • il tempo altera sempre e comunque i negativi prodotti dagli anni 50 in poi, quindi comunque sta decadendo anche conservato al meglio
  • gli acidi usati per lo sviluppo intaccano i colori in modo non lineare e quindi i vostri colori cambieranno nel tempo
  • la duplicazione dei negativi tramite metodo fisico comunque provocano un decadimento della qualità ad ogni copia, perdita di nitidezza e aumento del contrasto
  • l’archiviazione comporta necessità di spazio, ben gestito, con caratteristiche ben precise
  • l’archiviazione e la ricerca nei negativi fisici prevede una organizzazione molto stretta e precisa
  • un problema di archiviazione errata, o un danno ad uno di essi da parte di muffe etc propaga rapidamente il problema agli altri elementi presenti nello stesso luogo

i difetti del negativo digitale?

  • bisogna archiviarlo e sapere fare copia e incolla dei file, ma se non si conoscono queste informazioni basilari nell’uso di un computer, forse il problema di archiviare i negativi digitali è l’ultimo che vi deve preoccupare.
  • un danno ad un supporto (hard disk, DVD, cd) rischia di essere un danno a diversi negativi in un sol colpo (come accade se si rovinano i negativi fisici se danneggiamo, bagnamo una scatola etc)
  • bisogna essere organizzati per archiviare i diversi file (come si deve fare con quelli fisici, tenerli tutti insieme in uno scatolone non è organizzarli)

I vantaggi del negativo analogico ?

  • fino ad un certo periodo storico era il modo migliore per catturare una certa quantità di dettaglio fisico nello scatto fotografico
  • ad oggi 2016 i negativi fotografici migliori offrono una gamma dinamica di cattura fino a 18 stop di latitudine di posa, e si possono mettere anche in macchine fotografiche economiche, mentre una camera digitale con quella gamma dinamica ha un costo decisamente impegnativo

I vantaggi del negativo digitale?

  • posso creare più copie di sicurezza IDENTICHE senza perdite di qualità.
  • più passa il tempo migliori saranno i negativi digitali prodotti perché le tecnologie dei sensori migliorano costantemente
  • più passa il tempo meglio si possono sviluppare i negativi digitali perché anche gli algoritmi di sviluppo migliorano e ottimizzano le tecniche di estrazione dei dettaglio dalle matrici di Bayer
  • è possibile distribuire un negativo digitale senza timore di perdere l’originale come accade con il negativo fisico
  • nello spazio di un card SD da 128 gb posso archiviare circa 10.000 negativi digitali (di varie dimensioni), con database per ricercare e gestire al meglio il materiale, mentre con negativi fisici lo spazio occupato è estremamente più ampio e impegnativo.
  • da uno stesso negativo posso sviluppare e creare più fotografie in modo indipendente, senza avere necessità di camere oscure, strumenti per la stampa, acidi etc.

Ognuno di noi ha le sue preferenze, ha i suoi gusti, e personalmente avendo un archivio digitale di oltre 60.000 fotografie, ma anche un archivio di negativi fisici di oltre 20.000 strisce, decisamente sono felice del fatto che i negativi digitali sono più semplici da conservare e gestire.

Mito 2 i cd e i DVD sono immortali

Ogni epoca ha la sua mitologia, per molti utilizzatori di computer, più o meno preparati, masterizzare un dvd ha ancora l’alone dell’immortalità, peccato che non è mai stato così…

Un cd/dvd industriale, ovvero quello che acquistiamo con un film, un documentario o un concerto viene realizzato con laser industriali che perforano completamente un supporto metallico che viene poi racchiuso in due gusci di plastica trasparente dura. Da test di invecchiamento accelerato è stato dedotto che un dvd prodotto con questo principio ha una vita di circa 100 anni, quindi superiore a noi… ma mica tutti i dvd industriali sono prodotti con questo principio, solo quelli di fascia più alta.

Oggi esistono molti dvd che vengono prodotti con un solo strato di plastica trasparente sotto il supporto masterizzato, e viene stampata la copertina direttamente sul supporto superiore, il che rende molto più fragile il dvd.

Alla nascita del Dvd nei primi anni 90, quindi un quarto di secolo fà, i dvd erano prodotti in camere sterili, poi col tempo hanno iniziato ad economizzare sulla produzione, causando dei possibili rischi di contaminazione dei supporti, come accade con molti dvd industriali… che presentano cambiamenti di colore del supporto da argento a giallo, muffe che si formano sotto il supporto rendendolo illeggibile, opacizzazioni varie del supporto che danneggiano i prodotti di livello industriale.

Cosa significa questo? che se i dvd masterizzati in modo industriale sono già delicati e non eterni, aggiungiamo altri fattori dati dalla masterizzazione casalinga :

  • il dvd masterizzabile ha un supporto organico non stabile, ma sensibile alla temperatura, in particolare al raggio laser che per masterizzarlo crea col calore una deformazione sulla superficie (volgarmente diciamo un bozzo), che verrà poi letto dai laser come 0 o 1 a seconda di come sarà realizzato il bozzo.
    Questo supporto che non è stabile come il supporto industriale tende a perdere parte di queste deformazioni, perché è un materiale che ha “memoria” della sua forma originale.
  • il supporto registrabile è molto più sensibile a UV, temperatura e umidità quindi basta poco per danneggiare i dati presenti sul supporto
  • il supporto registrabile ormai è realizzato con materiali di qualità infima, ed è veramente difficile comprare un prodotto di qualità, perché anche i grandi marchi non producono da anni i supporti ma sub appaltano a fabbriche indiane e cinesi la produzione e poi fanno marchiare da loro, spesso alternando le fabbriche.
    L’unico modo per capire la provenienza di un supporto è leggere il production code tramite software dei dvd acquistati, non prima dell’acquisto.
    Attualmente una azienda giapponese produce dvd oltre che per gli altri marchi anche secondo il loro marchio, Taiyo Yuden, e sono prodotti di buona qualità, per il resto tutti i marchi che in passato potevo utilizzare sono diventati inaffidabili, mostrando limiti e problemi di ogni tipo …
  • la protezione plastica inferiore molto più sottile e morbida di quella dei dvd industriali, quindi è più facile graffiare i dischi e leggerli peggio o non leggerli affatto
  • i masterizzatori hanno velocità sempre più alte, il che non è MAI un vantaggio, perché maggiore è la velocità di scrittura e maggiore è il rapporto segnale rumore introdotto, causando più possibili errori di scrittura, e quindi nella rilettura i dischi saranno sempre più limitati nella durata e delicati, questo rapporto di errore in lettura aumenta col tempo, perchè il supporto tende per effetto memoria a tornare alla forma originale, per cui più lentamente abbiamo masterizzato un dvd, più probabilità di durata nel tempo abbiamo.
  • i lettori dvd da tavolo e da computer sono sempre più economici e di basso livello, per cui anche se i dischi sono di qualità media c’è il rischio che sia meno facile leggere tali dischi dai computer più moderni. Posseggo un dvd recorder LG che legge perfettamente i dvd masterizzati ma ha difficoltà con più di 700 dvd originali che posseggo…
    N.B. i lettori bluray necessitando di laser più precisi e potenti hanno il vantaggio di leggere meglio anche i dvd più vecchi.

Quindi in conclusione: i cd/dvd industriali più recenti soffrono della produzione economica e possono danneggiarsi nel tempo, i cd/dvd masterizzati in modo casalingo sono proporzionalmente durevoli e robusti alla loro età, più sono vecchi e costosi i supporti più saranno durevoli.

Se il primo cd che ho masterizzato costava 52.000 lire, ovvero quasi 100 euro di oggi, e dopo ventidue anni funziona perfettamente, non posso dire altrettanto di dvd di marca nota, una volta ultra affidabile, pagati 26 centesimi di euro, che dopo 6 mesi metà dei file salvati sono illeggibili dallo stesso prodotto che li ha masterizzati… pur conservato perfettamente, pur masterizzato a bassa velocità, pur evitando contatto diretto con la superficie, etc etc…

Mito 3 gli hard disk sono indistruttibili

La maggior parte delle persone che conosco hanno un computer portatile, dove conservano l’unica copia dei loro dati, fiduciosi che il loro computer sia eterno… che soprattutto il loro hard disk sia eterno… cosa che da tempo non può essere più vera.

Un hard disk è un contenitore metallico che contiene dei piatti metallici con un braccio che levitando vicino alla superficie altera magneticamente il contenuto.
Anche se apparentemente sembra essere un prodotto molto robusto in realtà l’hard disk meccanico è molto fragile, e bastano poche sollecitazioni meccaniche per danneggiare uno dei componenti in modo più o meno definitivo, portando alla perdita di una parte consistente dei dati.

I dischi da 3.5 pollici sono nati per rimanere dentro i computer fissi, come tali qualunque urto comporta un rischio alto di danneggiamento del braccio o di danneggiamento ai dischi stessi, con perdita dei dati. I dischi da 2.5 pollici (quelli più piccoli da portatile) sono più robusti e soprattutto hanno meccanismi di sicurezza che in situazione di riposo, in caso di interruzione di corrente, la maggior parte dei dischi ritira il braccio dalla posizione operativa alla posizione di riposo per ridurre il rischio di danni del braccio e dei piatti.

Col tempo i dischi meccanici sono diventati sempre più capienti, e allo stesso tempo economici, ma questo vuol dire che ogni piatto è più denso come quantità di dati registrabili, quindi un danno minimo ad un piatto significa un danno sempre più esteso ed ampio al disco, esempio banale, se il mio vecchio maxtor da 160 gb aveva 4 dischi da 40 gb l’uno il massimo danno di un disco era di 40gb, i miei nuovi dischi da 8 tb contengono solo 4 dischi da 2tb l’uno, quindi un danno ad un disco significa perdere 2tb di dati, cioè 50 volte i dati che avrei perso in un danno al vecchio disco.

Molte persone tendono ad usare dischi esterni e portarli in giro, questo aggiunge sollecitazioni inutili ai dischi aggiungendo rischi. I dischi da 2.5 pollici sono più orientati al trasporto, mentre i dischi da 3,5 pollici sono più a rischio, il fatto che siano messi dentro dei box non significa che siano sempre e agilmente trasportabili. Alcuni box come la fascia alta di Lacie ha degli ammortizzatori in neoprene all’interno del box, in modo che in caso di caduto questi assorbano buona parte della forza cinetica non trasmettendola al disco.

Comunque la maggior parte degli hard disk da 3.5 pollici subiscono danni non riparabili e perdita di dati da una caduta di meno di un metro, ovvero cade dal tavolo o dalla scrivania…

Mito 4 le chiavette usb, le schede SD,CF etc sono indistruttibili

Ogni epoca ha la sua mitologia, per molti utilizzatori di computer le chiavette usb sono per qualche ragione indistruttibili… mah… teoricamente sono prodotti che possono sopportare forti scariche di corrente, essere bagnate e se lasciate asciugare continuare a funzionare, quindi un buon supporto … MA…
Se pensate che una chiavetta di qualità da 60 euro abbia lo stesso tipo di memorie a stato solido di quella da 8 euro, se pensate che basti staccarla dal computer, e fregarsene di quel messaggio “il dispositivo xx è stato rimosso prima che il sistema lo espellesse”, se pensate che quando non viene riconosciuta sia bene sforzarla spingendo bene dentro la porta USb (danneggiando sia porta che la chiavetta), forse forse non avete ben chiaro che tipo di uso si deve fare di un dispositivo a stato solido.

Inoltre il problema più grande delle memorie a stato solido è che se parte per una qualunque ragione una cella (danno meccanico, elettrico, difetto produttivo) non è come nelle memorie ad archiviazione magnetica, il danno si propaga velocemente e spesso corrompe dati nelle celle vicino, per cui una volta che il supporto inizia a dare problemi diventa completamente inutilizzabile, perchè diventa inaffidabile.

Quando siete fortunati la chiavetta diventa in sola lettura, altrimenti si corrompono i dati e bon, la chiavetta non è più utilizzabile.

Troppo spesso le chiavette vengono usate con superficialità, si attaccano ad un computer non protetto (virus e problemi varii, ma risolvibili), poi si staccano senza espellerle e si collegano a tv, a box digitali, a macchine per l’ecografia, tomografie etc… tutti prodotti che non espellono il supporto e spesso le apparecchiature mediche hanno sulle porte usb degli scarichi di elettricità statica a bassissimo livello, che portano danni alle chiavette.

Lo stesso discorso vale per le schede di memoria, per telefoni e macchine fotografiche, spesso sono usate con superficialità, una volta i rullini si conservavano correttamente in frigo, si montavano al buio, si riavvolgevano correttamente, si estraevano e conservavano dentro i loro cilindretti prima dello sviluppo. Oggi vedo card che sono sbattute dentro e fuori alle macchine fotografiche, messe dentro lettori da 2 soldi, collegate a computer o sistemi non protetti, mai smontate quando estratte, estratte a macchina accesa.. e quindi possono avere problemi, anche se… tranne per le card tarocche, ovvero card non originali, ma brutte copie delle originali non ho mai perso un dato dalle card Sd, mentre ho un mezzo barattolo pieno di chiavette usb danneggiate di amici da cui ho recuperato dati o proprio messe li a monito per chi tratta male i propri dati.

Conclusioni

tutto questo per dire che nulla è eterno, e sta a noi trattar bene i nostri dati, preoccuparci di fare dei backup, usare i prodotti bene, avere quelle due nozioni in croce su come proteggere le nostre fotografie, i nostri video, i nostri dati…

se invece fate parte di quella massa di persone che al massimo ci copiano dei film o musica pirata, che non pensano che sia importante conservare le proprie foto perché tanto le hanno (in bassa qualità) su Facebook o il video su Youtube, beh… avete la mia invidia, perché siete più sereni di me e non avete il problema di conservare il frutto del vostro lavoro di animazione, fotografia, video etc ;-D

 

Ripetere con me : la magia non esiste, la magia non esiste, devo lavorare per ottenere un risultato

Il titolo ironico di questo post è rivolto alle migliaia di illusioni create dal marketing, di ogni tipo e forma quando si deve risolvere un problema, e si cerca l’automatismo, la soluzione che magicamente faccia il nostro lavoro manuale e sia di qualità eccelsa, oltre che immediato…

Con questo post potrei descrivere un milione di situazioni, ma oggi parliamo di una problematica comune a tutti coloro che lavorano con le immagini, statiche o in movimento, ovvero la conformità.

Spesso nella produzione di uno shooting fotografico la luce può cambiare, soprattutto in esterni con luce naturale, e si deve cercare di mantenere il più possibile allineati gli scatti tra di loro, anche se per scelta artistica si possono inserire scatti con colorimetrie differenti, mentre nel montaggio video la mancanza di coerenza delle immagini nei colori, nei contrasti, nella luminosità, o è una scelta estetica ben precisa collegata alla narrazione oppure diventa un elemento molto fastidioso e ogni stacco “non funziona” si sente che sono stati eseguiti in tempi diversi, con camere diverse, con luci diverse.

Il primo problema dell’allineamento delle diverse immagini è legato al fatto che normalmente non si hanno elementi di confronto diretto per allineare due inquadrature, fatte magari nello stesso momento, stessa camera, ma con lenti diverse e/o inclinazioni diverse (ricordo che basta una luce di taglio non protetta per cambiare nella maggior parte delle lenti il livello di contrasto). Il secondo problema nasce quando si hanno camere diverse, luci diverse, momenti diversi in cui sono catturate le diverse immagini e quindi la conformità richiede veramente fare una piccola magia.

Negli anni, con lo sviluppo della cattura digitale, elaborata o raw, sono state sviluppate diverse tabelle colore per la “neutralizzazione” delle immagini, in modo da avere un riferimento univoco attraverso le immagini, indipendentemente dal tipo di luce e catturate da sensori diversi.

Uno degli standard da diversi anni è la tabella Gretag, una tabella che contiene dei colori calibrati ben precisi che corrispondono ad una serie di tacche di dal bianco al nero per gestire correttamente l’esposizione di luce e ombra, una serie di tacche colore ben precise per definire la neutralità della luce, delle tacche relative agli incarnati per gestire la corretta resa dei diversi incarnati delle differenti etnie sotto la luce.

Su questo prodotto sono nati miti incredibili, da chi dice che automaticamente le camere si autosettino leggendo queste tabelle (una specie di super bilanciamento del bianco/nero e dei colori) a chi mitizza l’uso delle tabelle che fatta una volta la ripresa di quella poi con altrettanto mitiche funzioni e/o plugin esterne tutte si autoallineeranno come per magia, tipo l’inizio di BladeRunner con la navigazione 3d dentro la fotografia…

Catturando prima dello shooting questo tipo di riferimento è possibile semplificare alcuni processi operativi, ma questo tipo di strumento NON E’ una lampada magica che automaticamente farà allineare i colori e le luminosità delle diverse clip, serve prettamente a due operazioni molto importanti :

  1. neutralizzare completamente l’immagine per poter partire correttamente con la correzione colore
  2. avere un riferimento univoco nel momento in cui si devono regolare colori e illuminazione

Alcuni programmi, ad esempio Davinci Resolve, possiedono un sistema di analisi automatico delle diverse tabelle colore per poter leggere e aiutare la neutralizzazione dell’immagine tramite di essa, per cui se abbiamo una luce non neutra, alterazioni in qualche componente (ad esempio i led a bassa qualità cri che buttano verde dentro gli incarnati scuri) proverà a neutralizzare il tutto.

Naturalmente questo automatismo si basa sul concetto che la luce dovrebbe essere neutra e che la tabella sia correttamente esposta rispetto al resto della scena, quindi corregge di conseguenza.

Se prendiamo due riprese eseguite con due camere diverse, non allineerà la colorimetria delle due camere, non toccherà i contrasti in caso di esposizioni diverse, nè modificherà la struttura (contrasto di gamma delle immagini).

Questo semplice prodotto può far risparmiare settimane di lavoro in una produzione complessa e soprattutto migliorare notevolmente la qualità delle immagini e della correzione colore perchè offre dei riferimenti univoci.

Come si usa e cosa si deve fare per poter sfruttare al meglio questo tipo di strumento?

La Gretag prevede poche e semplici regole :

  1. Conservare la tabella (cartone, plastica o quello che comprate) al buio, lontana da calore e umidità.
  2. Utilizzarla in ogni singolo stacco che andrete a fare, la cosa più semplice è accoppiarla con il ciak, così si riducono gli oggetti in mano e siamo sicuri di non dimenticarla.
  3. Va posizionata davanti al viso dell’attore che si riprende o il soggetto che si inquadra, in modo che la stessa luce che colpisce la tabella sia la stessa del soggetto.
  4. Le luci e i riflettenti che andranno usati durante la scena dovranno già essere accesi da qualche tempo prima della ripresa della tabella, alcuni tipi di luci tendono a cambiare leggermente la colorimetria scaldandosi, nel dubbio si può mettere la tabella anche in coda alla scena.

 

 

Nel monitor l’esposizione mi sembrava giusta e ho aggiustato il colore li sopra.

E ci aggiungo quelli che senza usare uno strumento per misurare qualcosa (intensità, temperatura, tinta della luce, contrasto) cambiano temperatura, tinta, contrasto, luminosità del monitor per rendere più naturale e vicina l’immagine del monitor a quella che vedono, sottolineo l’immagine del monitor, non quello che riprende la camera… Questo procedimento genera due errori, perché la realtà ha un colore, la camera ne registra un altro, ma monitor ne vedremo uno simile a quello “reale”, peccato che ci serva a poco, anzi ci porti a credere che la camera registri quei colori, una deviazione della camera nel monitor di uscita e non nella camera….

Avete presente quelle frasi per cui : “… se avessi un euro per ogni volta che l’ho sentita, sarei milionario” ? ecco una che sento spesso è : ma il colore che vedevo nel monitor è giusto…

I monitor esterni, i monitor delle camere sono gli oggetti più sopravvalutati al mondo, e spesso bistrattati, perchè si pretende un qualcosa che solo prodotti che costano 5-6k euro possono offrire, quando calibrati correttamente per la camera con cui sono collegati, e posso offrire ovvero la fedeltà alle immagini, anche se non si sa bene a quali…

Partiamo dal principio fondamentale del cinema, il monitor / il mirino si guardano per l’inquadratura, il resto si giudica dagli strumenti, non è possibile giudicare colori/contrasto/temperatura colore/luminosità/esposizione da un oggetto così impreciso come… i nostri occhi…

Già tutti pensano ai monitor, ma in realtà il primo problema nasce nella visione umana, dove abbiamo sensibilità colore differenti tra occhio sinistro e destro, in cui maggiormente sensibile al rosso e l’altro al blu (da qui naquero i primi occhiali colorati per la stereoscopia), per cui già se guardiamo in una loope con un occhio o con l’altro giudicheremo in modo diverso colori e contrasto. Inoltre a seconda della luce circostante l’occhio aprirà e chiuderà il “diaframma della natura” e quindi anche la nostra capacità di giudicare il contrasto e la luminosità di una immagine cambia in modo drammatico. Se siamo in una stanza con una luce rossa, dopo poche decine di secondi il cervello eliminerà la dominante rossa, ma nelle immagini non viene eliminata, e quindi non possiamo fidarci di ciò che vediamo, inoltre col passare del tempo la capacità di adattamento dell’occhio cambia, non solo in velocità, ma anche in tipo di adattamento alla luce, per cui sono il peggior sistema per giudicare una immagine.

Inoltre le stesse immagini in un ambiente luminoso sembreranno molto scure, mentre in un ambiente scuro potrebbero essere fin troppo luminose… non a caso le camere hanno i mirini che impediscono alla luce di alterare le immagini, ma allo stesso tempo anche i monitor normalmente hanno dei paraluce più o meno ampi per ridurre la luce entrante e soprattutto per evitare di alterare le immagini.

Ora ammettiamo di essere nel fiore degli anni, al meglio della nostra capacità visiva, e prendiamo un monitor, che riprodurrà le immagini nel modo x… perchè ogni monitor ha come minimo i controlli di luminosità contrasto e saturazione e a seconda di come impostiamo i valori potremmo vedere immagini perfettamente esposte con vaste aree bruciate se alziamo contrasto e luminosità, con ombre chiuse per il contrasto eccessivo quando in realtà sono correttamente esposte, oppure banalmente siamo in pieno sole e un semplice monitor fatica a penetrare la nostra pupilla chiusa, perché siamo in un ambiente fortemente illuminato, per cui le immagini non sembrano correttamente esposte, mentre lo sono…

Dal monitor possiamo pretendere una buona fedeltà di ciò che vediamo a livello di inquadratura, eventualmente delle Lut per poter simulare qualche tipo di sviluppo al volo (ma sono contrario per i limiti della natura delle Lut e il loro concetto stesso di utilizzo nei monitor di lavoro), ma ritengo più importante poter disporre di falsi colori per poter esporre correttamente le immagini, strumenti di istogramma e zebra per gestire l’esposizione in modo oggettivo (ovvero valori di luminanza dei pixel indipendenti da ciò che vedo a monitor) in modo che leggendo questi stessi valori so che cosa sto catturando delle immagini.

Ricordiamo inoltre che quando noi vediamo questi strumenti sull’uscita video non è detto che sia esattamente ciò che registriamo, ad esempio se lavoriamo in formati compressi come prores o h264 quello che vediamo su istogramma e zebra sull’uscita corrispondono a ciò che stiamo registrando internamente, mentre se stiamo lavorando in raw, quindi catturiamo tutte le informazioni del sensore, spesso l’istogramma e la zebra del monitor sono più conservativi rispetto alla gamma dinamica realmente catturata dalla camera, e quindi per poter lavorare con certezza è meglio attivare istogramma e zebra anche sulla camera che imposterà tali valori in relazione a ciò che cattura il sensore, quindi al raw, e non al segnale compresso che verrebbe registrato con un prores e/o esternamente.

Inoltre esistono diverse (troppe) camere che buttano fuori segnali non allineati al segnale interno della camera, ma trattano, modificano e manipolano il segnale perchè l’uscita video viene usata solo come monitoriale (uscita + maschere di contrasto e posterizzazioni varie); camere che registrano in formati extracompressi o con campionamenti colore molto più bassi al loro interno dell’uscita (molte sony hanno una registrazione interna a 8bit 4:2:0 con uscita HDMI in 10 bit e alcune anche in 4:2:2) quindi usare un monitor per affidarci le nostre speranze per l’esposizione della camera è alquanto rischioso.

I falsi colori sono uno strumento molto utili per leggere la corretta esposizione, ho fatto un piccolo post su come leggere ed esporre utilizzando i falsi colori.

 

BlackMagic VideoAssist 4k, un recorder, un monitor o cosa?

Blackmagic Design è una azienda molto strana, ha idee interessanti, ma impiega tempo a svilupparle correttamente, spesso passando attraverso prodotti che molti chiamano polemicamente beta, perchè non sono perfetti alla loro uscita, e purtroppo costano troppo poco per NON finire nelle mani di chi non apprezza ciò che può ottenere da certi prodotti.

Questa introduzione perchè ricordo bene la RedOne che surriscaldandosi durante le riprese si bloccava sul più bello, o la prima versione della Alexa che registrava solo in prores fullHD, senza audio perchè pur avendo gli ingressi audio il firmware non prevedeva nessuna opzione di registrazione audio interna, nè era pensabile di registrare in raw o in 2k, pur avendo un sensore che lo permetteva…

e mi fermo su nomi blasonati come questi, perchè altrimenti l’elenco sarebbe infinito, ma questo tipo di prodotti sono sempre stati abbastanza costosi da finire in mano a professionisti, che invece di fissarsi sui piccoli difetti di gioventù dell’hardware ne usavano tutti i pregi di questi splendidi prodotti.

Blackmagic Design ha prodotto hardware professionale a prezzo consumer, e come tale ha pagato il prezzo di finire in mano a gente che si lamenta di funzioni mancanti, quando non hanno neanche letto le 14 pagine del manuale base, dove sono indicate le funzioni che cercano… ma preferiscono scrivere e perdere giorni su forum facebook etc a lamentarsi della mancanza di funzioni presenti… Persone pronte a lamentarsi del mancato funzionamento di questa scheda o dell’altra, quando sia sul sito che sul manuale è specificato che per funzionare è necessario un determinato chipset o un determinato hardware a cui collegare tali prodotti…

La mia scelta di Blackmagic è fatta per la stessa ragione di tante altre persone, posso permettermi di acquistare questo tipo di prodotti e non la fascia superiore, conoscendo limiti e potenziale di tali prodotti. Spesso si scopre come un produttore intelligente come Blackmagic Design possa offrire dei prodotti a costi molto popolari, alle volte con qualche limite, ma sicuramente meglio di tanti altri.

Si deve fare una scelta, tra pro e contro di cosa si può comprare o no.

Di recente ho avuto modo di mettere mano su un prodotto molto chiaccherato, il VideoAssist 4k, parliamo di un recorder UltraHd in prores e dnxHD/HR con monitor FullHD da 7 pollici, con una ricca dotazione software per gestire le diverse situazioni in cui diventa molto importante avere un monitor di qualità e un recorder video.

Pur non essendo perfetto non esiste concorrenza a questo prodotto al di sotto dei 1000 euro che permetta :

  • registrazione in 4k prores e/o dnxhr o fullHD su doppia scheda
  • monitor fullHD di buona qualità per fuochi con focus assist
  • ingressi e uscite sia SDI che HDMI con conversioni attive

Avendolo usato per diversi giorni nelle riprese di un documentario posso dare un parere più che positivo per il prodotto che è, pur avendolo usato prettamente come monitor per il fuoco e controlli varii di esposizione e immagine, pur non avendo in quel momento le ultime features aggiunte con l’ultimo update firmware, ovvero le lut di preview e i falsi colori per il controllo dell’esposizione.

Usando spesso diversi tipi di monitor devo dire che mi sono trovato più che bene, ha fatto il suo lavoro e ho scoperto delle interessanti funzionalità che spesso non sono messe in risalto.

Con l’ingresso SDI da una camera è possibile comandare via remoto la registrazione, per cui usare la camera master come trigger di registrazione tramite l’sdi e quindi avere sia una copia del girato con sincrono del time code (se la camera lo manda via sdi), sia creare dei proxy o dei filmati da usare come giornalieri per la visione del materiale senza richiedere conversioni e/o sviluppi dal raw girato in camera. Ad esempio dalla Bmpc4k è possibile via sdi creare una copia proxy dei girati sincronizzati sul VA4K, e quindi avere un girato raw e immediatamente dei proxy su cui lavorare in prores o mxf per avid.

Il Videoassist 4k viene alimentato da due batterie LP-E6 (standard di molti monitor) ma anche da un ingresso 12v, e fin qui nulla di nuovo, ma molti non sanno che quando si collega l’alimentazione esterna il sistema ricarica le due batterie in contemporanea anche se il prodotto è in uso, il che significa che possiamo sia caricare le due batterie senza mai scollegarle dal monitor, sia usarle come batterie temporanee quando lavoriamo lontano da camera (nel caso sia montata su un jib), e poi ricollegare il tutto e muoversi solo con le batterie del monitor e della camera nel caso si abbia bisogno di essere più leggeri in situazioni di ripresa particolari. Con il prodotto spento con il suo alimentatore connesso è in grado di ricaricare entrambe le batterie in circa 70 minuti, per cui lavorando o con due coppie di batterie o collegandolo alla batteria della camera si può avere una autonomia continua senza problemi particolari.

Utilizzando le Lut possiamo previsualizzare diversi tipi di visualizzazione delle immagini, sia gestire una preview nel caso si voglia girare per una color particolare o in bianco e nero e avere una percezione migliore di ciò che potremo estrapolare nella finalizzazione del prodotto.

Miti e leggende

Ha un consumo esagerato delle batterie …

con 2 batterie da 1300 mhA  in registrazione, in semplice monitoriale, con o senza lut applicate ha una autonomia tra i 60 e i 70 minuti di attività continua.

Considerata la dimensione esigua delle batterie e la dimensione e la luminosità del monitor (7 pollici) è un piccolo miracolo, se volete maggiori autonomie ci sono anche LP-E6 da 2000 mha oppure batterie più serie a cui collegarlo andando avanti ore. Usandolo con la 12v della mia g-mount non mi accorgo del problema della durata delle batterie, e chi si fa il problema, sicuramente ha preso il prodotto sbagliato, perchè se si spendono 1000 euro di monitor / recorder non si può lesinare su batterie da 30 euro la coppia (Patona) per un ora di lavoro.

Ha una dominante verde nell’immagine

verissimo, sono convinto che chiunque usi i colori di un monitor e non strumenti tecnici per analizzare esposizione e colore non lo giudico un professionista.

Comunque lo trovo un problema relativo, ho sviluppato in pochi minuti una lut che annulla in modo più che soddisfacente tale dominante, che vale sia per la versione da 5 che da 7 pollici, come si può vedere nell’immagine a lato.

Certamente se ci fossero i controlli di temperatura e tinta all’interno del monitor forse, e sottolineo forse il problema sarebbe facilmente annullato, ma è anche vero che ricalibrare un monitor su temperatura e tinta se non si usano strumenti e target adeguati è comunque un’operazione molto effimera, per cui probabilmente usare una lut comporta anche adeguarsi ad un certo livello di qualità e preparazione tecnica sulla gestione del colore.

Ha difficoltà con i flussi PsF

e chi non ne avrebbe… battute a parte, quando si manda un flusso progressivo in uno streaming interlacciato i problemi nascono a non finire in ogni tipo di apparecchiatura. Questo problema nasce sulle apparecchiature prosumer dove per poter vedere correttamente su ogni televisore il girato progressivo viene incapsulato in un flusso interlacciato per essere sempre compatibile, questo mette in crisi l’ingresso di molti dispositivi, VA compreso. Altri recorder equivalenti MOLTO più costosi come gli Atomos prevedono di gestire anche i flussi psf, ma oggi se uso una camera che mi butta fuori un flusso del genere dovrei esserne cosciente, quindi non compro il video assist.

Con le video reflex ha problemi a leggere il segnale

mah… diciamo che se un prodotto esce con un segnale standard, lui può registrare e visualizzare le immagini correttamente, per test è stato collegato a diverse dslr panasonic e sony con ottimi risultati, con canon 7dmkII (ufficialmente una delle poche con uscita video pulita fornita da canon), diverse canon dslr con magic lantern per abilitare una uscita hdmi pulita, non castrate dal firmware originale, e non ci sono stati problemi di registrazione, anzi…
mi sono divertito a collegare anche l’uscita di una HV30, vecchia HDV canon, che ha potuto esprimere tutto il suo sensore fullHD castrato all’epoca da registrazione HDV a basso bitrate. In generale se si offre un segnale non protetto da una sorgente compatibile agli standard indicati sul manuale pdf e sulle specifiche del prodotto, va tutto bene.

Non va bene con tutti i cavi SDI

mah… diciamo il contrario, forse parliamo di usare cavi non adeguati… per quanto riguarda i segnali FullHD ho gestito tranquillamente il VA con SDI di bassissimo costo e cavi coassiali da computer da 10m senza difetti o sganci, se si parla di segnale in 4k allora è il cavo a fare la differenza, perchè il cavo non di qualità l’elemento castrante e non il video assist a non essere compatibile.
Il fatto che SDI utilizzi un tipo di connettore usato anche in altri ambiti, con una forma storica e forse ricorda prodotti antichi, non significa che i cavi, le impedenze etc siano stati aggiornati per supportare flussi dati più importanti come quelli del 4k. Si torna al discorso iniziale, se si lavora con un prodotto di un certo livello anche batterie, cavi, cablaggi etc devono essere in linea altrimenti si rompe la catena della qualità.

Insomma per concludere prima di una breve carrellata tecnica, prodotto promosso oggi a pieni voti, per la fascia di prezzo offre features e qualità inarrivabili.

Specifiche tecniche :

  • Ingresso e uscite video SDI
  • Ingresso e uscite video HDMI
  • MiniXLR per ingressi audio bilanciati di alta qualità
  • Alimentazione sia tramite due batterie standard Canon LP-E6 oppure 12v da alimentazione esterna
  • Doppia SD ad alta velocità per la scrittura continua di file audio video
  • Registrazione ProRes e DnXhd/hr in vari container.
  • Touchscreen FullHD con zoom centrale per il fuoco
  • Porta Usb per upgrade firmware e caricamento lut.

 

Specifiche Software del VideoAssist

  • Strumenti di analisi video
    • istogramma del segnale entrante
    • zebra per esposizione
    • focus assist a tre colori e più livelli
  • Guide di diverso tipo per gestire il framing e l’inquadratura
  • Supporto di Lut di preview (6 slot di 6 differenti lut)
  • Falsi colori per verificare l’esposizione

Pro e contro del prodotto

Contro

  • leggera dominante verde del monitor, che naturalmente non viene registrata, prontamente neutralizzabile con una semplice Lut
  • con una coppia di batterie EP-L6 (marca Patona 1300mha) abbiamo una autonomia di circa 64 minuti di registrazione continua, o monitoraggio continuo, quindi se si lavora a batteria è importante farsi una piccola scorta di batterie o usare una batteria esterna, personalmente lo alimento con la batteria della camera, una 170W quindi il problema di alimentazione non sussiste.
  • ha un certo peso (avendo un corpo in metallo per dissipare la temperatura)
  • non ha di serie un paraluce, per cui si deve ovviare con prodotti di terze parti

Pro

  • Ottimo Monitor SDI FullHD al prezzo di un monitor Hdmi
  • Recorder UltraHd in vari formari e codec a 10bit con codifica 4:2:2
  • Zoom centrale su segnale 4k, quindi zoom 1:1 ottimo per il fuoco su situazioni complesse
  • Focus Assist con peaking a diversi livelli e di diversi colori per coprire ogni tipo di situazione
  • 6 slot per Lut di preview
  • False Color per controllare l’esposizione delle immagini.
  • Capacità di ricarica delle batterie durante l’uso del prodotto o da spento

E per concludere… un piccolo regalo per tutti gli utenti del video assist e video assist 4K, un lut pack molto utile 😀

LutsPackv01

Qui dentro troverete diverse lut per :

– iso standard semplice lut di correzione colore eliminando la dominante verde
– 1600 emulazione di una immagine a 1600 iso dall’originale 400 iso per aiutare la messa a fuoco nelle riprese lowlight
– 3200 emulazione di una immagine a 3200 iso dall’originale 400 iso per aiutare la messa a fuoco nelle riprese lowlight
– 6400 emulazione di una immagine a 6400 iso dall’originale 400 iso per aiutare la messa a fuoco nelle riprese lowlight
– BN una simulazione dell’immagine in bianco e nero con una elaborazione ricca delle tonalità.

Le emulazioni sono state realizzate fotografando le stesse immagini e tabelle gretag con una BmPc4k e una Sony A7r, ed elaborando i raw tramite Resolve per ottenere lo stesso tipo di tonalità e luminosità delle immagine della Camera bmd come la Sony.

Zuppa di codec 2, facciamo un consommè

tape-soup-capone-3

Oggi posso non installare quasi nessun codec nel sistema

Fino a qualche anno fa i codec erano la dannazione di tutti coloro che lavoravano nel video e non solo, nel senso che anche chi vedeva film, scaricava dalla rete in modo più o meno lecito, era costretto a scaricare e installare codec di ogni tipo, il che spesso minava la stabilità del sistema e rendeva sempre complesso ogni passaggio, anche il più banale.

Il divx, xvid, mp4 nelle sue incarnazioni più esoteriche hanno fatto venire gli incubi a più di un encoder, senza contare spesso la caduta di qualità o lo spazio occupato inutilmente quando non si sapeva settare correttamente gli encoder.

Oggi per fortuna molti codec sono andati a morire, sostituiti dalla standardizzazione degli stessi, per cui la maggior parte dei file video che sono visti, ripresi e registrati con lo standard H264 (derivato dall’mp4) racchiusi in diversi contenitori a seconda delle scelte di chi fa l’encoding :

  • mp4 (il più standard)
  • mkv
  • m4v
  • avi
  • mov
  • mts

Tutte queste estensioni possono indicare lo stesso contenuto, ma con una scatola differente, che dentro i computer non fa grandi differenze, mentre nel momento in cui li inseriamo in lettori multimediali, televisori, lettori bluray, decoder satellitari.

Se abbiamo un computer nuovo, o abbiamo appena installato un nuovo sistema operativo pulito, spesso si tende a installare tutti i codec che pensiamo siano utili, oggi come oggi, anche e soprattutto se si fa montaggio video, è importante NON installare quasi nulla sul sistema, mantenere pulita la installazione e usare i programmi con le loro capacità di decodifica interna dei codec.

 

Devo montare dei File xxx come faccio senza installare i codec xxx ?

I moderni software di montaggio video posseggono al loro interno i codec indispensabili per la lettura dei codec h264, mpeg, etc quindi se nel sistema si inseriscono decoder differenti e magari non ottimizzati invece di semplificare il lavoro lo possono complicare o creare difetti visivi o di performance.

Adobe, Blackmagic, Apple, Avid, GrassValley hanno introdotto internamente i codec professionali per gestire filmati nei formati Prores, DnxHD/HR, CIneform, H264, H265, Mpeg2 classico e LongGop, Dv/DvCam, P2, quindi coprendo praticamente ogni tipo di camera professionale e non prodotta negli ultimi 15 anni. Non solo, spesso alcune camere con varianti di codec che per essere viste correttamente nel sistema richiedono installazioni di codec, sono già supportate dal software di editing nel modo corretto.

 

Ma per vedere i file nel sistema, finder o gestione risorse devo installare i codec, come faccio?

Utilizzando un semplice player interpiattaforma come VLC è possibile visualizzare un sacco di formati come xvid, divx, etc senza installare alcun codec aggiuntivo, ed è in grado anche di convertire in altri formati, ha diversi sistemi di playlist e proiezioni dei filmati diretta o su altri monitor, guidati da controlli da tastiera o da remoto.

Se parliamo di montaggio video è sbagliato vedere dal sistema i video, perchè ogni sistema di montaggio professionale ha il suo metodo di screening e selezione del materiale, il modo corretto per gestire l’inizio di un montaggio video è sfruttare questi strumenti di Ingest sia selezionando che organizzando per folder o tag e metadata i materiali che andiamo a selezionare.

 

Se devo importare materiale nel formato non letto dal mio programma di editing?

Esistono mille modi di convertire un file in un altro formato, usando diverse utility per convertire in formati DI, quindi formati senza perdita. Oggi come oggi accade sempre più raramente tranne quando si vuole convertire materiale di origine di vecchia data, perchè il resto dei formati sono già integrati nel sistema. Quindi utilizzare un programma che legga direttamente e converta in un formato più standard è la via più semplice per gestire questo tipo di problematiche.

Attenzione ai contenitori (vedi articolo su contenitori e codec), spesso ingannano, molti programmi di editing non leggono direttamente i file mkv, ma se facciamo un rewrap dei dati dentro un contenitore adatto potremo velocemente spostare gli stessi dati (nessuna perdita) in un contenitore più efficiente per gestirle in un NLE. Trovate la spiegazione su come farlo in questo articolo.

Ha senso usare una camera vecchia?

In un mondo veloce, dove ogni 6 mesi viene annunciata e poi rilasciata una camera nuova, l’obsolescenza tecnologica è sempre dietro l’angolo, siamo sempre con il dubbio di avere macchine vecchie, che non ci danno la qualità che ci serve, che stiamo perdendo colpi con il mondo…

Ne siamo proprio sicuri?

hateful eightNella storia del cinema e del documentario determinati modelli di cineprese sono durati decine di anni, e recentemente grazie alla passione smodata (uso il termine non a caso) del regista Quentin Tarantino, sono state riesumate leggende del cinema come le cineprese 70mm per la ripresa del suo Hateful Eight, il secondo western realizzato secondo una sua particolare visione dopo Django unchained, per tale occasione oltre che cineprese gigantesche sono state riesumate ottiche, perchè un frame così grande richiede ottiche speciali, e il cinema non ha le seghe mentali dei videomaker sul crop, perchè non si è fatto dettare le regole dalle aziende fotografiche, ha sempre usato lenti proporzionali al piano focale usato, quindi lenti corrette per il s35 che non hanno crop, contrariamente a quello che accade sulle cineprese digitali non attacco PL o passo C per montare le lenti originali per queste camere. Per la proiezione sono stati strappati alle ragnatele e alla polvere proiettori ottici che avevano visto le loro ultime pellicole con BenHur, i Dieci comandamenti e altri capolavori realizzati o presentati nello splendore del 70mm.

Nel frattempo Kodak, non si è fermata negli ultimi 50 anni e ha fatto pellicole più ultrasensibili per il cinema come le 500 asa, nelle quali la grana è solo percettibile in modo minimale, mentre prima era molto presente e grande come struttura dei grani, ma si resta nei 160-320 asa per ottenere il meglio dalla pellicola, in contrasto con la moda delle centinaia di migliaia di iso delle dslr per riprendere al buio scambiando la luna per il sole…

Ma il digitale è un’altra cosa, o no?

so che mi conosce si aspetta che parli del brand di camere che uso, e invece no… parlerò delle altre camere…
se facciamo una rapida ricerca riguardo agli ultimi 6-8 anni potreste scoprire come il primo modello della Red e il primo modello di Arriflex Alexa sono le principali cineprese utilizzate per girare il maggior numero di blockbuster e film d’autore di questi anni.

Queste camere, pur essendo poco luminose, 3200 asa al massimo, ma vanno usate al meglio restando intorno agli 800 asa, essendo un hardware vecchio anche se progettato e mantenuto bene da continui aggiornamenti firmware.

Terry Gillian di fronte alle Jumbo Light

Terry Gillian di fronte alle Jumbo Light

Eppure se si diciamo ad un Direttore di fotografia che avrà a disposizione una Red o una Alexa, ben impostate dal dit di turno, nessuno andrà a lamentarsi con la produzione del fatto che gli forniscono una camera antiquata…
men che meno poco luminosa… visto che il cinema serio si faceva con la pellicola 50 asa, quindi una macchina che si usa a 800asa comporta i problemi contrari, ovvero avere troppa luce per la gestione della camera.

Il nostro vanto italiano, Vittorio Storaro, conoscendo le necessità della pellicola, fece creare dal tecnico Filippo Cafolla quelle che oggi tutti conoscono come le Jumbo Light, un adattamento delle luci di un Jumbo per la corrente da studio, per avere una gamma dinamica di colore per la fotografia, la possibilità di regolarne l’intensità, e la trasportabilità.

Il cinema si fa con la luce, aggiunta, sottratta, addomesticata con filtri, non certo lavorando solo con la luce naturale. Ci sono delle eccezioni come alcuni direttori di fotografia cerchino di usare sempre e solo la luce naturale, ma questo spesso costringe a girare poche ore al giorno, in condizioni particolari, e poi andranno amplificate ed evidenziate nella fase di grading delle immagini.

Esempi anche low cost si possono trovare sui set di film come MadMax Fury Road dove oltre alle Alexa sono state usate maree di camere comprese camere low cost di diversi anni prima, eppure nessuno sullo schermo ha notato la differenza…

Quando Danny Boyle decise di girare 28 giorni dopo con una telecamera e solo la scena finale in pellicola nessuno spettatore in particolare notò la cosa o se ne lamentò, solo gli appassionati cinefili o gli addetti ai lavori sapevano che lui aveva girato il film nel 2002 con una telecamera Dv Canon XL-1S, con lenti cinematografiche con un adattatore per le lenti, e poi postprodotto dalla MPC con un loro software proprietario per ricampionare il materiale in 2k (quadruplicare la risoluzione originale) e stampato su pellicola 35mm dopo aver corretto e ottimizzato il materiale al meglio.

Naturalmente erano stati fatti diversi esperimenti sia dal direttore di fotografia che dai tecnici responsabili della successiva interpolazione, istruendo correttamente il direttore di fotografia per cosa avrebbe dovuto fare e soprattutto cosa non avrebbe dovuto fare, per evitare di evidenziare troppo i limiti della interpolazione del materiale da 720×576 al 2k (quadriplicare le informazioni), ad esempio evitare linee nette oblicue, dettagli che avrebbero scatenato moire e altre problematiche legate alla bassa risoluzione della camera.

Il fatto che lo stesso Danny Boyle per il Slumdog Millionaire avesse usato anche delle camere 16mm digitali (i prototipi delle tedesche SI2K) influenzò l’assegnazione dell’Oscar per la miglior fotografia al film, raccogliendo il primato di essere il primo film a vincerlo non girato con pellicola Kodak (la parte in negativo fu girata con pellicola Fuji) e a contenere molte parti girate in Raw digitale con codec CineformRaw.

Ora tutto questo discorso per andare dove?
beh molto semplice, diritti al concetto fondamentale che tutti vogliono tenervi nascosto :
è la storia, non la camera che usate per filmarla che conta…

chi vi dice il contrario o vi vuol vendere qualcosa, o non ha storie da raccontare…

Page 1 of 3

Powered by WordPress & Theme by Anders Norén