Page 1
Standard

Youtube e la compressione digitale

YouTube-logo-full_color

In questo periodo mi capita di parlare spesso della compressione digiltale in funzione della distribuzione on line, e in particolare di Youtube, spesso trovo molta ignoranza sul come trattare il materiale, un po’ perchè ormai la maggior parte dei software hanno un profilo chiuso che non ci permette di editare i parametri di compressione, un po’ perchè molti non sanno neanche di cosa si parli quando si esporta un video, sembra che sia solo una operazione per finalizzare e basta.

quando va tutto bene, non è importante conoscere cosa sta dietro a tutto questo, ma quando abbiamo necessità di ottimizzare dei file per un particolare prodotto o dispositivo, o in questo caso per un Social come Youtube, dobbiamo impare di più di ciò che sta dietro le quinte, e quindi è necessario introdurre diversi argomenti.

Le basi della compressione

Quando si prende un video e lo si esporta da un qualunque programma di editing o di postproduzione ogni immagine viene nuovamente elaborata e successivamente compressa in modo più o meno distruttivo a seconda del tipo di compressione, di tipo di target che ci serve e da un grande numero di impostazioni del programma, dal contenuto dei video, da come il software gestisce il contenuto originale del video

Quando si carica on line un video sulle diverse piattaforme di sharing come Youtube, Vimeo, Facebook etc viene nuovamente compresso con regole e principi dettati dai creatori della piattaforma.

Quindi banalmente il video subisce al minimo tre compressioni, quando viene catturato, quando viene esportato, quando viene ricompresso dai server delle varie piattaforme. Il che vi può dare un’idea di come la qualità possa decadere molto e rapidamente.

Molti si chiedono il perchè, ci sono diverse ragioni :

  • il primo motivo è la compatibilità, se i server dovessero fare il play di mille formati, codec e frame rate il risultato sarebbe uno sforzo immenso, e le richieste dei player per la compatibilità influenzerebbero negativamente l’esperienza visiva, quindi per semplificare youtube converte sempre i filmati nel miglior rapporto di qualità visione on line.
  • il secondo motivo è altrettanto banale, se i server di Youtube lavorassero con la qualità massima sempre, sarebbero intasati dai milioni di video fatti coi cellulari a bassa definizione (dimentichiamo il fatto che salvano in fullhd o 4k, perchè conta soprattutto il sensore), quindi esistono dei formati predefiniti con cui gestire il materiale fornito
  • il terzo motivo è pratico dovendo inglobare e gestire diversi formati e bitrate, chiedere alle persone comuni di fare i diversi formati è troppo complesso, per cui loro acquisiscono il nostro materiale e in automatico viene convertito per il formato ottimale di play per il 1080p e tutte le sue declinazioni inferiori (720p, 480p ,360p ,240p).

Se guardiamo le specifiche di youtube scopriremo che youtube preferisce filmati con un certo formato, un certo datarate e determinati settaggi. Se usiamo formati e caratteristiche diverse il filmato potrà essere caricato, ma la compressione sarà più aggressiva e distruttiva rovinando la qualità del filmato. Se usiamo formati di qualità più alti rispetto alle specifiche, comunque la gestione del server lo ridurrà al formato di default quindi si sarà sprecato più tempo e in alcuni casi andremo a perdere anche in definizione.

Perchè esistono ancora formati ridicolmente bassi come 360p e 240p?

perchè esiste un sistema automatico che per mantenere la fluidità di visione, se la rete internet attraverso il quale noi vediamo il filmato è lenta, si guarda una versione più leggera come peso e risoluzione per mantenere la fluidità. Inoltre esistono una marea di dispositivi che nonostante sia prodotti nuovi, hanno risoluzioni schermo molto basse, e quindi scaricare un filmato 1080p su un dispositivo (uno smartphone) che ha uno schermo che al max arriva a 576 o meno, sarebbe uno spreco di risorse e dati scaricati.

Ricordiamo che oggi l’uso principale dei social è via strumenti mobile, e per quanto si parli di fibra e gb come niente, esiste un mondo limitato al 3g in molte zone, o anche meno, e dato che la richiesta di banda cresce molto più velocemente della creazione di nuovi ponti e nuove celle telefoniche (i blackout di rete che avvengono durante i periodi di vacanza lo dimostrano) è importante poter fornire il servizio anche quando le risorse sono scarse.

La compressione altera più del necessario

Durante l’esportazione un programma di montaggio esegue un rendering, operazione che esegue più operazioni contemporaneamente, a seconda del programma lavora in spazi colore più ristretti o più estesi; nella compressione dei dati gli algoritmi devono tener conto di tanti fattori.

Spesso non ci si rende conto che ci sono operazioni che possono rendere più “morbido” il filmato in esportazione, che solo chi ha esperienze di compressione conosce e sa dove agire.

Scalatura : quando il programma scala una fotografia o un filmato, sia a ingrandire che a rimpicciolire, se non ottimizzato bene può far perdere qualità/nitidezza (sull’encoder adobe ci sono in più parti ottimizzazioni relative proprio a questo fattore).

Cambio di frame rate : quando il programma esporta da un frame rate all’altro deve creare in più modi i fotogrammi intermedi, o togliere dei fotogrammi, e questo può influenzare la fluidità del filmato o la nitidezza nel momento in cui vengono creati nuovi fotogrammi con le tecniche di interpolazione.

Cambi sulla luminanza e sulla crominanza : ogni tipo di manipolazione del croma e della luminanza possono evidenziare artefatti digitali presenti nel filmato originale, possono ridurre le sfumature di colore per limiti dello spazio colore, possono amplificare il rumore video perchè ne spostano la collocazione originale pensata dal codec di ripresa.

 

La compressione diretta

Immaginando di avere il filmato finito e perfetto a misura, al frame rate corretto, senza interventi, la compressione prende i dati e li ottimizza e riduce dentro gli schemi di compressione dell’h264.
H264 è un codec con degli standard ma diversi parametri e modi di comprimere i dati, per cui a seconda di come si setta un video il risultato può essere più o meno definito, più o meno dettagliato.
gopPer ridurre lo spazio occupato il formato H264 utilizza la tecnica del GoP, Group of Picture, in pratica se giriamo a 30 fotogrammi al secondo e abbiamo un GoP 15,  il codec registra il primo fotogramma intero, poi ne registra uno intero dopo 14 fotogrammi, e dei fotogrammi intermedi ne registra solo le differenze tra uno e l’altro. Questo significa che se nel filmato non ci sono movimenti camera o tanti oggetti in movimento, la compressione, pur mantenendo la qualità ci permette di ridurre molto il peso del file.

Su youtube viene suggerito un valore pari a metà del frame rate, il che significa che se il filmato ha molti movimenti all’interno del frame, oltre a non sfruttare bene il bitrate si rischiano degli errori o difetti di movimento, ad esempio se c’è una esplosione in un filmato oppure, cosa più facile si inquadra dell’acqua in movimento, oppure dei coriandoli gettati in aria, diventa più difficile per il codec distribuire il datarate, e quindi ogni tanto si potrebbe sentire un saltino.

Una possibile soluzione è dimezzare il gop, quindi invece della metà dei frame, ogni quarto dei frame al secondo, in modo che ci siano più frame interi per gestire meglio gli oggetti in movimento veloce.
Ad esempio 6 per il 24p (6×4=24), 5 per il 25p (5×5=25), 5 per il 30p (5×6=30).

L’altro parametro che ci permette di controllare la qualità è il data rate, ovvero la quantità di dati al secondo che può gestire per ogni fotogramma, più alto è il data rate, più alta è la qualità di ogni fotogramma, mentre abbassando il datarate il risultato è che le immagini perderanno nitidezza, e spesso appaiono zone di solarizzazione perchè non ci sono abbastanza informazioni per registrare i dettagli più fini.

Il datarate appare come un valore in Mega per secondo, ma la sua distribuzione nei fotogrammi che contengono un secondo è legato al metodo sottostante.

Variable o Costant bit rate definiscono come il data rate verrà distribuito lungo una sequenza

L’opzione Costant bitrate, la distribuzione è fissa, per cui ogni fotogramma riceve la stessa quantità di dati, il che offre una maggior fluidità di decompressione del filmato, perchè richiede buffer più semplici da gestire, ma in caso di filmati dove si alternano rapidamente scene con grande movimento con scene statiche, è possibile trovare molti sprechi di datarate, e quindi un file di minor qualità. Ad esempio se abbiamo una inquadratura di un’auto ferma che esplode, durante l’attesa viene sprecato datarate sui frame statici e magari per l’esplosione non ci sono sufficienti dati per gestire la qualità e il dettaglio delle fiamme in movimento veloce.

L’opzione Variable bitrate invece è un metodo che utilizza un valore variabile di dati, da un minimo ad un massimo e con un algoritmo che analizza la quantità di dati in movimento e distribuisce meno datarate dove ci sono frame statici, mentre un numero più alto dove ci sono movimenti ampi, movimento veloce o grande dettaglio di movimento.

quindi riassumendo :

  • GoP : valori più alti riducono il peso del file ma contribuiscono ad introdurre possibili artefatti nel movimento
  • Data rate : valori alti danno maggior qualità e maggior peso al file, bassi valori riducono il peso ma a seconda del contenuto (dettaglio immagini e quantità di elementi in movimento) si riduce la qualità del file finale.
  • CBR o VBR per gestire la qualità costante o distribuire meglio la qualità esistono due metodi di calcolo dei dati per ogni fotogramma, il primo offre una compressione più veloce e costante nella distribuzione dei dati, il secondo è più lento, ma sui filmati con molti dettagli e/o movimento può offrire una maggior qualità finale.

L’ottimizzazione per la compressione

Original with noiseIl contenuto di un video influenza molto il risultato perchè gli algoritmi di compressione analizzano il contenuto del fotogramma, dei fotogrammi circostanti per decidere in che modo ridurre le informazioni in modo ottimale dentro il codec. Ironicamente i video con pochissimi dettagli rischiano maggiori danni di quelli molto dettagliati.
Prendiamo un video di un oggetto in movimento su un limbo chiaro, lo stesso filmato ma al posto del limbo mettiamo una distesa di sabbia, il secondo video avrà più nitidezza e dettaglio a parità di parametri di compressione, perchè tutti quei dettagli forzano il profilo di codifica a dare il massimo e spremere ogni dettaglio dalle immagini.

La prima immagine (cliccando si può vedere in fullhd) mostra come la compressione di una immagine con un leggero rumore venga compressa correttamente e non presenti una particolare perdita anche se si comprime molto.

Nella seconda immagine (cliccando si può vedere in fullhd) ho amplificato un poco la struttura dei colori per mostrare come avendo tolto tutto il rumore si formano appena si adenoise to compressionpplica un poco il contrasto o la saturazione una serie di bandeggi / solarizzazioni che evidenziano i limiti del numero di colori disponibili per gestire quella sfumatura.

Oggi spesso si tende a volere video troppo pulito, si applicano forti denoise per togliere ogni tipo di grana o rumore video, ma eccedendo in questa pratica spesso si vedono immagini che tendono a creare il fenomeno del banding, ovvero si vedono le strisce di colore, perchè senza il rumore che “mescola” e inganna la visione si vedono tutti i difetti.

Ricordiamo che indipendentemente dal vostro video di partenza, che abbia anche una sorgente a 12 bit (ovvero miliardi di colori e sfumature) quando usciamo per youtube abbiamo un Output a 8 bit, ovvero 2 alla ottava per canale, che apparentemente sono ben 16 milioni di sfumature, ma se noi riprendiamo un cielo, al massimo dal blu più chiaro che è bianco, al blu più scuro che è nero abbiamo solo 256 sfumature pure, quindi senza un po’ di rumore che mescola le diverse strisce di colore con la tecnica che una volta veniva chiamata “dithering” si rischia di vedere i singoli bandeggi del colore.

Anche dalla sola thumbnail è possibile vedere come la versione senza rumore rischi molto di più nella compressione.

NATURALMENTE questo è un caso limite in cui ho forzato i difetti per renderli evidenti, spesso i risultati essendo più contenuti non sono altrettanto visibili.

Perchè il mio video si vede peggio di un altro fatto con la stessa camera

 

di sicuro non è colpa di youtube 😀

Ora dopo essermi preoccupato di avere le simpatie degli avvocati di Google, posso darvi delle buone ragioni tecniche per cui ogni video sarà diverso anche se fatto con la stessa camera.

Ogni volta che si realizza una ripresa, la qualità del video ha una serie di parametri che determinano la nitidezza, la qualità delle immagini, presenza o assenza di rumore, etc. Pretendere che due persone anche usando la stessa macchina, stesse lenti, nello stesso luogo contemporaneamente ottengano lo stesso risultato di qualità è molto complesso, e necessita di un allineamento di tanti parametri, non a caso quando si fanno riprese multicamera, che sia per cinema, televisione, etc si utilizzano sempre dei target (tabelle di riferimento univoche) per allineare in post tutto il materiale, perchè comunque basta che una persona cambi il diaframma per avere meno luce in ingresso e l’altro cambi invece gli iso, e le immagini saranno diverse in nitidezza e contrasto, immaginate se magari si hanno lenti diverse, e molto altro ancora…

Inoltre basta solo cambiare angolo di ripresa, e avendo luce diretta, riflessa, laterale, controluce, le immagini non saranno solo diverse come luce, ma avranno comunque dominanti e strutture diverse.

Standard

Flickera, strappa, la panoramica che non va?

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

E’ divertente vedere come sulla rete siano presenti risorse infinite, ma allo stesso tempo si diffondano tanti pareri e concetti errati per il semplice copia e incolla, condividi, o voglia di essere … l’esperto del Bar Sport come nel libri di Stefano Benny

Contrariamente a quello che la maggior parte dei sedicenti esperti i concetti di ripresa base sono pochi e semplici, legati a principi di percezione visiva basilare, che non possono cambiare perchè non dipendono dalle camere e dalle loro tecnologie, ma dalla capacità dei nostri occhi di percepire le immagini in movimento e come vengono elaborate dal cervello..

I nostri occhi catturano la luce, che rimane impressionata sulla retina per un tempo X definito persistenza retinica; quando l’occhio percepisce una serie d’immagini in sequenza :

  • se la differenza è corretta le immagini si fondono e vengono percepiti come movimento fluido
  • se la differenza è troppo grande il cervello percepisce le singole immagini, quindi un movimento scattoso, stroboscopico.

All’inizio della storia del cinema si lavorava a camera fissa, e il frame rate era variabile, perchè definito da una manovella girata dall’operatore, quando si iniziò ad automatizzare il tutto utilizzando dei sistemi  a molla prima e poi motorizzati, si è trovato il giusto bilanciamento tra fluidità e uso della pellicola nei 24 fotogrammi al secondo.

Con 24 fotogrammi al secondo, girati in modo corretto, si ha la percezione del movimento fluido, al di sotto si percepisce uno scattino più o meno pronunciato tra un fotogramma e l’altro. Il numero di fotogrammi al secondo, per anni il Santo Graal dei filmaker convinti che fosse il segreto dell’effetto cinema, è solo uno degli elementi che servono per ottenere un corretto risultato di percezioni fluida del movimento lineare, circolare, o della camera in movimento.

Mito 1 : è la pellicola a creare l’effetto cinema fluido, il digitale non lo può fare

hateful eightil segreto della fluidità è data da più fattori, che vanno correttamente impostati.
L’uso di un sistema di ripresa a pellicola rispetto al digitale non è fondamentale, quanto la cura con cui vengono girate le immagini. Se una qualunque persona con una macchina digitale semi automatica può provare a fare delle riprese e ottenere dei risultati decenti, con la pellicola si deve avere più cura e conoscenza in ciò che si fà, il che include le regole che troverete in fondo all’articolo per ottenere la corretta ripresa e riproduzione del movimento.
Sicuramente la proiezione in pellicola (anche di un materiale girato in digitale) offre una maggior fluidità della proiezione digitale della maggior parte dei proiettori (troverete la spiegazione più avanti).

Mito 2 : sono i fotogrammi al secondo che fanno più o meno fluido il filmato

Fattore relativamente corretto, più fotogrammi uguale più frammentazione di un movimento veloce, quindi la differenza tra i frame si riduce e si hanno meno probabilità di vedere i difetti, ma non si può pensare di gira a 120 fotogrammi al secondo per fare un play a 120 fotogrammi al secondo, la maggior parte dei televisori, proiettori e monitor non sono in grado di riprodurli. E fino ad ora tutti gli esperimenti di cinema in HFR (High frame rate) che sono banalmente 48 fotogrami al secondo invece che 24, hanno dato una percezione troppo … “reale” da come mi è stata descritta da tanti spettatori, amici, non tecnici, che non solo non apprezzavano l’effetto, ma al contrario lo hanno definito “come guardare il telegiornale”, decisamente meno cinema.

Mito 3 : è la camera a fare la differenza

b_unbroken_2_01Diciamo di si, è vero che alcune cineprese sono migliori di altre, i sensori leggono in modo diverso le immagini e quindi il risultato cambia, diventando più o meno piacevole.
Addirittura alcune camere possono riprendere il movimento in differenti modi e quindi forniscono una cattura diversa dell’immagine.

Ad esempio le macchine fotografiche catturano le fotografie con la tecnica del global shutter, ovvero in uno stesso istante cattura tutte le informazioni del sensore, ma quando lavorano per il video lavorano con la tecnica del rolling shutter, ovvero catturano sequenzialmente le linee, dall’alto verso il basso, il che significa che la stessa immagine se scattate una fotografia o catturate un fotogramma da un video offrirà una cattura del movimento differente, con distorsioni, effetti jello, e altre problematiche, questo riduce la percezione dell’effetto cinema.

Un altro elemento importante, che è il motivo per cui le vdslr sono entrate prepotentemente nel campo video è il contrasto dell’immagine, dove la classica telecamera offre una immagine molto dettagliata e contrastata, generata da un sensore a 8bit con caratteristiche ben precise, la dlsr nasce con un sensore da 12 a 14 bit che cattura molte più informazioni di luminosità e colore, offrendo immagini più morbide nel contrasto e ricche di sfumature, come si comporta la pellicola; addirittura le cineprese digitali partono da sensori a 16bit, per simulare più accuratamente la sensibilità e la curva dinamica della pellicola.

Mito 4 : c’è qualche filtro di post nascosto per fare il cinema

Anche se in postproduzione è possibile aggiustare qualcosa, per rendere più fluide le immagini, spesso il risultato è meno piacevole e corretto della ripresa fatta con le corrette impostazioni. Non esiste l’effetto cinema in post, se una immagine è ripresa male, si può limare, ma non si può trasformare il video in cinema, l’immagine stroboscopica in immagine fluida (con le eccezioni di post particolari e in particolari situazioni).

Mito 5 : ci sono dei segreti che i DoP famosi non vogliono condividere

Mai mito fu più sbagliato, dal 1935 la ASC americana pubblica la Bibbia dei Direttori di fotografia, dove ci sono tutte le specifiche di ripresa corrette, giusto alla decima edizione oggi si può acquistare in versione cartacea e digitale su Amazon Manuale vol 1, Manuale vol 02.

Chiunque voglia seriamente lavorare nel campo della ripresa deve conoscerlo a memoria, ci sono ogni tipo di tecnica e spiegazione pratica di come ottenere il giusto risultato di ripresa, che sia pellicola o digitale non cambia nulla, perchè i principi sono indipendenti dal mezzo di ripresa.

Mito 6 : la ripresa interlacciata è più fluida
meglio fare interlacciato e poi deinterlacciare

Mai mito fu più sbagliato, la ripresa interlacciata ha una maggior percezione di fluidità perchè i due semiquadri che compongono l’immagine vengono catturati in due istanti separati, quindi combinati insieme offrono una percezione di maggior mosso rispetto alla ripresa progressiva con gli stessi valori, nel momenti in cui si deinterlaccia con una qualunque tecnica si andrà a buttar via buona parte delle informazioni di movimento di uno dei due semiquadri, e si tornerà ad avere un fotogramma progressivo con le stesse caratteristiche di cattura di movimento della ripresa progressiva, ma con quasi la metà delle righe orizzontali, quindi avremo perso dal 30 al 40% della definizione.

 

Come ottenere un movimento fluido corretto?

Il segreto della fluidità è data da più fattori, che vanno correttamente combinati, se sbagliate uno di questi fattori, le immagini saranno scattose, che siano immagini digitali, che siano create da un programma di grafica 3d, che siano realizzate da una telecamera.

Quando catturiamo una immagine in digitale i fattori principali che influenzano la fluidità di movimento sono :

  1. Diaframma.
    Una delle ragioni per cui si sono diffuse molte le vdslr è la loro capacità di sfuocare molto anche a diaframmi più chiusi grazie al sensore di grandi dimensioni, questo oltre ad aiutare a concentrarsi sui soggetti senza saper lavorare di luce e scenografia, aiuta anche a ridurre l’effetto strobo, perchè sfuocando davanti e dietro il cervello uniforma e “impasta” maggiormente le informazioni correggendo anche eventuali leggeri strobo.
    Il diaframma regola aprendo e chiudendo le lamelle la quantità di luce entrante, il che ha due risultati diretti sull’immagine :

    1. Diaframma aperto, profondità di campo ristretta, zona a fuoco molto corta e contrasto tra luce e ombra più morbido
    2. Diaframma chiuso, profondità di campo più estesa, maggior contrasto globale dell’immagine.
      a diaframma aperto abbiamo un minor contrasto delle immagini che aiuta il cervello a fondere i diversi fotogrammi in unico movimento fluido.


  2. Otturazione o Shutter.
    Il tempo in cui catturiamo il singolo fotogramma definisce la nitidezza degli oggetti in movimento. Esiste una regola per cui la otturazione dovrebbe essere sempre il doppio dei fotogrammi al secondo, per cui se giriamo a 24 fotogrammi al secondo l’otturazione dovrebbe essere di 1/48 di secondo. Tutto questo nasce dal cinema e dall’otturatore a farfalla. Questo rapporto 2:1 fa si che le immagini siano abbastanza nitide quando sono ferme per percepire correttamente il dettaglio, ma abbastanza sfuocate quando si muovono velocemente per rendere più fluido il movimento percepito. Più è veloce il movimento, maggiore sarà la scia lasciata dall’oggetto e fotogramma dopo fotogramma offrirà una maggior fusione tra uno e l’altro dando origine ad un movimento fluido e continuo.
    Spesso si vedono riprese stroboscopiche perchè si alza troppo lo shutter per compensare la luce, cosa che si fa ogni tanto in fotografia, ma nelle riprese video è un grave errore che può portare notevoli problemi. Meglio mettere un filtro Neutro e ridurre la luce piuttosto che alterare come viene catturata la stessa.
    La regola generale è Numero dei Fotogrammi al secondo x 2 = tempo di otturazione.
  3. Iso.
    La sensibilità iso reale normalmente è una, in certi casi al max sono due con sensori sovrapposti, il resto sono elaborazioni analogiche o digitali del segnale catturato, ma come nel caso della pellicola, a bassi iso abbiamo più dettaglio e morbidezza, ad alti iso abbiamo meno dettaglio e più contrasto, quindi andiamo contro la regola n5 della fluidità.
  4. Lunghezza focale.
    Questo parametro è fondamentale perchè se noi lavoriamo con un grandangolo e giriamo di 5 gradi la camera, la differenza nell’immagine è piccola, mentre se applichiamo lo stesso movimento su un teleobiettivo spinto, la differenza tra una immagine e l’altra potrebbe essere di metri…
    La regola è semplice : la velocità di movimento della camera sarà inversamente proporzionale alla lunghezza focale della lente.
  5. Contrasto immagine.
    Il contrasto dell’immagine è un parametro fondamentale per gestire l’effetto strobo all’interno di un movimento, perchè maggiore è il contrasto dell’immagine e maggiore sarà il tempo che rimarrà impressa la parte luminosa dell’immagine sulla retina contro le parti scure, quindi se abbiamo un movimento su una campitura chiara di elementi molto scuri, o viceversa, sarà più facile percepire un movimento stroboscopico contro un’immagine che abbia un contrasto minore. Non a caso quando si riprende in pellicola (per tornare al mito 1) la capacità di compensare meglio la differenza di luminosità,  e in particolare le alte luci della pellicola offre immagini più morbide e piacevoli della ripresa digitale classica.
    Inoltre oggi si tende con la correzione colore ad aumentare i contrasti e rendere molto più forti i due estremi amplificando questo difetto.
  6. Movimento di camera
    La velocità di movimento della camera in senso orizzontale o verticale comporta un cambiamento più o meno ampio dell’immagine in funzione della focale (vedi regola n. 4), quindi la velocità va regolata in funzione di come cambierà l’immagine altrimenti risulterà stroboscopica.
    Non a caso dentro il mitico Manuale di American Cinematographer che ho indicato all’inizio dell’articolo contiene una serie di tabelle con le velocità di spostamento in funzione del framerate e della focale montata.
    La regola generale qui non esiste, perchè ci sono troppe variabili in gioco, inoltre a seconda dell’immagine più o meno contrastata si può variare la velocità e la percezione risulterà più o meno corretta, immagine più contrastata (vedi regola 5) più lento, immagine più mrobida di contrasti, più veloce.
    Esiste un trucco per superare alcuni limiti, in alcune occasioni : se dobbiamo fare una panoramica o una ripresa a schiaffo, si abbassa l’otturazione, in modo che ogni fotogramma in movimento diventerà molto più sfuocato durante il movimento veloce, amplificando la percezione di velocità e si evita l’effetto stroboscopico.
  7. La dimensione dell’immagine percepita.
    Banale, ma molti non ci pensano, chi nasce nel cinema, pensa in grande, quindi ogni tipo di movimento viene pensato per essere visto su uno schermo di grandi dimensioni, e quindi i fattori elencati fino ad ora sono tenuti in grande considerazione. Ogni differenza tra un fotogramma e l’altro viene amplificata, quindi tutta l’esperienza percettiva viene amplificata. Lo stesso movimento su un 40 pollici comporta una differenza di un cm tra un fotogramma e l’altro, visto su 15 metri di schermo diventa 60-70 cm e a seconda della distanza dallo schermo diventa quasi fastidioso quel salto perchè superiore alla capacità di fusione del cervello.
    Regola di base, non usare solo la visione sui monitor di controllo camera o un monitor piccolo per verificare i movimenti veloci, ma testare anche sulle grandi dimensioni, dato che non tutti hanno la possibilità di testare al cinema le immagini, basta un semplice videoproiettore, se si può investire su una camera di medio livello e attrezzatura varia, si può investire 5-600 euro per un buon proiettore HD o superiore per testare l’immagine su 2-3 metri di larghezza e avere la percezione corretta del movimento senza elaborazioni o postprocessing di vario tipo (per fortuna nessun videoproiettore ha i vari chip pixelworks e simili che tritano le immagini).

A questo punto conoscete le ragioni tecniche per cui una panoramica scatta o salta mentre fate una ripresa, quindi dovete ragionare di conseguenza per correggere la o le cause di tale problema IN RIPRESA perchè l’aggiunta di sfuocatura di movimento in post è fattibile entro certi limiti e comunque nella maggior parte dei casi meno naturale di quella reale.

In sintesi i movimenti strappano perchè la differenza tra un fotogramma e il successivo è troppo grande per essere percepita dal cervello come movimento fluido, e quindi vengono percepiti i singoli fotogrammi.

Queste ragioni tecnico pratiche globali che valgono per ogni mezzo di ripresa analogico (pellicola) o digitale (cineprese), si devono tenere in mente ogni volta che si fa una ripresa, altrimenti successivamente si possono avere problemi non risolvibili in postproduzione.

Perchè al cinema il film lo vedo meglio che a casa?

Esistono diversi motivi, sia che si veda in pellicola che in digitale di solito se un film è pensato per il cinema è ripreso e gestito nel modo corretto (batman dark night return presenta alcuni punti con strobing, Civil war durante i combattimenti è inguardabile, shutter altissimo e molto fastidioso, ho avuto modo, grazie ad un amico gestore di cinema di guardare frame by frame le sequenze e tecnicamente sono aberranti, fastidiose, vedevo mezzo cinema che strizzava gli occhi…

movie-theaterQuando si proietta in pellicola si può apprezzare una maggior fluidità per un fattore tecnico molto semplice, l’otturatore a farfalla. Quando si proietta una pellicola esiste una operazione che viene ripetuta 24 volte al secondo : otturatore aperto viene visto il fotogramma, otturatore chiuso il fotogramma viene sollevato per passare al successivo.

Questa operazione fa si che ci sia la classica luce intermittente che proviene dalla cabina di proiezione (che si può vedere in tanti vecchi film), e soprattutto fa si che colpendo lo schermo e rimbalzando sulla retina i diversi fotogrammi si fondano insieme, perchè mentre sta scendendo l’immagine impressa sulla retina del primo fotogramma, arriva la luce del secondo fotogramma che si fonde su una parte del primo, rimasta per persistenza retinica, in questo modo viene creata una forma di blending dell’immagine residua rendendo più fluido il passaggio da un fotogramma all’altro.

La proiezioni digitale invece manda luce continua sostituendo istantaneamente un fotogramma con il successivo, quindi essendo sempre i fotogrammi al massimo della luminosità sono più forti e non si mescolano tra di loro nello stesso modo, causando una maggior incidenza di possibile strobo rispetto alle stesse immagini proiettate dalla pellicola. Infatti nei moderni proiettori digitali si sta pensando di ripristinare l’otturatore a farfalla per migliorare la fase di visione dei film.

Quando vediamo lo stesso film a casa, sa Dio cosa andiamo a vedere, perchè difficilmente un televisore ha la capacità di lasciare intatte le immagini, gli ingegneri video che lavorano per le varie case produttrici di televisori hanno l’arroganza di pensare cosa sia meglio per noi durante la visione di una immagine, masticandola con processori d’immagine che saturano all’inverosimile i colori, contrastano fino a trasformare ombre delicate in macchie nere, aumentando la nitidezza fittizzia con maschere di contrasto che creano dei bordi attorno ad ogni dettaglio ad alta frequenza, che eliminano ogni sorta di rumore video trasformando una spiaggia in una distesa di colore sfumato, perchè il dettaglio della sabbia per loro era rumore, e per ultimo, a seconda dei tifosi di fluidità o nitidezza c’è il partito di “flash” che aggiunge sfuocatura di movimento a ogni pixel in movimento più veloce di X facendogli lasciare la scia come il noto supereroe della DC nella serie anni 90, oppure quelli che la devono eliminare completamente perchè loro vogliono vedere nitida ogni cosa, trasformando il più delicato film in una brutta telenovelas anni 80…. Ora io ironizzo, ma vi posso garantire che trovare un televisore in cui si possa disabilitare ogni singolo parametro di manipolazione e vedere le immagini originali, quelle su cui centinaia di persone hanno sudato settimane se non anni per realizzarle è un’impresa titanica…

Digressione

Telecamera o Vdslr… due bestie diverse

Zacuto setupDal 2008 è nata la moda delle video dslr, ovvero usare le macchine fotografiche come telecamere, perchè hanno una gamma dinamica più ampia, hanno lenti intercambiabili, hanno sensori più grandi così si può sfuocare più facilmente…

insomma la manna dal cielo
se non fosse che…

Le dslr non sono MAI delle telecamere.
Molti possono pensare ai problemi di grip, di come maneggiarle, dell’audio, della qualità di registrazione ridotta, ma quelli sono solo dettagli, ci sono mille e più modi di gestire quelle limitazioni…

il primo e unico vero problema è come i loro sensori catturano le immagini in movimento

Un sensore fotografico, per quanto sia nato per catturare immagini, nasce per catturare immagini statiche, non in movimento, e per quando sia veloce la cattura, lavorerà sempre (ad oggi luglio 2016) con la modalità dello scan line, ovvero una riga alla volta, creando il fenomeno del rolling shutter, ovvero una distorsione più o meno evidente degli oggetti in movimento circolare e orizzontale.

Se i movimenti sono lenti non si vedono difetti di alcun sorta, ma quando ci sono panoramiche o oggetti rotatori, la distorsione diventa evidente, con le fullframe ogni oggetto in movimento veloce si contrae e si restringe creange degli effetti jello poco piacevoli.

So che quello che sto scrivendo genera nella maggior parte dei videomaker un moto di protesta, che si può contenere, che non sono effetti così evidenti, che il pubblico non vede quei difetti, etc etc etc… ma queste sono affermazioni tecniche oggettive, non si può nascondere la realtà: più è grande il sensore, più si deve stare attenti ai movimenti orizzontali e rotatori.

Visto che mi piace andare controcorrente, invece dei soliti filmati delle canon linko quelli di una FF sony e di una m4/3 come la gh4, qui si può vedere come una ripresa di panoramica mediamente veloce comporti una inclinazione laterale decisamente evidente.

mentre sui movimenti rotatori, che non deve essere per forza la ripresa di un ventilatore, ma le ruote di un’auto, le braccia di due persone che corrono, etc etc

Questo tipo di distorsioni rendono evidenti i limiti della gestione del sensore in rolling shutter, tecnica di cattura delle immagini presente ANCHE in molte telecamere, ma avendo sensori molto più piccoli e a misura del video il fenomeno è minimizzato rispetto alle DSLR che dovendo poi scalare i dati dai xx megapixel ai 2 mpx del Fhd, o gli 8.9 mpx del 4k, il fenomeno viene accentuato.

Perchè si usa il Rolling shutter nel video quando per lo scatto fotografico si usa il Global shutter?

Semplice! è più economico per la gestione dei dati video, come processo di cattura delle informazioni, etc etc
Quando si cattura una riga di dati la si può processare subito, o al max con la seconda riga creando matrici di pixel 4×4 su cui applicare già vari algoritmi di compressione, e registrare solo i dati derivati, mentre se si lavora in Global shutter si deve catturare un intero fotogramma, quindi elaborarlo, e salvarlo, mentre ne stanno arrivando almeno altri 23 nello stesso secondo.

L’approccio Global Shutter offre una miglior cattura e gestione dell’immagine in movimento, della sfuocatura di movimento, dei vettori di movimento, ma richiede :

  • buffer molto più veloci e capienti
  • processori video immagine molto più potenti e veloci
  • data managment su sd/ssd/cf molto più veloci per scrivere più dati
  • un sistema globale più responsivo.

In pratica il sistema del Rolling shutter è più economico per il produttore delle macchine fotografiche, tanto lui produce macchine fotografiche, non telecamere … il fatto che poi si siano messi a produrre macchine fotografiche con uscite pulite HDMI, timecode, profili log etc è solo un caso…
infatti continuano a mettere nel comparto video la priorità di diaframmi, lasciando oscillare lo shutter… roba che neanche un filmaker anni 90 avrebbe accettato (io sono uno di quelli…).

Standard

Log o non Log, ma quale log?

gamma-power-law_chart

Cos’è il log

Log è l’abbreviazione del termine Logaritmico, ovvero la registrazione delle informazioni di luminosità e saturazione non con informazioni lineari, ma Logaritmiche, il che comporta la capacità di registrare in un numero limitato di informazioni una maggior quantità di sfumature e luminosità, per massimizzare al meglio le possibilità della postproduzione successiva.

In soldoni, il log crea una immagine molto morbida come contrasti e saturazioni, che offre tutta una serie di vantaggi nella cattura e nell’uso.

Perchè il log non è uno standard

La cattura logaritmica è uno standard, ma le curve di contrasto e saturazione applicate durante la cattura,no.
A seconda dei sensori, delle marche, del formato log (della curva applicata in cattura) le immagini risultati saranno differenti, quindi poi successivamente offriranno più o meno spazio di azione nella postproduzione.

A seconda delle macchine, cineprese digitali come Red, Alexa e BMD offrono un log con curve più semplici da gestire in funzione del livello di contrasto della mia scena da riprendere e quindi la scelta della curva log si fa direttamente proporzionale al contrasto presente (più contrasto + flat sarà la curva scelta / meno contrasto meno flat sarà la curva del log), mentre nel caso di macchine come sony dove ci sono curve di contrasto molto flat, è fondamentale scegliere bene il profilo, magari con l’ausilio di un monitor con i falsi colori, per capire bene come il sensore sta catturando ed esponendo le diverse parti dell’immagine; se la immagine viene codificata in un log molto flat (poco contrastato) come quello sony c’è il rischio che nella registrazione si perdano delle parti dell’immagine, perchè invece di avvantaggiarsi dello spazio log per gestire le immagini molto contrastate, se ne prendeno le debolezze.

Perchè è utile

Il log nasce per catturare un numero maggiore di informazioni nella codifica limitata dello spazio 8bit o 10bit, in modo che i file, pur essendo più leggeri contengano tutte le informazioni utili per la post. Il log, sposta le informazioni nello spazio migliore in cui possono essere registrate.

Vantaggio 1 : Ogni sensore ha una gamma dinamica, una capacità di catturare informazioni con poca, giusta o tanta luce, normalmente tutte queste informazioni hanno un peso di dati non gestibile direttamente dalle camere (tranne quelle che registrano il raw), per cui i dati vengono elaborati e compressi sia come colore (vedi articolo sulla profondità colore), sia come luminosità. Utilizzare il sistema di codifica Log ci permette di catturare in una gamma ridotta (8bit) uno spettro maggiore di informazioni.

Ogni codec durante la fase di compressione utilizza degli schemi di eliminazione dei dati inutili o ridondanti, per ridurre lo spazio occupato dai file, ma questo fa si che riduca anche dati che potrebbero essere utili. I codec di compressione classici, come H264, tendono a scartare tutte le informazioni non distinguibili, per cui se abbiamo in una immagine delle ombre profonde, il codec scarta tutte le informazioni dentro le ombre perchè tanto l’occhio percepirà ombre completamente nere, e quindi le informazioni sarebbero inutili… se non vogliamo applicare colorgrading per alleggerire quelle ombre, estrapolando a quel punto il nulla…

Vantaggio 2: Nel momento in cui utilizziamo lo spazio Log le ombre vengono spostate in alto nelle informazioni medio-basse, mentre le alte luci nelle medio alte, quindi dove il codec di compressione protegge tali informazioni, offrendo una maggior possibilità di postproduzione perchè ha protetto le informazioni importante.

Vantaggio 3: Il rumore del processore essendo registrato con un minore contrasto spesso tende a ridursi e a sparire in molti casi, per cui un file log a parità di cattura con un Rec709 offrirà meno rumore video.

Vantaggio 4: saturazione ridotta vuol dire meno possibilità di banding e soprattutto si riduce il rischio che qualche colore molto saturo possa andare fuori scala negli 8 bit (256 sfumature pure per componente) e quindi appiattire certi elementi o ombreggiature di colore

Perchè in tanti lo osteggiano

Perchè non hanno studiato e capito come funziona per la loro macchina, pensando che sia una opzione da abilitare sempre o comunque, lo mettono anche su scene piatte, andando a creare immagini troppo piatte, che richiedono una certa conoscenza in post e non semplicemente mettere una Lut di conversione.

Se una immagine è registrata in Log nel modo giusto basta solo alzare saturazione (meglio la vividezza) e il contrasto a gusto e si ottiene una ottima immagine pulita e ricca di dettagli. Registrare in Log non significa registrare in raw, significa avere un segnale video compresso con una maggior gamma dinamica potenziale, ma comunque dobbiamo preoccuparci di :

  • fare il bilanciamento del bianco
  • settare correttamente Iso ed esposizione
  • gestire correttamente l’esposizione dell’immagine
  • in alcune macchine scegliere il log (la curva di Log) giusto

Motivi per non usare il log

Personalmente trovo una manna avere la possibilità di catturare le immagini in modalità Log, prima di avere quella possibilità avevo profili camera che simulavano alcune delle caratteristiche del Log per lasciarmi più spazio in postproduzione.

Comprendo anche che molte persone abbiano modi di vedere differenti, e quindi ritengo che non debbano usare il log coloro che :

  • Devono girare solo il materiale e darlo in pasto a terze parti che non sanno usare il Log.
  • Non sanno come girare il materiale Log, non conosco le scelte da fare e per non rischiare di avere immagini troppo piatte meglio avere una immagine classica.
  • La macchina ha troppe curve di Log che essendo molto flat (sony) non sanno cosa scegliere.
  • Non c’è tempo per fare la post minima del log (non ci credo…).

Un esempio pratico

Qui potete vedere due immagini girate in Rec709 sopra e in Log sotto.
Dato che il Log dimostra le differenze nelle immagini estreme e non in quelle demo con illuminazione morbida, ho scelto una immagine notturna che mette alle corde i sistemi di compressione, i sensori, la gestione della luce e dei colori, con contrasti molto alti.
Le immagini, tranne l’ultima, sono in 4k x 4k per poter vedere effettivamente nel dettaglio la differenza di qualità tra le due modalità di ripresa

Log vs rec 709 original

 

 

 

 

Il girato ci appare in questo modo (con un click potete vedere alla risoluzione originale, 4k i file)

Apparentemente il log è leggermente più slavato ma sembrano simili prima di una eventuale postproduzione.

 

 

 

 

 

Log vs rec 709 illuminato

 

 

 

 

Per vedere bene la differenza tra le due immagini basta schiarire leggermente le immagini per vedere come la prima girata in Rec709 dimostri problemi e maggior rumore rispetto a quella sotto girata in Log.

 

 

 

 

 

log vs rec709 corretti

Dopo aver applicato una leggera correzione al Log per portarlo vicino al Rec709 sembrano essere simili, ma in realtà se guardiamo bene nei dettagli le differenze ci sono, sia nelle esposizioni delle luci, e le bruciature in quelle zone, sia perchè l’immagine Rec709 essendo più contrastata ha perso dettagli nelle ombre appiattendo la profondità della scena.

 

 

 

 

 

 

 

 

Con l’ingrandimento del dettaglio dei fari diventa evidente come quello sopra sia più grezzo e il rumore intorno ad esso sia notevolmente maggiore

rispetto al log sotto.

Quando un colorist ci chiede un flat, quale log dobbiamo dare?

nessuno… e tutti
non esiste un log migliore in generale, ognuno ha pro e contro, se è meno contrastato e meno saturo si rischiare di perdere tonalità nella compressione, se troppo contrastato e saturo è poco utile come log, dipende dalla scena che andiamo a catturare e dalle curve di log, tanto al colorist non interessa quale log avete applicato quanto lo spazio di lavoro per agire nel suo campo. Se mai vi chiede quale log avete usato per applicare la corretta LUT di correzione… cambiate persona perchè quello non è un vero colorist ma un applicatore di preset, che offende la categoria dei colorist.

Lo scopo di chi registra (dop, dit) è catturare la gamma dinamica più ampia per offrire al colorist il maggior spaziodi lavoro utile, poi eventualmente se clip sono tutte simili, sbviluppata la prima applica alle successive lo stesso tipo di sviluppo / correzione, ma questo vale per blocchi di clip legati alla ripresa, non esiste possibilità che una lut (non sviluppata sul set in loco) possa ottenere un corretto sviluppo del vostro girato senza farvi perdere parte della gamma dinamica.

 

Standard

Un buon filtro ND variabile Genustech Eclipse

71SPYgEAUVL._SL1500_Pur essendo un amante dei filtri a lastra, ammetto che un filtro ND variabile di ottima qualità può essere molto utile, soprattutto se si hanno macchine molto sensibili, e durante il giorno una macchina a 400 iso è ESTREMAMENTE SENSIBILE…

Dopo aver studiato in giro molti siti, review etc, ho scelto il Genustech Eclipse.
La recensione che mi ha convinto è quella del filmaker tedesco Frank Glencairn. In cui vede il confronto tra il Genustech Eclipse e l’Heliopan.

Cos’è e a cosa serve?

Un filtro Nd serve a ridurre la luce, il filtro ND variabile è una coppia di polarizzatori che ruotando uno rispetto all’altro riducono progressivamente la luce passante di diversi stop in modo graduale. Ruotando una parte del filtro si riduce o aumenta la quantità di luce che passa, mentre un filtro a lastra ha valori fissi di passaggio della luce.

Perchè è meglio di un filtro a lastra?

Perchè migliora la gamma dinamica dell’immagine! Il filtro ND variabile essendo un polarizzatore va a tagliare le alte luci, prima le alte luci delle medie, mentre un filtro a lastra abbassa la luce in generale, quindi usando un filtro ND variabile abbiamo la possibilità di controllare ancora più facilmente la luce in ingresso per una parte dell’immagine senza chiudere le ombre

Perchè è peggio di un filtro a lastra?

perchè essendo un polarizzatore mi toglie alcune alte luci (riflessi) che potrebbero essere utili per dare maggior tridimensionalità alle immagini, è parte della sua natura. la soluzione banale (come indica Frank) è accoppiare il filtro a un polarizzatore senza cristallo (solo la cornice), quindi si ruota il filtro ND per decidere la luce che serve, poi ruotando il secondo filtro collegato si orienta il filtro ND in modo da non togliere i riflessi di luce che ci danno fastidio.

Perchè lo hai scelto?

perchè è il meglio che potevo scegliere ad una cifra più che onesta. Il filtro mostra un’ ottima nitidezza anche a chiusura massima, non fornisce difetti visivi come il moires che viene introdotto da altri filtri come l’Heliopan, quindi per meno di 150 € è un ottimo prodotto.

Standard

Sensibilità ultra, la nuova frontiera, indispensabile o no?

Cattura l’avventura!

explorerDa tempo le macchine sono sempre più sensibili, per riprendere con la luce di una candela… sapete quando ho sentito questa frase?

1988 pubblicità di una delle prime spallari VHS della Philips… giusto quei trentanni fà…

Certo erano immagini con un gain (un guadagno artificiale) che neanche sui primi cellulari si vedeva… eppure per l’epoca era magia.

Oggi poi ci troviamo in una serie di situazioni contraddittorie che molti non si spiegano, macchine fotografiche ultra sensibili come le recenti Sony Alpha che spaziano oltre i 200.000 iso (parliamo di duecentomila) fornendo immagini più che decenti se presente un minimo di luce, mentre camere più professionali arrivano a 800-1600 asa le bmc, 3200 asa le Arriflex e le Red, cosa che la maggior parte delle persone non si spiegano.

Le domande che sorgono spontaneamente sono :
– perchè non lo fanno le aziende così blasonate se Sony lo fa ?
– serve veramente avere questa luminosità oltre l’umano?

Sinceramente alla prima domanda non so darmi una risposta, o meglio, posso solo fare ipotesi, relative al tipo di tecnologia che sta dietro alle cineprese, e perchè non si sente la necessità di arrivare a sensibilità così folli, dato che anche con la pellicola nel cinema ci si ferma con la 500 Asa prodotta da Kodak.

A cosa serve una maggior sensibilità di pellicola o sensore?

Il discorso potrebbe essere molto articolato, con tanti discorsi nostalgici, ma mi piace essere pratico.
Il cinema si fa con la luce, quindi a me dei discorsi di riprese in lowlight senza luci o altro non mi frega molto, soprattutto perchè raramente vengono bene anche con i sensori ultrasensibili, mancano i riflessi di luce nei punti giusti, i giochi di luce e ombra, tante cose che sembrano naturali, ma che sono finemente costruiti dai direttori di fotografia.
Un sensore più sensibile aiuta a lavorare meglio in determinate situazioni, punto …

Sfatiamo qualche mito sulla luce naturale ?

  • Il recente Revenant con fotografia del premio oscar Lubensky è stato girato in luce naturale, non ha usato luci aggiuntive…
    più o meno, ha fatto largo uso di pannelli riflettenti, ha sfruttato fuochi e luci varie naturali, e pare che durante la fase di colorgrading abbiano massaggiato parecchio le immagini per esaltare e amplificare molto i contrasti di luce e le varie tonalità delle immagini.
    Comunque, essendo un amante della Golden hour, quell’intervallo di tempo al tramonto in cui c’è una luce magica, so che si può ottenere un risultato molto vicino a quello, ma se lo poteva permettere solo Inarritu, perchè quell’intervallo dura pochi minuti… per sfruttarlo al meglio sono andati più al nord possibile per poter trovare i luoghi con una durata maggiore della Golden Hour.
  • Se ho luce, quella basta, perchè aggiungere luce?
    spesso il problema non è la quantità di luce, ma la distribuzione tra zone di luce e ombra, la direzione, che se sbagliata rovina il viso di attori e attrici, il rischio è che lo sfondo sia più luminoso del primo piano, quindi si deve schiarire il primo piano per non bruciare lo sfondo, che è brutto da vedersi
  • Se il sensore è sensibile perchè devo usare la luce?
    il sensore può essere sensibile ma non a tutta la luce, ma solo a determinate frequenze, per cui più andiamo sul low light, più si perdono alcune frequenze di colore della luce, quindi anche se il sensore è più sensibile è probabile che i colori che può catturare siano meno intensi, o peggio, che ne perda alcuni, il che significa che le immagini saranno più povere e soprattutto limitate
  • Perchè si usano pellicole meno sensibili al cinema, perchè si devono usare meno iso in ripresa se ci sono?
    per una questione di qualità dell’immagine finale, all’alzarsi della sensibilità chimica o elettronica, l’immagine peggiora aumentando il contrasto, riducendo i dettagli fini catturabili, quindi si usa sempre gli ISO o Asa nativi di un sensore o una pellicola e non si “tirano” amplificano in nessun modo. Nella pellicola per catturare maggior luce i grani devono essere più grandi e con una capacità di cambio alla esposizione più duro, quindi diventano velocemente più visibili, offrendo però un contrasto maggiore, e la cattura della luce diventa più grossolana.
    Allo stesso modo nel digitale si amplificano le informazioni, ma se queste sono poche, quando si amplificano aumenta il contrasto e quindi si evidenzia l’immagine ma anche il rumore stesso.

Standard

whatsapp il male nascosto…

Ammetto che il titolo è inquietante, ma mi serviva per catturare la vostra attenzione.

Lo smartphone è uno dei mali dell’attuale società, non per i grandi servizi che ci offrono, ma per la crescente analfabetizzazione informatica che creano.

Purtroppo troppe persone li usano in modo superficiale e con disinvoltura senza rendersi conto di cosa fanno e come, che nella maggior parte dei casi non è importante, ma ci sono dei problemi nascosti che molti ignorano completamente.

Whatsapp ha sostituito la comunicazione globale tra le persone, sia a livello di messaggistica, sia a livello di scambio file, peccato che per costare praticamente nulla whatsapp comprima e distrugga le informazioni contenute nelle foto e nei video per inviare meno dati possibili. Troppo spesso mi sento dire “ti mando la foto con whatsapp”… e quando rifiuto e chiedo una email spiegando che whatsapp danneggia le immagini, la persona nicchia, gira intorno, per poi messa sotto pressione rivelare che non sa come si manda una email dal cellulare o dal tablet…

Ora giusto per esempio pratico…
IMG_0898Fotografia originale scattata da Iphone 4S : 3264×2448 punti per un peso di 2.820 kb

Fotografia spedita via whatup dallo stesso :1600 x 1200 per 231.89 kb

Fotografia originale scattata da S5 samsung : 5312 x 2988 per 3400 kb

Fotografia spedita via whatup dallo stesso :1328 x 747 per 84,43 kb

Fotografia originale scattata da LG G3

Fotografia spedita via whatup dallo stesso : 1600×1200 punti per un peso di 184,54 kb

In questo semplice grafico vedete la differenza di dimensione tra le due, e comprendete come se il peso è diventato un quindicesimo, la perdita di informazioni è drastica…

inoltre il dettaglio e la qualità sono evidentemente persi, basta confrontare una zona con l’equivalente della versione compressa, per notare come le scritte non solo siano più sfuocate e ridotte, ma l’immagine più impastata.

differenzeLa maggior parte delle persone non è interessato a questo tipo di problematiche perchè scambiano le foto giusto per abitudine, le guardano solo sui cellulari, e considerato che il valore medio di 1600 x 1200 è pari o spesso superiore al numero di punti presenti sui display del cellulare medio, nessuno si accorge della compressione. Però se dobbiamo scambiare delle foto per altri usi, per stamparle, etc etc usare whatsup castra e danneggia i contenuti in modo irreversibile. Se proprio non potete farne a meno, usate il messanger di Facebook, almeno non riduce la risoluzione in modo così aggressivo, ma comprime solo a livello di compressione Jpeg.

Standard

Zuppa di codec

tape-soup-capone-3Nel moderno mondo digitale si scatta, si riprende senza preoccuparsi come le immagini si archivino sui telefoni, telecamere, macchine fotografiche, etc. Poi caricandoli direttamente sul web, sui propri cloud, partendo dallo smartphone, alla smartcamera o altro, i file vengono transcodificati in x codec diversi, il che finchè non ci servono, non è un problema, ma quando dobbiamo aprire questi file ed editarli con un programma di editing, potremmo incontrare diversi problemi.

Iniziamo col capire cosa è un codec e cosa è un contenitore:

Il contenitore è la struttura che contiene i file video, che può cambiare a seconda del sistema operativo (sotto windows è comune .avi mentre sotto MacOsX è comune .mov) che favorisce le risorse del sistema nell’aprire il contenuto dei file.

Il codec è il sistema con cui i diversi fotogrammi di un filmato vengono archiviati, a seconda del codec possono occupare più o meno spazio, offrire più o meno qualità, richiedere più o meno risorse CPU per leggere i singoli fotogrammi.

I codec hanno diverse caratteristiche, ma quello che interessa a noi è se un codec è pensato per la cattura e storage o per la lavorazione, quindi editing etc.

I codec classici di registrazione di telecamere e dslr sono codec di cattura, quindi il loro obiettivo è massima qualità, minimo spazio occupato; il problema della decompressione e compressione è relativo perchè questi dispositivi hanno sempre una soluzione hardware per leggere e scrivere questi codec.

Un codec di lavorazione, normalmente detto DI Digital Intermediate è un codec che occupa molto più spazio sul disco, ma preservando la qualità originale permette una lavorazione fluida, semplice all’interno di tutti i programmi professionali.

DI sono codec come Prores, Cineform, DnXHD/HR, GV codec e simili.

Oggi affrontiamo una problematica molto sentita nel mondo moderno, ovvero come convertire le sorgenti in formato X in uno di questi formati di lavorazione.

Per lavorare più comodamente durante e dopo la conversione suggerisco di installare il Quicktime7 sia su Windows che su Mac (per chi pensa che il quicktime X basti, si legga l’articolo sui limiti dello stesso, e tutti i problemi che causa al sistema, dalle preview mancanti alla forzata conversione dei file anche quando non serve).

Quicktime7 per windows si scarica da qui.

Quicktime7 per OsX si scarica da qui.

Codec Cineform per windows e mac si scarica Installando la goPro App da qui.

Codec DnXhD/R Avid per win e mac si scarica da qui.

In questo modo grazie al Quicktime 7 si è in grado di inserire gli altri codec nel sistema in modo più ampio, e grazie a questi ottimi codec DI possiamo convertire il formato X difficile o impossibile da lavorare in un formato pensato per essere lavorato.

indexPer convertire cosa usiamo?

Sia per Windows che per MacOs esistono diverse soluzioni sia Free che a pagamento che leggono e poi convertono i file in altri formati.

Chi acquista la licenza di un prodotto Adobe video ha la possibilità di usare Media Encoder, programma nato e pensato per la conversione dei file video. Al suo interno contiene già sia i preset per Cineform che DnXhD/HR, e anche i codec per la conversione, per cui per convertire uno o più file basta trascinare sopra l’interfaccia, sul preset scelto il o i file che vogliamo convertire e poi attendere…

Il pacchetto è presente identico sia per windows che per mac.

imagesSe fossimo interessati ad una soluzione Free?

Sotto windows un programma interessante è VirtualDub, in particolare aggiungendo alcune plugin gratuite che gli permettono di utilizzare il motore di FFmpeg per la lettura dei file di ogni tipo e codec.

Funziona bene anche con Parallels sotto MacOS, quando sono necessari alcuni tipi di conversioni speciali complicate.

Un prodotto disponibile sia per windows che mac è Mpeg streamclip, che prevede di leggere moltissimi codec e salvare nei codec presenti nel sistema (compresi Cineform e DnxHd e Prores).

Questo prodotto è particolarmente interessante per la sua capacità di leggere formati web come il formato .flv di flash e similari.

Sotto MacOs esiste un altro prodotto Free chiamato Media converter, da prendere direttamente dal suo sito, perchè ne esistono diversi con nome simile. Il sito originale è questo media-converter.sourceforge.net

Questo convertitore è basato su FFmpeg, un filo più complesso da usare se si vuole uscire dagli standard perchè prevede di conoscere settaggi etc, ma molto potente, in particolare per la sua capacità di fare il rewrapping, ovvero cambiare il contenitore ai file che potrebbero essere letti direttamente da win e mac, ma è incapsulato in un contenitore poco “editor oriented”. La procedura per usarlo per tale processo la trovate in questo mio articolo.

Anche se molti non comprendono la necessità di convertire i file in un DI, è un processo fondamentale per semplificare i processi di editing, infatti molti pacchetti professionali, Avid per primo, comporta prima del montaggio la conversione in tale formato, poi si può iniziare ad editare il materiale, solo di recente con il concetto dei link AMA si possono montare i file originali senza conversioni, ma solo in determinate condizioni.

Final cut lo stesso discorso, il formato ProRes (anch’esso un DI) fu creato per quello. Edius della GrassValley (nome storico nel video e nella postproduzione hanno i GV Codec; Adobe ha acquisito le licenze di Cineform e DnxHD/Hr da Avid per fornire a Premiere i codec DI migliori, e a breve con la nuova release offrirà anche il codec Prores per entrambe le piattaforme, windows e mac, direttamente, senza richiedere soluzioni di terze parti.

qtE Bug di sicurezza del quicktime per windows?

Ultimamente sto leggendo notizie allarmistiche riguardo ad un teorico bug del quicktime 7 per windows, la verità è che la vecchia versione di Quicktime 7, se si attivavano le estensioni web e java per il web poteva essere usato da hacker per entrare nel computer, ma la release attuale (quella linkata in questo articolo) non solo ha corretto il bug, ed evita l’installazione delle estensioni web se non necessarie.

Personalmente non ho mai avuto problemi neanche con il precedente prodotto.
Utilizzo un principio : la macchina da lavoro NON deve essere connessa a internet, per evitare update automatici di sistema o software che potrebbero in qualche modo danneggiarvi durante un lavoro, i forum sono pieni di persone in panico perchè si è aggiornato il sistema (win o mac) si è aggiornato il programma grazie ai sistemi di aggiornamento intelligente (non si sa però intelligenza di chi, visti i danni che fanno), e il programma o è instabile o non legge correttamente il progetto.

Sia perchè non permetto mai ad un qualunque software o sistema operativo di comunicare all’esterno senza il mio permesso; il concetto è talvolta noioso, perchè si deve confermare al firewall che la comunicazione in ingresso o uscita ogni volta, ma almeno sono sereno che ho ridotto ad un numero vicino a zero le problematiche di questo tipo.

Standard

Esposizione, Pellicola vs Digital cosa è cambiato? ma è veramente cambiato qualcosa?

Il superpotere della pellicola

I fautori della pellicola combattono sempre strenuamente sulla qualità inarrivabile della pellicola con il digitale, e spesso hanno ragione su una cosa, che la pellicola offre la qualità. Questo perchè se sei un cane a illuminare o a esporre non viene qualcosa così così come col digitale, ma uno schifo inutilizzabile…

La pellicola ha un’alta tolleranza sulle alte luci, per cui nelle situazioni in cui la luce è tanta, perdona un sacco di errori, ma dalla prima telecamera diffusa nel mondo, la parola d’ordine era… “riprende alla luce di una candela” … da schifo, aggiungerei, ma lo faceva… questo dava l’illusione di fare riprese senza luce, senza usare la giusta illuminazione.
Che poi questo fosse materiale inutilizzabile, ben lontano dal concetto di cinema e immagini di qualità, quello è un altro discorso…

La pellicola ha il merito che insegna a esporre, a non fare le riprese a caso perchè ha un costo molto alto, a non “cercare l’inquadratura” a non “proviamo mentre giriamo” e tutte quelle brutte abitudini nate con analogico e digitale dove i costi sono teoricamente più bassi.

Perchè oggi ci sono tante cineprese digitali e si vedono ancora tante immagini tanto …. digitali?

Partiamo dal fatto che il gusto visivo è cambiato, dalla fine degli anni 90 in poi si sono diffuse molto mode e stili visivi con contrasti molto alti, saturazioni forti, contrasti di colore particolari, e la pessima abitudine di postprodurre troppo colore e immagini invece di stabilire bene in ripresa il materiale.

Partiamo dal fatto che ci sono diverse scuole di pensiero dei Dop, quelli che hanno strenuamente combattuto contro il digitale; quelli che hanno accettato passivamente l’uso delle camere digitali senza conoscerle e poi in post gestirne le risultanti; quelli che hanno studiato i sensori e li hanno confrontati con le pellicole, che si sono fatti il loro DiT personale, con il quale gestiscono il colore.

Tra una telecamera e una cinepresa digitale o la pellicola, ci sono diverse differenze.

Quando si prende una pellicola negativa e la si espone alla luce, più luce cattura e più diventa densa (infatti si chiama negativo per quello), quindi la pellicola ha una maggior tolleranza alla sovraesposizione, perchè più luce più densità, più dettaglio. Mentre meno luce meno densità quindi assenza di dettaglio. E’ esattamente la stessa cosa delle cineprese digitali (Red,Arriflex, Bmd), mentre l’opposto delle telecamere dove la luce se è poca o troppa è sempre un problema perchè hanno la capacità di catturare una gamma dinamica inferiore, ovvero la gamma di sfumature tra luce e ombra.

E’ una abitudine diffusa che nell’esporre una pellicola negativa si esponga 2-3 diaframmi sopra l’esposizione media per avere una immagine più densa di dettagli, perchè il negativo regge molto bene questo tipo di informazioni.

Un sensore di una telecamera o di una DSLR quando viene usata come telecamera invece sono sensori che lavorano in modo più lineare, ovvero possono catturare una scala di luminosità da X a Y, oltre si brucia, sotto è nera. Questo vuol dire che le informazioni nelle ombre saranno più scarse, e spesso nelle luci alte si bruceranno facilmente i dettagli.

Un sensore di una cinepresa digitale si comporta in modo simile alla pellicola, quindi per avere una buona immagine la si deve esporre correttamente sulle ombre, per la maggior parte delle persone non sembra corretto, perchè vedono una immagine molto chiara o in alcuni casi bruciata, ma è come funziona il sensore cinema, o la pellicola negativa. Soprattutto che arriva dalla ripresa a 8 bit delle telecamere o delle DSLR sembra completamente sbagliato riprendere in quel modo, ma è semplicemente il modo corretto con cui esporre una immagine per estrapolare il meglio delle informazioni.

Il discorso è molto semplice:

  • poca luce poche informazioni = rumore
  • molta luce = informazioni buone nelle ombre e il resto si riporta in basso grazie alla miglior tolleranza dei sensori digitali e la registrazione di informazioni ampie di tali camere.

graficaUn’altra differenza importante tra una telecamera e una cinepresa digitale è che le informazioni di cattura sono ad un livello superiore. La più semplice delle cineprese digitali lavora a 10bit contro gli 8 bit delle telecamere classiche. Anche se potrebbe sembrare poca la differenza, significa che invece di avere 256 tonalità luminose per colore ne abbiamo 1024, e la risultante finale è uno scontro tra 16 milioni (16.777.216) di colori contro poco più di un miliardo di tonalità (1.073.741.824), ovvero 67 volte i colori di una telecamera. Avendo così tante informazioni in più abbiamo molte più possibilità di lavorazione sulle immagini anche se portate di più al limite.

Senza considerare che le cineprese digitali possono lavorare anche a 12bit raw, ovvero arrivare a oltre 68 miliardi di colori (68.719.476.736), 4096 volte i colori di una telecamera…

Quando si lavora con le cineprese digitali abbiamo un tipo di sensori particolari, con esposizione molto simile alla pellicola, che in gergo tecnico si chiama ETTR, Expose to the right, perchè esponendo si pone l’istogramma sulla destra per ottenere più densità nella parte centrale spostandola a desta.

A livello tecnico il concetto è semplice, se poca luce offre poche informazioni e quindi o viene fuori la grana pellicola, o viene su il rumore digitale col gain, invece di creare un sensore ultrasensibile (che poi diventa un problema nelle riprese diurne) è più semplice creare un sensore con una maggior sensibilità e gamma sulle luci alte, in modo che esponendo correttamente le ombre, il resto poi si abbassa, e si ottiene una immagine più ricca e pulita.

Standard

Filtro ND, cos’è e come si sceglie e/o si usa

I filtri nel mondo Digitale

il fatto che si catturi con sensori digitali ha diffuso la leggenda metropolitana che i filtri non siano più necessari, perchè tanto si fa tutto in post… ironicamente erano nati con la pellicola che aveva una superiore gamma dinamica della maggioranza dei sensori di fotocamere e dispositivi varii, e oggi proprio sui dispositivi più “deboli” si pensa che non servano…

La luce spesso va “addomesticata” perchè troppo dura, troppo morbida, troppo angolata, troppo calda e troppo fredda, troppa in alto e poca in basso e così via…

Neutral-Density-FiltersCos’è un filtro neutro?

Un filtro ND Neutral density, è un filtro neutro lineare o sfumato che riduce la luce entrante nella lente, in modo da ridurre la luce in eccesso. In fotografia si usa per controllare la luce con esposizioni prolungate di diversi secondi, in cinematografia serve a controllare la quantità di luce con diaframma e tempi di scatto fissi.

Mi serve?

se volete controllare la vostra esposizione, e non siete Dio per controllare il sole e le nuvole, si…

Per farla breve, alle 17.00 di un giorno primaverile in riva al mare, con 200 iso e 1/48 di otturazione (otturazione cinema) per esporre correttamente la scena dobbiamo chiudere a 22 il diaframma… Non vi dico a mezzogiorno…

E per esporre correttamente il cielo servirà un ulteriore filtro ND4 sfumato per compensare la grande luminosità del cielo rispetto a al mare o al terreno.

Come funziona?

Graduated-ND-filter-effectsIl filtro neutro lineare è un elemento in vetro o resina con una capacità di assorbimento della luce progressiva in funzione della propria numerazione ND 2/4/etc più è alto è il numero e più luce può togliere.

Il filtro neutro sfumato è un elemento in vetro o resina con una sfumatura dal neutro ad assorbimento pieno, in modo che si possa compensare inquadrature dove il cielo sarà più luminoso della parte in terra.

Filtro fisso o graduale?

In realtà servono entrambi per gli esterni, perchè il cielo spesso sarà molto più luminoso del terreno e quindi serve quello sfumato, mentre se non inquadriamo il cielo servirà facilmente quello “pieno” per compensare l’eccesso di luce.

Esiste una terza scelta, che è una variante del primo filtro, il filtro Nd variabile, un filtro ND con una doppia ghiera, che a seconda di come lo si gira fa passare più o meno luce. Il filtro ND variabile è fatto con una coppia di filtri polarizzatori, il che significa che se è di scarsa qualità crea un brutto effetto ad X al centro dell’immaginexpGRn, e delle dominanti di vario tipo verso il verde man mano che si aumenta il filtraggio della luce. Se è di buona qualità sarà un ottimo complemento all’esposizione, ma si deve fare attenzione che essendo comunque un polarizzatore andrà a togliere alcuni riflessi sugli oggetti, togliendo parzialmente la tridimensionalità degli elementi.

Perchè non si può far a meno del filtro ND?

Sia che lavoriamo con una pellicola fotografica di altissimo livello (19stop) o una camera digitale classica (8-14 stop di gamma dinamica), non avremo una camera in grado di catturare tutta la gamma dinamica dalle ombre alle alte luci nel modo corretto, perchè la realtà sarà sempre più “ricca” d’informazioni e dovendo scegliere si finisce col catturare una immagine con meno informazioni di quelle percepite dall’occhio umano, mentre usando un filtro ND sfumato, o un filtro ND classico potremo catturare una immagine più interessante e piacevole.

In fotografia catturando la luce possiamo :

  • dosare la quantità di luce aumentando o riducendo il tempo di scatto, ma questo influenza la cattura degli elementi in movimento, con tempi lenti avremo oggetti mossi, mentre con tempi veloci si congelano nello spazio.
  • dosare la luce aprendo o chiudendo il diaframma, ma questo comporta che entro certi limiti si riduca o si ampli la profondità di campo, quindi chiudendo il diaframma al massimo si estende al massimo la zona di fuoco, che non sempre è ciò che vogliamo.

In Cinematografia catturando la luce possiamo solamente cambiare il diaframma, perchè l’otturazione deve essere per la regola dei 180 gradi (otturazione a farfalla) il valore doppio dei frame al secondo, altrimenti le immagini in movimento saranno stroboscopiche.

Come potete immaginare, se volete scegliere il diaframma, e controllare quanta luce entra, l’unico modo è usare dei filtri Neutri che riducano la quantità di luce che arriva al sensore.

Io posso chiudere il diaframma, non mi interessa la dof, posso evitarli?

In generale no…

  1. Se ho un cielo luminoso e lo espongo correttamente vuol dire che sottoespongo tutte le parti medie riempendole di rumore, quindi avrò una immagine di bassa qualità
  2. Se chiudo troppo il diaframma, rischio la diffrazione, che mi fa perdere nitidezza nell’immagine. Il fatto che nel cinema e in fotografia si usino normalmente i diaframmi centrali non è casuale, ma serve sia a non avere una sfuocatura di campo tanto estrema da non tenere i fuochi durante i movimenti e poter catturare il massimo della nitidezza dalle lenti.
  3. in esterni la quantità di luce durante il giorno è spesso troppo alta per la maggior parte degli ISO applicabili in scatto o ripresa, quindi o si lavora a diaframmi chiusi, iso bassi e otturazione alta o si avrebbero immagini sovraesposte… ma l’otturazione alta in ripresa significa immagini fortemente stroboscopiche.

Ir pollution, questa paura?

fig6_irOk abbiamo detto che i filtri ND sono il bene, ma non hanno punti deboli?
Quando si usano filtri MOLTO FORTI tipo ND16 o si sovrappongono più di un filtro neutro si può notare il fenomeno chiamato IrPollution, ovvero la sensibilità maggiore dei sensori digitali ai raggi Infrarossi porta a vedere negli elementi scuri un inquinamento cromatico rosso.

Il fenomeno si presenta solo a fortissime filtrature se i filtri ND non hanno il trattamento Ircut o non si è applicato un filtro IrCut alla lente, che tagliando i raggi infrarossi non si presenterà il difetto.

A seconda delle lenti, delle camere usate, ho potuto osservare il fenomeno solo in poche occasioni di filtratura molto fortemente con due ND molto pesanti, ND8 + ND16 e mettendo un buon filtro IRcut il fenomeno spariva, per cui è una preoccupazione relativa, ma si deve sapere di cosa si parla.

A seconda delle camere, Arriflex, BMD, Red etc ci sono frequenze diverse da tagliare, ad esempio le BMD lavorano meglio con un filtro che tagli le frequenze da 680nm in su.