Carlo Macchiavello

Tutto è possibile

Category: Articoli

Youtube e la compressione digitale

YouTube-logo-full_color

In questo periodo mi capita di parlare spesso della compressione digiltale in funzione della distribuzione on line, e in particolare di Youtube, spesso trovo molta ignoranza sul come trattare il materiale, un po’ perchè ormai la maggior parte dei software hanno un profilo chiuso che non ci permette di editare i parametri di compressione, un po’ perchè molti non sanno neanche di cosa si parli quando si esporta un video, sembra che sia solo una operazione per finalizzare e basta.

quando va tutto bene, non è importante conoscere cosa sta dietro a tutto questo, ma quando abbiamo necessità di ottimizzare dei file per un particolare prodotto o dispositivo, o in questo caso per un Social come Youtube, dobbiamo impare di più di ciò che sta dietro le quinte, e quindi è necessario introdurre diversi argomenti.

Le basi della compressione

Quando si prende un video e lo si esporta da un qualunque programma di editing o di postproduzione ogni immagine viene nuovamente elaborata e successivamente compressa in modo più o meno distruttivo a seconda del tipo di compressione, di tipo di target che ci serve e da un grande numero di impostazioni del programma, dal contenuto dei video, da come il software gestisce il contenuto originale del video

Quando si carica on line un video sulle diverse piattaforme di sharing come Youtube, Vimeo, Facebook etc viene nuovamente compresso con regole e principi dettati dai creatori della piattaforma.

Quindi banalmente il video subisce al minimo tre compressioni, quando viene catturato, quando viene esportato, quando viene ricompresso dai server delle varie piattaforme. Il che vi può dare un’idea di come la qualità possa decadere molto e rapidamente.

Molti si chiedono il perchè, ci sono diverse ragioni :

  • il primo motivo è la compatibilità, se i server dovessero fare il play di mille formati, codec e frame rate il risultato sarebbe uno sforzo immenso, e le richieste dei player per la compatibilità influenzerebbero negativamente l’esperienza visiva, quindi per semplificare youtube converte sempre i filmati nel miglior rapporto di qualità visione on line.
  • il secondo motivo è altrettanto banale, se i server di Youtube lavorassero con la qualità massima sempre, sarebbero intasati dai milioni di video fatti coi cellulari a bassa definizione (dimentichiamo il fatto che salvano in fullhd o 4k, perchè conta soprattutto il sensore), quindi esistono dei formati predefiniti con cui gestire il materiale fornito
  • il terzo motivo è pratico dovendo inglobare e gestire diversi formati e bitrate, chiedere alle persone comuni di fare i diversi formati è troppo complesso, per cui loro acquisiscono il nostro materiale e in automatico viene convertito per il formato ottimale di play per il 1080p e tutte le sue declinazioni inferiori (720p, 480p ,360p ,240p).

Se guardiamo le specifiche di youtube scopriremo che youtube preferisce filmati con un certo formato, un certo datarate e determinati settaggi. Se usiamo formati e caratteristiche diverse il filmato potrà essere caricato, ma la compressione sarà più aggressiva e distruttiva rovinando la qualità del filmato. Se usiamo formati di qualità più alti rispetto alle specifiche, comunque la gestione del server lo ridurrà al formato di default quindi si sarà sprecato più tempo e in alcuni casi andremo a perdere anche in definizione.

Perchè esistono ancora formati ridicolmente bassi come 360p e 240p?

perchè esiste un sistema automatico che per mantenere la fluidità di visione, se la rete internet attraverso il quale noi vediamo il filmato è lenta, si guarda una versione più leggera come peso e risoluzione per mantenere la fluidità. Inoltre esistono una marea di dispositivi che nonostante sia prodotti nuovi, hanno risoluzioni schermo molto basse, e quindi scaricare un filmato 1080p su un dispositivo (uno smartphone) che ha uno schermo che al max arriva a 576 o meno, sarebbe uno spreco di risorse e dati scaricati.

Ricordiamo che oggi l’uso principale dei social è via strumenti mobile, e per quanto si parli di fibra e gb come niente, esiste un mondo limitato al 3g in molte zone, o anche meno, e dato che la richiesta di banda cresce molto più velocemente della creazione di nuovi ponti e nuove celle telefoniche (i blackout di rete che avvengono durante i periodi di vacanza lo dimostrano) è importante poter fornire il servizio anche quando le risorse sono scarse.

La compressione altera più del necessario

Durante l’esportazione un programma di montaggio esegue un rendering, operazione che esegue più operazioni contemporaneamente, a seconda del programma lavora in spazi colore più ristretti o più estesi; nella compressione dei dati gli algoritmi devono tener conto di tanti fattori.

Spesso non ci si rende conto che ci sono operazioni che possono rendere più “morbido” il filmato in esportazione, che solo chi ha esperienze di compressione conosce e sa dove agire.

Scalatura : quando il programma scala una fotografia o un filmato, sia a ingrandire che a rimpicciolire, se non ottimizzato bene può far perdere qualità/nitidezza (sull’encoder adobe ci sono in più parti ottimizzazioni relative proprio a questo fattore).

Cambio di frame rate : quando il programma esporta da un frame rate all’altro deve creare in più modi i fotogrammi intermedi, o togliere dei fotogrammi, e questo può influenzare la fluidità del filmato o la nitidezza nel momento in cui vengono creati nuovi fotogrammi con le tecniche di interpolazione.

Cambi sulla luminanza e sulla crominanza : ogni tipo di manipolazione del croma e della luminanza possono evidenziare artefatti digitali presenti nel filmato originale, possono ridurre le sfumature di colore per limiti dello spazio colore, possono amplificare il rumore video perchè ne spostano la collocazione originale pensata dal codec di ripresa.

 

La compressione diretta

Immaginando di avere il filmato finito e perfetto a misura, al frame rate corretto, senza interventi, la compressione prende i dati e li ottimizza e riduce dentro gli schemi di compressione dell’h264.
H264 è un codec con degli standard ma diversi parametri e modi di comprimere i dati, per cui a seconda di come si setta un video il risultato può essere più o meno definito, più o meno dettagliato.
gopPer ridurre lo spazio occupato il formato H264 utilizza la tecnica del GoP, Group of Picture, in pratica se giriamo a 30 fotogrammi al secondo e abbiamo un GoP 15,  il codec registra il primo fotogramma intero, poi ne registra uno intero dopo 14 fotogrammi, e dei fotogrammi intermedi ne registra solo le differenze tra uno e l’altro. Questo significa che se nel filmato non ci sono movimenti camera o tanti oggetti in movimento, la compressione, pur mantenendo la qualità ci permette di ridurre molto il peso del file.

Su youtube viene suggerito un valore pari a metà del frame rate, il che significa che se il filmato ha molti movimenti all’interno del frame, oltre a non sfruttare bene il bitrate si rischiano degli errori o difetti di movimento, ad esempio se c’è una esplosione in un filmato oppure, cosa più facile si inquadra dell’acqua in movimento, oppure dei coriandoli gettati in aria, diventa più difficile per il codec distribuire il datarate, e quindi ogni tanto si potrebbe sentire un saltino.

Una possibile soluzione è dimezzare il gop, quindi invece della metà dei frame, ogni quarto dei frame al secondo, in modo che ci siano più frame interi per gestire meglio gli oggetti in movimento veloce.
Ad esempio 6 per il 24p (6×4=24), 5 per il 25p (5×5=25), 5 per il 30p (5×6=30).

L’altro parametro che ci permette di controllare la qualità è il data rate, ovvero la quantità di dati al secondo che può gestire per ogni fotogramma, più alto è il data rate, più alta è la qualità di ogni fotogramma, mentre abbassando il datarate il risultato è che le immagini perderanno nitidezza, e spesso appaiono zone di solarizzazione perchè non ci sono abbastanza informazioni per registrare i dettagli più fini.

Il datarate appare come un valore in Mega per secondo, ma la sua distribuzione nei fotogrammi che contengono un secondo è legato al metodo sottostante.

Variable o Costant bit rate definiscono come il data rate verrà distribuito lungo una sequenza

L’opzione Costant bitrate, la distribuzione è fissa, per cui ogni fotogramma riceve la stessa quantità di dati, il che offre una maggior fluidità di decompressione del filmato, perchè richiede buffer più semplici da gestire, ma in caso di filmati dove si alternano rapidamente scene con grande movimento con scene statiche, è possibile trovare molti sprechi di datarate, e quindi un file di minor qualità. Ad esempio se abbiamo una inquadratura di un’auto ferma che esplode, durante l’attesa viene sprecato datarate sui frame statici e magari per l’esplosione non ci sono sufficienti dati per gestire la qualità e il dettaglio delle fiamme in movimento veloce.

L’opzione Variable bitrate invece è un metodo che utilizza un valore variabile di dati, da un minimo ad un massimo e con un algoritmo che analizza la quantità di dati in movimento e distribuisce meno datarate dove ci sono frame statici, mentre un numero più alto dove ci sono movimenti ampi, movimento veloce o grande dettaglio di movimento.

quindi riassumendo :

  • GoP : valori più alti riducono il peso del file ma contribuiscono ad introdurre possibili artefatti nel movimento
  • Data rate : valori alti danno maggior qualità e maggior peso al file, bassi valori riducono il peso ma a seconda del contenuto (dettaglio immagini e quantità di elementi in movimento) si riduce la qualità del file finale.
  • CBR o VBR per gestire la qualità costante o distribuire meglio la qualità esistono due metodi di calcolo dei dati per ogni fotogramma, il primo offre una compressione più veloce e costante nella distribuzione dei dati, il secondo è più lento, ma sui filmati con molti dettagli e/o movimento può offrire una maggior qualità finale.

L’ottimizzazione per la compressione

Original with noiseIl contenuto di un video influenza molto il risultato perchè gli algoritmi di compressione analizzano il contenuto del fotogramma, dei fotogrammi circostanti per decidere in che modo ridurre le informazioni in modo ottimale dentro il codec. Ironicamente i video con pochissimi dettagli rischiano maggiori danni di quelli molto dettagliati.
Prendiamo un video di un oggetto in movimento su un limbo chiaro, lo stesso filmato ma al posto del limbo mettiamo una distesa di sabbia, il secondo video avrà più nitidezza e dettaglio a parità di parametri di compressione, perchè tutti quei dettagli forzano il profilo di codifica a dare il massimo e spremere ogni dettaglio dalle immagini.

La prima immagine (cliccando si può vedere in fullhd) mostra come la compressione di una immagine con un leggero rumore venga compressa correttamente e non presenti una particolare perdita anche se si comprime molto.

Nella seconda immagine (cliccando si può vedere in fullhd) ho amplificato un poco la struttura dei colori per mostrare come avendo tolto tutto il rumore si formano appena si adenoise to compressionpplica un poco il contrasto o la saturazione una serie di bandeggi / solarizzazioni che evidenziano i limiti del numero di colori disponibili per gestire quella sfumatura.

Oggi spesso si tende a volere video troppo pulito, si applicano forti denoise per togliere ogni tipo di grana o rumore video, ma eccedendo in questa pratica spesso si vedono immagini che tendono a creare il fenomeno del banding, ovvero si vedono le strisce di colore, perchè senza il rumore che “mescola” e inganna la visione si vedono tutti i difetti.

Ricordiamo che indipendentemente dal vostro video di partenza, che abbia anche una sorgente a 12 bit (ovvero miliardi di colori e sfumature) quando usciamo per youtube abbiamo un Output a 8 bit, ovvero 2 alla ottava per canale, che apparentemente sono ben 16 milioni di sfumature, ma se noi riprendiamo un cielo, al massimo dal blu più chiaro che è bianco, al blu più scuro che è nero abbiamo solo 256 sfumature pure, quindi senza un po’ di rumore che mescola le diverse strisce di colore con la tecnica che una volta veniva chiamata “dithering” si rischia di vedere i singoli bandeggi del colore.

Anche dalla sola thumbnail è possibile vedere come la versione senza rumore rischi molto di più nella compressione.

NATURALMENTE questo è un caso limite in cui ho forzato i difetti per renderli evidenti, spesso i risultati essendo più contenuti non sono altrettanto visibili.

Perchè il mio video si vede peggio di un altro fatto con la stessa camera

 

di sicuro non è colpa di youtube 😀

Ora dopo essermi preoccupato di avere le simpatie degli avvocati di Google, posso darvi delle buone ragioni tecniche per cui ogni video sarà diverso anche se fatto con la stessa camera.

Ogni volta che si realizza una ripresa, la qualità del video ha una serie di parametri che determinano la nitidezza, la qualità delle immagini, presenza o assenza di rumore, etc. Pretendere che due persone anche usando la stessa macchina, stesse lenti, nello stesso luogo contemporaneamente ottengano lo stesso risultato di qualità è molto complesso, e necessita di un allineamento di tanti parametri, non a caso quando si fanno riprese multicamera, che sia per cinema, televisione, etc si utilizzano sempre dei target (tabelle di riferimento univoche) per allineare in post tutto il materiale, perchè comunque basta che una persona cambi il diaframma per avere meno luce in ingresso e l’altro cambi invece gli iso, e le immagini saranno diverse in nitidezza e contrasto, immaginate se magari si hanno lenti diverse, e molto altro ancora…

Inoltre basta solo cambiare angolo di ripresa, e avendo luce diretta, riflessa, laterale, controluce, le immagini non saranno solo diverse come luce, ma avranno comunque dominanti e strutture diverse.

Cosa funziona meno bene su youtube?

Quando carichiamo un video, ci sono dei fattori che influiscono su come verrà ricompresso il file, quindi è importante tenerne conto per non rimanere delusi.

  1. la quantità di dettagli delle immagini
  2. i contrasti all’interno del quadro
  3. i cambi scena con differenze notevoli di luminosità
  4. il rumore / noise del filmato originale
  5. la risoluzione originale di caricamento del filmato

per fare un esempio, lo stesso video in 4k caricato sia su youtube che su vimeo ha dato origine a risultati differenti, su youtube, che tengono poi un bitrate di uscita più basso, la versione in FHD ha un maggiore effetto di banding rispetto a vimeo, se carico direttamente il video in formato FHD la qualità su youtube e su vimeo sarà superiore perchè sarà solo ricompresso ma non scalato.

youtube_fhdvimeo-hdA Oggi 1 ottobre (specifico perchè gli algoritmi sono in continuo sviluppo) il sistema di youtube/vimeo offre un buon rapporto qualità fluidità di streaming a prezzo di una compressione sia nei dati che nella risoluzione, per cui va considerato che possiamo valutare solo la qualità della resa nel formato che abbiamo caricato noi, le altre non avendo controllo sulle varianti create da youtube non dobbiamo farci troppi problemi altrimenti ci rovineremmo la salute mentale e basta.

  1. quando carichiamo un filmato di animazione, con toni piatti, l’encoder sa cosa deve fare, ovvero dettagli intorno ai bordi, pulito nei toni piatti. Quando carichiamo un filmato ripreso in pieno giorno pieno o meno di dettagli l’encoder sa di dover preservare a meglio tutti i dettagli possibili.
  2. la differenza di contrasto comporta il fatto che l’encoder darà spazio alle parti più luminose, ma meno alle parti più scure causando facilmente del banding e la presenza di elementi di blocking in movimento nelle parti più scure.
    in generale tutti gli encoder non tengono grande considerazione degli elementi nelle ombre perchè sono considerati meno importanti, dato che il cervello guarda principalmente le parti illuminate.
  3. nei cambi scene, a seconda di come viene fatta l’analisi del filmato per la compressione in CBR o VBR possono esserci più o meno bit a disposizione delle immagini al cambio scena, per cui ci possono essere dei salti e artefatti più presenti nel cambio scena. In quei casi è importante come si impostano i keyframe, se i cambi scena sono frequenti è meglio impostare dei keyframe più bassi come valore in modo che l’analisi sia fatta più di frequente, e quindi il filmato fornito a youtube abbia più informazioni in quelle parti.
  4. come già detto in precedenza, un leggero noise permette di nascondere gli eventuali bandeggi nelle sfumature, e soprattutto forza gli encoder ad analizzare meglio e più attentamente i dettagli dei filmati, quindi anche un noise molto leggero è utile per avere immagini più pulite nel risultato finale.
  5. Più alta è la risoluzione di partenza, migliori saranno le scalature, ma dipende anche dalle strutture.
    Ad esempio come si può vedere nelle immagini sopra, su vimeo sia vedere il file 4k scalato a Fhd, che il fhd direttamente, la qualità è lineare, mentre su youtube la scalatura compromette molto di più la qualità, creando banding e altri difetti, ma si sa che vimeo ha un bitrate molto più alto, quindi la qualità è senza compromessi.

Flickera, strappa, la panoramica che non va?

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

E’ divertente vedere come sulla rete siano presenti risorse infinite, ma allo stesso tempo si diffondano tanti pareri e concetti errati per il semplice copia e incolla, condividi, o voglia di essere … l’esperto del Bar Sport come nel libri di Stefano Benny

Contrariamente a quello che la maggior parte dei sedicenti esperti i concetti di ripresa base sono pochi e semplici, legati a principi di percezione visiva basilare, che non possono cambiare perchè non dipendono dalle camere e dalle loro tecnologie, ma dalla capacità dei nostri occhi di percepire le immagini in movimento e come vengono elaborate dal cervello..

I nostri occhi catturano la luce, che rimane impressionata sulla retina per un tempo X definito persistenza retinica; quando l’occhio percepisce una serie d’immagini in sequenza :

  • se la differenza è corretta le immagini si fondono e vengono percepiti come movimento fluido
  • se la differenza è troppo grande il cervello percepisce le singole immagini, quindi un movimento scattoso, stroboscopico.

All’inizio della storia del cinema si lavorava a camera fissa, e il frame rate era variabile, perchè definito da una manovella girata dall’operatore, quando si iniziò ad automatizzare il tutto utilizzando dei sistemi  a molla prima e poi motorizzati, si è trovato il giusto bilanciamento tra fluidità e uso della pellicola nei 24 fotogrammi al secondo.

Con 24 fotogrammi al secondo, girati in modo corretto, si ha la percezione del movimento fluido, al di sotto si percepisce uno scattino più o meno pronunciato tra un fotogramma e l’altro. Il numero di fotogrammi al secondo, per anni il Santo Graal dei filmaker convinti che fosse il segreto dell’effetto cinema, è solo uno degli elementi che servono per ottenere un corretto risultato di percezioni fluida del movimento lineare, circolare, o della camera in movimento.

Mito 1 : è la pellicola a creare l’effetto cinema fluido, il digitale non lo può fare

hateful eightil segreto della fluidità è data da più fattori, che vanno correttamente impostati.
L’uso di un sistema di ripresa a pellicola rispetto al digitale non è fondamentale, quanto la cura con cui vengono girate le immagini. Se una qualunque persona con una macchina digitale semi automatica può provare a fare delle riprese e ottenere dei risultati decenti, con la pellicola si deve avere più cura e conoscenza in ciò che si fà, il che include le regole che troverete in fondo all’articolo per ottenere la corretta ripresa e riproduzione del movimento.
Sicuramente la proiezione in pellicola (anche di un materiale girato in digitale) offre una maggior fluidità della proiezione digitale della maggior parte dei proiettori (troverete la spiegazione più avanti).

Mito 2 : sono i fotogrammi al secondo che fanno più o meno fluido il filmato

Fattore relativamente corretto, più fotogrammi uguale più frammentazione di un movimento veloce, quindi la differenza tra i frame si riduce e si hanno meno probabilità di vedere i difetti, ma non si può pensare di girare a 120 fotogrammi al secondo per fare un play a 120 fotogrammi al secondo, la maggior parte dei televisori, proiettori e monitor non sono in grado di riprodurli. E fino ad ora tutti gli esperimenti di cinema in HFR (High frame rate) che sono banalmente 48 fotogrami al secondo invece che 24, hanno dato una percezione troppo … “reale” da come mi è stata descritta da tanti spettatori, amici, ma non tecnici, che non solo non apprezzavano l’effetto, ma al contrario lo hanno definito “come guardare il telegiornale”, decisamente meno cinema.

Mito 3 : è la camera a fare la differenza

b_unbroken_2_01Diciamo di si, è vero che alcune cineprese sono migliori di altre, i sensori leggono in modo diverso le immagini e quindi il risultato cambia, diventando più o meno piacevole.
Addirittura alcune camere possono riprendere il movimento in differenti modi e quindi forniscono una cattura diversa dell’immagine.

Ad esempio le macchine fotografiche catturano le fotografie con la tecnica del global shutter, ovvero in uno stesso istante cattura tutte le informazioni del sensore, ma quando lavorano per il video lavorano con la tecnica del rolling shutter, ovvero catturano sequenzialmente le linee, dall’alto verso il basso, il che significa che la stessa immagine se scattate una fotografia o catturate un fotogramma da un video offrirà una cattura del movimento differente, con distorsioni, effetti jello, e altre problematiche, questo riduce la percezione dell’effetto cinema.

Il rolling shutter non va demonizzato, dipende dalla sua velocità di lettura, molte cineprese digitali utilizzano la tecnica del rolling shutter per aumentare la gamma dinamica, ma la velocità di lettura del sensore è abbastanza alta da non doversi preoccupare dei difetti del rolling shutter.

Un altro elemento importante, che è il motivo per cui le vdslr sono entrate prepotentemente nel campo video è il contrasto dell’immagine, dove la classica telecamera offre una immagine molto dettagliata e contrastata, generata da un sensore a 8bit con caratteristiche ben precise, la dlsr nasce con un sensore da 12 a 14 bit che cattura molte più informazioni di luminosità e colore, offrendo immagini più morbide nel contrasto e ricche di sfumature, come si comporta la pellicola; addirittura le cineprese digitali partono da sensori a 16bit, per simulare più accuratamente la sensibilità e la curva dinamica della pellicola.

Mito 4 : c’è qualche filtro di post nascosto per fare il cinema

Anche se in postproduzione è possibile aggiustare qualcosa, per rendere più fluide le immagini, spesso il risultato è meno piacevole e corretto della ripresa fatta con le corrette impostazioni. Non esiste l’effetto cinema in post, se una immagine è ripresa male, si può limare, ma non si può trasformare il video in cinema, l’immagine stroboscopica in immagine fluida (con le eccezioni di post particolari e in particolari situazioni). In alcuni casi è possibile aggiungere la Motion Blur che si avrebbe catturato nella ripresa con Shutter corretto nella fase di post, ma da inquadratura a inquadratura il risultato e la qualità del risultato può variare quindi non si deve dare per scontata la cosa.

Mito 5 : ci sono dei segreti che i DoP famosi non vogliono condividere

Mai mito fu più sbagliato, dal 1935 la ASC americana quando pubblicò la Bibbia dei Direttori di fotografia, dove ci sono tutte le specifiche di ripresa corrette, giunto alla decima edizione, oggi si può acquistare in versione cartacea e digitale su Amazon Manuale vol 1, Manuale vol 02.

Chiunque voglia seriamente lavorare nel campo della ripresa deve conoscerlo a memoria, ci sono ogni tipo di tecnica e spiegazione pratica di come ottenere il giusto risultato di ripresa, che sia pellicola o digitale non cambia nulla, perchè i principi sono indipendenti dal mezzo di ripresa.

Mito 6 : la ripresa interlacciata è più fluida
meglio fare interlacciato e poi deinterlacciare

Mai mito fu più sbagliato, la ripresa interlacciata ha una maggior percezione di fluidità perchè i due semiquadri che compongono l’immagine vengono catturati in due istanti separati, quindi combinati insieme offrono una percezione di maggior mosso rispetto alla ripresa progressiva con gli stessi valori, nel momenti in cui si deinterlaccia con una qualunque tecnica si andrà a buttar via buona parte delle informazioni di movimento di uno dei due semiquadri, e si tornerà ad avere un fotogramma progressivo con le stesse caratteristiche di cattura di movimento della ripresa progressiva, ma con quasi la metà delle righe orizzontali, quindi avremo perso dal 30 al 40% della definizione.

Come ottenere un movimento fluido corretto?

Il segreto della fluidità è data da più fattori, che vanno correttamente combinati, se sbagliate uno di questi fattori, le immagini saranno scattose, che siano immagini digitali, che siano create da un programma di grafica 3d, che siano realizzate da una telecamera.

Quando catturiamo una immagine in digitale i fattori principali che influenzano la fluidità di movimento sono :

  1. Diaframma.
    Una delle ragioni per cui si sono diffuse molte le vdslr è la loro capacità di sfuocare molto anche a diaframmi più chiusi grazie al sensore di grandi dimensioni, questo oltre ad aiutare a concentrarsi sui soggetti senza saper lavorare di luce e scenografia, aiuta anche a ridurre l’effetto strobo, perchè sfuocando davanti e dietro il cervello uniforma e “impasta” maggiormente le informazioni correggendo anche eventuali leggeri strobo.
    Il diaframma regola aprendo e chiudendo le lamelle la quantità di luce entrante, il che ha due risultati diretti sull’immagine :
    Diaframma aperto, profondità di campo ristretta, zona a fuoco molto corta e contrasto tra luce e ombra più morbido
    Diaframma chiuso, profondità di campo più estesa, maggior contrasto globale dell’immagine.
    a diaframma aperto abbiamo un minor contrasto delle immagini che aiuta il cervello a fondere i diversi fotogrammi in unico movimento fluido.
  2. Otturazione o Shutter.
    Il tempo in cui catturiamo il singolo fotogramma definisce la nitidezza degli oggetti in movimento. Esiste una regola per cui la otturazione dovrebbe essere sempre il doppio dei fotogrammi al secondo, per cui se giriamo a 24 fotogrammi al secondo l’otturazione dovrebbe essere di 1/48 di secondo. Tutto questo nasce dal cinema e dall’otturatore a farfalla. Questo rapporto 2:1 fa si che le immagini siano abbastanza nitide quando sono ferme per percepire correttamente il dettaglio, ma abbastanza sfuocate quando si muovono velocemente per rendere più fluido il movimento percepito.
    Più è veloce il movimento, maggiore sarà la scia lasciata dall’oggetto e fotogramma dopo fotogramma offrirà una maggior fusione tra uno e l’altro dando origine ad un movimento fluido e continuo.
    Spesso si vedono riprese stroboscopiche perchè si alza troppo lo shutter per compensare la luce, cosa che si fa ogni tanto in fotografia, ma nelle riprese video è un grave errore che può portare notevoli problemi.
    Meglio mettere un filtro Neutro e ridurre la luce piuttosto che alterare come viene catturata la stessa.
    La regola generale è 1 / Numero dei Fotogrammi al secondo x 2 = tempo di otturazione.
  3. Iso.
    La sensibilità iso reale normalmente è una, in certi casi al max sono due con sensori sovrapposti, il resto sono elaborazioni analogiche o digitali del segnale catturato, ma come nel caso della pellicola, a bassi iso abbiamo più dettaglio e morbidezza, ad alti iso abbiamo meno dettaglio e più contrasto, quindi andiamo contro la regola n5 della fluidità.
  4. Lunghezza focale.
    Questo parametro è fondamentale perchè se noi lavoriamo con un grandangolo e giriamo di 5 gradi la camera, la differenza nell’immagine è piccola, mentre se applichiamo lo stesso movimento su un teleobiettivo spinto, la differenza tra una immagine e l’altra potrebbe essere di metri…
    La regola è semplice : la velocità di movimento della camera sarà inversamente proporzionale alla lunghezza focale della lente.
  5. Contrasto immagine.
    Il contrasto dell’immagine è un parametro fondamentale per gestire l’effetto strobo all’interno di un movimento, perchè maggiore è il contrasto dell’immagine e maggiore sarà il tempo che rimarrà impressa la parte luminosa dell’immagine sulla retina contro le parti scure, quindi se abbiamo un movimento su una campitura chiara di elementi molto scuri, o viceversa, sarà più facile percepire un movimento stroboscopico contro un’immagine che abbia un contrasto minore.
    Non a caso quando si riprende in pellicola (per tornare al mito 1) la capacità di compensare meglio la differenza di luminosità,  e in particolare le alte luci della pellicola offre immagini più morbide e piacevoli della ripresa digitale classica.
    Inoltre oggi si tende con la correzione colore ad aumentare i contrasti e rendere molto più forti i due estremi amplificando questo difetto.
  6. Movimento di camera
    La velocità di movimento della camera in senso orizzontale o verticale comporta un cambiamento più o meno ampio dell’immagine in funzione della focale (vedi regola n. 4), quindi la velocità va regolata in funzione di come cambierà l’immagine altrimenti risulterà stroboscopica.
    Non a caso dentro il mitico Manuale di American Cinematographer che ho indicato all’inizio dell’articolo contiene una serie di tabelle con le velocità di spostamento in funzione del framerate e della focale montata.
    La regola generale qui non esiste, perchè ci sono troppe variabili in gioco, inoltre a seconda dell’immagine più o meno contrastata si può variare la velocità e la percezione risulterà più o meno corretta, immagine più contrastata (vedi regola 5) più lento, immagine più mrobida di contrasti, più veloce.
    Esiste un trucco per superare alcuni limiti, in alcune occasioni : se dobbiamo fare una panoramica o una ripresa a schiaffo, si abbassa l’otturazione, in modo che ogni fotogramma in movimento diventerà molto più sfuocato durante il movimento veloce, amplificando la percezione di velocità e si evita l’effetto stroboscopico.
  7. La dimensione dell’immagine percepita.
    Banale, ma molti non ci pensano, chi nasce nel cinema, pensa in grande, quindi ogni tipo di movimento viene pensato per essere visto su uno schermo di grandi dimensioni, e quindi i fattori elencati fino ad ora sono tenuti in grande considerazione. Ogni differenza tra un fotogramma e l’altro viene amplificata, quindi tutta l’esperienza percettiva viene amplificata. Lo stesso movimento su un 40 pollici comporta una differenza di un cm tra un fotogramma e l’altro, visto su 15 metri di schermo diventa 60-70 cm e a seconda della distanza dallo schermo diventa quasi fastidioso quel salto perchè superiore alla capacità di fusione del cervello.
    Regola di base, non usare solo la visione sui monitor di controllo camera o un monitor piccolo per verificare i movimenti veloci, ma testare anche sulle grandi dimensioni, dato che non tutti hanno la possibilità di testare al cinema le immagini, basta un semplice videoproiettore, se si può investire su una camera di medio livello e attrezzatura varia, si può investire 5-600 euro per un buon proiettore HD o superiore per testare l’immagine su 2-3 metri di larghezza e avere la percezione corretta del movimento senza elaborazioni o postprocessing di vario tipo (per fortuna nessun videoproiettore ha i vari chip pixelworks e simili che tritano le immagini).

A questo punto conoscete le ragioni tecniche per cui una panoramica scatta o salta mentre fate una ripresa, quindi dovete ragionare di conseguenza per correggere la o le cause di tale problema IN RIPRESA perchè l’aggiunta di sfuocatura di movimento in post è fattibile entro certi limiti e comunque nella maggior parte dei casi sarà meno naturale di quella reale.

In sintesi i movimenti strappano perchè la differenza tra un fotogramma e il successivo è troppo grande per essere percepita dal cervello come movimento fluido, e quindi vengono percepiti i singoli fotogrammi.

Queste ragioni tecnico pratiche globali che valgono per ogni mezzo di ripresa analogico (pellicola) o digitale (cineprese), si devono tenere in mente ogni volta che si fa una ripresa, altrimenti successivamente si possono avere problemi non risolvibili in postproduzione.

Perchè al cinema il film lo vedo meglio che a casa?

Esistono diversi motivi, sia che si veda in pellicola che in digitale di solito se un film è pensato per il cinema è ripreso e gestito nel modo corretto (batman dark night return presenta alcuni punti con strobing, Civil war durante i combattimenti è inguardabile, shutter altissimo e molto fastidioso, ho avuto modo, grazie ad un amico gestore di cinema di guardare frame by frame le sequenze e tecnicamente sono aberranti, fastidiose, vedevo mezzo cinema che strizzava gli occhi…

movie-theaterQuando si proietta in pellicola si può apprezzare una maggior fluidità per un fattore tecnico molto semplice, l’otturatore a farfalla. Quando si proietta una pellicola esiste una operazione che viene ripetuta 24 volte al secondo : otturatore aperto viene visto il fotogramma, otturatore chiuso il fotogramma viene sollevato per passare al successivo.

Questa operazione fa si che ci sia la classica luce intermittente che proviene dalla cabina di proiezione (che si può vedere in tanti vecchi film), e soprattutto fa si che colpendo lo schermo e rimbalzando sulla retina i diversi fotogrammi si fondano insieme, perchè mentre sta scendendo l’immagine impressa sulla retina del primo fotogramma, arriva la luce del secondo fotogramma che si fonde su una parte del primo, rimasta per persistenza retinica, in questo modo viene creata una forma di blending dell’immagine residua rendendo più fluido il passaggio da un fotogramma all’altro.

La proiezioni digitale invece manda luce continua sostituendo istantaneamente un fotogramma con il successivo, quindi essendo sempre i fotogrammi al massimo della luminosità sono più forti e non si mescolano tra di loro nello stesso modo, causando una maggior incidenza di possibile strobo rispetto alle stesse immagini proiettate dalla pellicola. Infatti nei moderni proiettori digitali stanno ripristinando l’otturatore a farfalla per migliorare la fase di visione dei film.

Purtroppo ci sono alcuni produttori di televisori che stanno sperimentando la malsana idea di fare pannelli giganti per sostituire i cinema con dei supertelevisori delle dimensioni del telo del cinema, spero vivamente che tale trend non prenda mai piede, considerati i possibili problemi di fruizione dell’imagine che possono introdurre, oltre al fattore tv nel riprodurre una immagine nel modo corretto, già è difficile trovare un televisore fedele a ciò che viene introdotto in esso, figuriamoci se fanno un discorso del genere al cinema…

Quando vediamo lo stesso film a casa, sa Dio cosa andiamo a vedere, perchè difficilmente un televisore ha la capacità di lasciare intatte le immagini, gli ingegneri video che lavorano per le varie case produttrici di televisori hanno l’arroganza di pensare cosa sia meglio per noi durante la visione di una immagine, masticandola con processori d’immagine che saturano all’inverosimile i colori, contrastano fino a trasformare ombre delicate in macchie nere, aumentando la nitidezza fittizzia con maschere di contrasto che creano dei bordi attorno ad ogni dettaglio ad alta frequenza, che eliminano ogni sorta di rumore video trasformando una spiaggia in una distesa di colore sfumato, perchè il dettaglio della sabbia per loro era rumore, e per ultimo, a seconda dei tifosi di fluidità o nitidezza c’è il partito di “flash” che aggiunge sfuocatura di movimento a ogni pixel in movimento più veloce di X facendogli lasciare la scia come il noto supereroe della DC nella serie anni 90, oppure quelli che la devono eliminare completamente perchè loro vogliono vedere nitida ogni cosa, trasformando il più delicato film in una brutta telenovelas anni 80….

Ora io ironizzo, ma vi posso garantire che trovare un televisore in cui si possa disabilitare ogni singolo parametro di manipolazione e vedere le immagini originali, quelle su cui centinaia di persone hanno sudato settimane se non anni per realizzarle è un’impresa titanica…

Log o non Log, ma quale log?

gamma-power-law_chart

Cos’è il log

Log è l’abbreviazione del termine Logaritmico, ovvero la registrazione delle informazioni di luminosità e saturazione non con informazioni lineari, ma Logaritmiche, il che comporta la capacità di registrare in un numero limitato di informazioni una maggior quantità di sfumature e luminosità, per massimizzare al meglio le possibilità della postproduzione successiva.

In soldoni, il log crea una immagine molto morbida come contrasti e saturazioni, che offre tutta una serie di vantaggi nella cattura e nell’uso.

Perchè il log non è uno standard

La cattura logaritmica è uno standard, ma le curve di contrasto e saturazione applicate durante la cattura,no.
A seconda dei sensori, delle marche, del formato log (della curva applicata in cattura) le immagini risultati saranno differenti, quindi poi successivamente offriranno più o meno spazio di azione nella postproduzione.

A seconda delle macchine, cineprese digitali come Red, Alexa e BMD offrono un log con curve più semplici da gestire in funzione del livello di contrasto della mia scena da riprendere e quindi la scelta della curva log si fa direttamente proporzionale al contrasto presente (più contrasto + flat sarà la curva scelta / meno contrasto meno flat sarà la curva del log), mentre nel caso di macchine come sony dove ci sono curve di contrasto molto flat, è fondamentale scegliere bene il profilo, magari con l’ausilio di un monitor con i falsi colori, per capire bene come il sensore sta catturando ed esponendo le diverse parti dell’immagine; se la immagine viene codificata in un log molto flat (poco contrastato) come quello sony c’è il rischio che nella registrazione si perdano delle parti dell’immagine, perchè invece di avvantaggiarsi dello spazio log per gestire le immagini molto contrastate, se ne prendeno le debolezze.

Perchè è utile

Il log nasce per catturare un numero maggiore di informazioni nella codifica limitata dello spazio 8bit o 10bit, in modo che i file, pur essendo più leggeri contengano tutte le informazioni utili per la post. Il log, sposta le informazioni nello spazio migliore in cui possono essere registrate.

Vantaggio 1 : Ogni sensore ha una gamma dinamica, una capacità di catturare informazioni con poca, giusta o tanta luce, normalmente tutte queste informazioni hanno un peso di dati non gestibile direttamente dalle camere (tranne quelle che registrano il raw), per cui i dati vengono elaborati e compressi sia come colore (vedi articolo sulla profondità colore), sia come luminosità. Utilizzare il sistema di codifica Log ci permette di catturare in una gamma ridotta (8bit) uno spettro maggiore di informazioni.

Ogni codec durante la fase di compressione utilizza degli schemi di eliminazione dei dati inutili o ridondanti, per ridurre lo spazio occupato dai file, ma questo fa si che riduca anche dati che potrebbero essere utili. I codec di compressione classici, come H264, tendono a scartare tutte le informazioni non distinguibili, per cui se abbiamo in una immagine delle ombre profonde, il codec scarta tutte le informazioni dentro le ombre perchè tanto l’occhio percepirà ombre completamente nere, e quindi le informazioni sarebbero inutili… se non vogliamo applicare colorgrading per alleggerire quelle ombre, estrapolando a quel punto il nulla…

Vantaggio 2: Nel momento in cui utilizziamo lo spazio Log le ombre vengono spostate in alto nelle informazioni medio-basse, mentre le alte luci nelle medio alte, quindi dove il codec di compressione protegge tali informazioni, offrendo una maggior possibilità di postproduzione perchè ha protetto le informazioni importante.

Vantaggio 3: Il rumore del processore essendo registrato con un minore contrasto spesso tende a ridursi e a sparire in molti casi, per cui un file log a parità di cattura con un Rec709 offrirà meno rumore video.

Vantaggio 4: saturazione ridotta vuol dire meno possibilità di banding e soprattutto si riduce il rischio che qualche colore molto saturo possa andare fuori scala negli 8 bit (256 sfumature pure per componente) e quindi appiattire certi elementi o ombreggiature di colore

Perchè in tanti lo osteggiano

Perchè non hanno studiato e capito come funziona per la loro macchina, pensando che sia una opzione da abilitare sempre o comunque, lo mettono anche su scene piatte, andando a creare immagini troppo piatte, che richiedono una certa conoscenza in post e non semplicemente mettere una Lut di conversione.

Se una immagine è registrata in Log nel modo giusto basta solo alzare saturazione (meglio la vividezza) e il contrasto a gusto e si ottiene una ottima immagine pulita e ricca di dettagli. Registrare in Log non significa registrare in raw, significa avere un segnale video compresso catturando una maggior gamma dinamica potenziale, ma comunque dobbiamo preoccuparci di :

  • fare il bilanciamento del bianco
  • settare correttamente Iso ed esposizione
  • gestire correttamente l’esposizione dell’immagine
  • in alcune macchine scegliere il log (la curva di Log) corretto.

Motivi per non usare il log

Personalmente trovo una manna avere la possibilità di catturare le immagini in modalità Log, prima di avere quella possibilità avevo profili camera che simulavano alcune delle caratteristiche del Log per lasciarmi più spazio in postproduzione.

Comprendo anche che molte persone abbiano modi di vedere differenti, e quindi ritengo che non debbano usare il log coloro che :

  • Devono girare solo il materiale e darlo in pasto a terze parti che non sanno usare il Log.
  • Non sanno come girare il materiale Log, non conosco le scelte da fare e per non rischiare di avere immagini troppo piatte meglio avere una immagine classica.
  • La macchina ha troppe curve di Log che essendo molto flat (sony) non sanno cosa scegliere.
  • Non c’è tempo per fare la post minima del log (non ci credo…).

Un esempio pratico

Qui potete vedere due immagini girate in Rec709 sopra e in Log sotto.
Dato che il Log dimostra le differenze nelle immagini estreme e non in quelle demo con illuminazione morbida, ho scelto una immagine notturna che mette alle corde i sistemi di compressione, i sensori, la gestione della luce e dei colori, con contrasti molto alti.
Le immagini, tranne l’ultima, sono in 4k x 4k per poter vedere effettivamente nel dettaglio la differenza di qualità tra le due modalità di ripresa

Log vs rec 709 original

 

 

 

 

Il girato ci appare in questo modo (con un click potete vedere alla risoluzione originale, 4k i file)

Apparentemente il log è leggermente più slavato ma sembrano simili prima di una eventuale postproduzione.

 

 

 

 

 

Log vs rec 709 illuminato

 

 

 

 

Per vedere bene la differenza tra le due immagini basta schiarire leggermente le immagini per vedere come la prima girata in Rec709 dimostri problemi e maggior rumore rispetto a quella sotto girata in Log.

 

 

 

 

 

log vs rec709 corretti

Dopo aver applicato una leggera correzione al Log per portarlo vicino al Rec709 sembrano essere simili, ma in realtà se guardiamo bene nei dettagli le differenze ci sono, sia nelle esposizioni delle luci, e le bruciature in quelle zone, sia perchè l’immagine Rec709 essendo più contrastata ha perso dettagli nelle ombre appiattendo la profondità della scena.

 

 

 

 

 

 

 

 

Con l’ingrandimento del dettaglio dei fari diventa evidente come quello sopra sia più grezzo e il rumore intorno ad esso sia notevolmente maggiore

rispetto al log sotto.

Quando un colorist ci chiede un flat, quale log dobbiamo dare?

nessuno… e tutti
non esiste un log migliore in generale, ognuno ha pro e contro, se è meno contrastato e meno saturo si rischiare di perdere tonalità nella compressione, se troppo contrastato e saturo è poco utile come log, dipende dalla scena che andiamo a catturare e dalle curve di log, tanto al colorist non interessa quale log avete applicato quanto lo spazio di lavoro per agire nel suo campo. Se mai vi chiede quale log avete usato per applicare la corretta LUT di correzione… cambiate persona perchè quello non è un vero colorist ma un applicatore di preset, che offende la categoria dei colorist.

Lo scopo di chi registra (dop, dit) è catturare la gamma dinamica più ampia per offrire al colorist il maggior spaziodi lavoro utile, poi eventualmente se clip sono tutte simili, sbviluppata la prima applica alle successive lo stesso tipo di sviluppo / correzione, ma questo vale per blocchi di clip legati alla ripresa, non esiste possibilità che una lut (non sviluppata sul set in loco) possa ottenere un corretto sviluppo del vostro girato senza farvi perdere parte della gamma dinamica.

 

sapere di non sapere, abbastanza… la mia utopia verso il mondo

Oggi parliamo del non sapere…

in una società che vi offrono di diventare Expert, Guru, Professional xxx di qualcosa in un click, cambiando spazzolino da denti (giuro ho appena visto la pubblicità) è strano definire di sapere di non sapere.

socrateTanti secoli fà un filosofo molto più saggio di me, Socrate, disse e scrisse : so di non sapere.

Sono un curioso e un’avida spugna della conoscenza, ogni campo in cui posso avere un minimo di curiosità desidero accumulare più conoscenza, e non ne sono mai soddisfatto. Qualunque campo in cui devo interagire, per natura, non mi accontento di sapere qualcosa, devo smontare ogni elemento del campo per renderlo più produttivo e soprattutto averne conoscenza per averne un maggior controllo.

Il mio principio è che non sapendo abbastanza di un argomento potrò mantenere una minima umiltà per far si che possa accettare di dover imparare ancora molto, e allo stesso tempo mi piace conoscere di più, sapere che c’è sempre un oltre a quello che già so, mi da la tranquillità che posso imparare tanto di più 😀

Nell’ambito lavorativo ho una curiosità insita nel lavoro di ogni persona, capire come funziona il suo ruolo, il suo lavoro, perchè… beh ho una idea folle, ma non tanto, avendo una buona base di quello che sarà il lavoro di chi collabora con me, posso collaborare meglio fornendogli le informazioni, gli elementi nel modo corretto per farlo lavorare meglio. Come trovo inaccettabile chi mi passa materiale scadente o di bassa qualità pur avendo modo di darmi molto di più per pigrizia o ignoranza (causata dalla pigrizia o superficialità perchè non gli compete il seguito del lavoro), voglio poter far si che chi lavora con me possa avere il materiale e le informazioni al meglio, per poter lavorare perdendo meno tempo e qualità possibile. Per fare questo devo imparare i ruoli e i mestieri di tante altre persone, ma se nel mondo fosse composto di una persona ogni 100 come me, molti lavori e processi sarebbero molto più semplici e veloci.

un esempio tecnico? immaginiamo di dover postprodurre del materiale video, se ci mandano un export completo del filmato su cui lavorare invece che il materiale originale spesso si deve fare il triplo della fatica, per preservare qualità e magari inventarsi qualche trucco per mascherare al meglio e scontornare del materiale che al momento di lavorare sugli originali avremmo risolto in un decimo del tempo.

Un esempio pratico? immaginiamo che dovete metter mano a del materiale, e chi ha fatto le riprese pur avendo tempo non ha inserito i metadata in camera, quello che erano pochi secondi per l’operatore sono ore in cui si guarderà e catalogherà il materiale più volte, soprattutto per distinguere una sequenza dall’altra, quando chi ha fatto le riprese sapeva esattamente perchè erano differenti.

Un esempio di pigrizia? un fonico che invece di settare la data e l’ora sul recorder se ne frega di questi dettagli, il risultato è che poi per distinguere il materiale si perderanno ore per ascoltare e distinguere i materiali, mentre se si imposta ora e data in un attimo si potranno accoppiare alle riprese.

Un esempio di sottovalutazione dei ruoli? quando si tratta con un reparto marketing e alla richiesta del logo dell’azienda, invece di mettervi in contatto con il reparto grafico, vi girano un file word con dentro una jpeg a bassa definizione del marchio. Se esiste un reparto grafico, è perchè servono conoscenze ed esperienze che non hanno al marketing, quindi perchè scavalcarlo? e soprattutto perchè lamentarsi se il logo poi risulta sfuocato, se non sapete neanche il perchè?

in ogni caso c’è un problema di superficialità e menefreghismo, dando per scontato che finito il proprio lavoro, quello degli altri non li riguarda… se c’è la prima volta un problema di ignoranza, c’è il fattore “mi sono chiesto se quando do questo materiale a chi lo deve ricevere lo potrà usare subito oppure deve fare fatica per capire cosa ho realizzato?”

l’altro lato della conoscenza del mondo moderno è che da ogni lato si trova gente che vi vuol vendere conoscenza, e al 90% (si lo so, parte del mio business è fare corsi, e sono conscio di ciò che sto per scrivere) chi vende conoscenza non ce l’ha…

E’ veramente inquietante come la maggior parte dei consulenti, delle persone che vendono conoscenza ed esperienza sono quelli che hanno meno competenze nell’ambito in cui vorrebbero dirvi cosa fare… per cui diffidare sempre, a partire da se stessi, e soprattutto da chi è troppo sicuro di se stesso.

Socrate diceva: so di non sapere, io mi permetto di aggiungere per essere più chiaro l’avverbio “abbastanza”.
Finchè ci porremo dei dubbi, vorremo apprendere di più, dubiteremo delle fonti, e cercheremo conferme, sapremo di essere nel giusto, chi si afferma nella verità assoluta sarà sempre fonte di grandi paure e dubbi da parte mia.

Lavoro in un ambito in cui da un giorno all’altro l’evoluzione della tecnologia, dei metodi operativi, delle tecniche di lavoro cambiano e si evolvono continuamente, quindi le certezze sono teoria, la pratica poi dimostra come molti elementi si evolvono e cambiano da un mese all’altro per cui avere certezze assolute vuol dire essere monolitico, statico, che in un mondo in continua evoluzione è sintomo di essere obsoleti ancor prima d’iniziare.

Oggi grazie al web 2.0 tutti possono diffondere notizie di ogni tipo, ma purtroppo se venti anni fa era difficile trovare informazioni, oggi è difficile da trovare le informazioni corrette in mezzo a tante informazioni errate o distorte.
Purtroppo la fretta con cui si muove il mondo moderno porta le persone a accettare per buone le prime notizie per buone, magari partendo da wikipedia, una delle fonti e raccolte più ampie dell’ignoranza mondiale, dove col fatto che chiunque può scrivere, chiunque può inserire informazioni errate per il gusto di contribuire, senza aver controllato ciò che inserisce…

Per chi pensi che sia un retrogrado, un antico, premetto che sono stato il primo a fondare mezzi di diffusione della conoscenza sulla rete più di venti anni or sono alla sua nascita, non ce l’ho con le nuove tecnologie, ma con il loro abuso indiscriminato.

Per wikipedia (notizia che ho fatto cancellare) mi ero traferito in australia (terra che trovo splendida, ma non ci sono mai stato) e sono morto in seguito all’attacco di un rinoceronte mentre facevo delle riprese per un film… wordpress ha tanti plugin, ma non quello della pubblicazione da morto :-PP quindi se leggete queste notizie, forse proprio morto non sono. Questo dimostra che le notizie pubblicate non essendo contro-controllate, possono contenere tante inesattezze, e se un amico non mi avesse cercato preoccupato, chissà per quanto sarebbe rimasta on line quell’informazione, e quanto si sarebbe diffusa nel mondo.

Ci sono stati in questi ultimi anni troppe notizie diffuse tramite i social ma anche teorici siti più affidiabili tramite ansa etc, che per la fretta di condividere la notizia, hanno portato scompiglio e/o inesattezze a livello mondiale. Dubitate sempre e verificate sempre più fonti, altrimenti sarete delle bandiere in balia del primo soffio di vento della rete…

 

8 bit, 10bit, 24bit, 32bit che razza di bestie sono quando esporto?

Cosa significano le diverse sigle?

In tante occasioni parlando di video di sentono diverse sigle che in un modo o nell’altro influenzano la qualità dell’immagine che andiamo a vedere e soprattutto a manipolare.

Quando si lavora con il video nella maggioranza dei casi si parla di video catturati a 8 bit, questo valore si riferisce alla componente colore singola, quindi il sensore o il sistema di registrazione cattura 2 alla ottava, il che significa 256 informazioni colore.

256 toni di colore per il canale del rosso, 256 toni per il canale del verde, 256 toni per il canale del blu.
La combinazione di tutte queste possibili sfumature creano una immagine che può contenere 16 milioni e rotti di combinazioni possibili, ovvero una immagine a 24bit.

quando si aggiunge il canale alfa ad una immagine a 24 bit, dato che il canale alfa segue le stesse capacità e regole del colore, avremo una immagini a 256 toni di grigio che definiscono la trasparenza totale (100% di luminosità) o la totale opacità del pixel (0% di luminosità).

quindi abbiamo una immagine a 24 bit (R = 8, G= 8, B=8) + 8 bit di alfa, totale immagine a 32 bit.

quando andiamo a esportare una immagine abbiamo teoricamente (dipende se e come il software supporta l’esportazione) la possibilità di esportare video e immagini a diverse profondità colore, più è alto il numero, maggiori sono le informazioni contenute e quindi maggiore è la qualità registrabile.

Parlo di qualità registrabile perchè se importo un video a 8 bit e lo esporto a 16bit, non significa che il video diventa a 16bit, non migliora l’immagine, nè aumentano i colori originali, restano gli stessi, ma se ho applicato dei filtri di correzione colore, probabilmente esportando a qualità più alta PRESERVO la qualità originale.

da un programma posso esportare :

8 bit per canale : 24 bit + eventuale alfa 8 bit che diventa 32bit
16 bit per canale : 48 bit + eventuale alfa 16 che diventa 64bit
32 bit per canale : 96 bit + eventuale alfa a 32 che diventa 128 bit (solo da vfx e software di post)

quando si parla di video, possono essere registrati a diversi bit da 8, 10, 12, 16 bit a seconda del codec di lavoro e dalle impostazioni dello stesso. Naturalmente avere uno spazio colore maggiore significa avere più informazioni e quindi più spazio di azione dove intervenire con la corezione colore o con la postproduzione in generale.

Perchè servono più di 16milioni di colori?

perchè in realtà quei colori sono la somma di tutti i colori possibili dei tre canali colorati, ma se devo fare una sfumatura di rosso puro, blu puro (il cielo) ho solo 256 possibili sfumature di blu, oltre intervengono leggeri squilibri degli altri colori, che portano il blu del cielo ad andare verso il verde, oppure verso il magenta, quindi non è più il colore puro.

Perchè non posso usare solo 8 bit se ho registrato una immagine nel modo corretto?

perchè non solo il limite è in registrazione, ma soprattutto nella post produzione, per comprendere meglio è possibile fare un esempio molto semplice, creare un colore sul limite e poi aumentare la sua luminosità.

esempio scostamento coloreDopo aver creato un colore rosso di un valore leggermente sbilanciato, ovvero col verde maggiore del blu ho semplicemente applicato una luminosità molto alta, e come potete vedere nelle informazioni finali, il colore non si scosta in modo lineare, perchè il rosso essendo già al massimo (255 come valore) non si può muovere, quindi salgono verde e blu, ma non in modo lineare e proporzionale, quindi man mano che rendo più luminosa l’immagine la quantità di verde del colore aumenta, quindi il rosso si inquina e cambia il colore originale.

Se invece avessimo avuto uno spazio colore a 16bit, dove le possibili combinazioni sono maggiori, il range di lavoro non è più 0-255 ma 0-32768, quindi le possibili sfumature realizzabili prima di ottenere uno scostamento colore evidente sono maggiori e più morbide.

Quando esporto un video a 8bit cosa posso esportare?

quando apriamo un pannello di compressione di un software, a seconda di quale codec esportiamo possiamo selezionare una profondità colore differente, ma attenzione che se si considera anche il canale alfa potremmo esportare più di quanto serve, anche quando non serve.

Se seleziono una esportazione a 8 bit, significa che esporto un file a 24 bit (8+8+8), ma se si attiva l’esportazione del canale alfa, in realtà noi esportiamo un file a 32bit perchè il file colore è a 24bit + 8 bit di canale alfa. Nella maggior parte dei casi il file sarà usato allo stesso modo, quindi nessun problema, ma in situazioni specifiche come con le macchine di messa in onda, un file a 32bit, anche se magari la parte del canale alfa è vuoto, viene rifiutato, e quindi è fondamentale sapere come esportare il materiale nel modo corretto.

Quando si lavora cosa può cambiare se lavoro in uno spazio colore più ampio?

Il discorso è molto semplice, se prendiamo una immagine e spostiamo le informazioni di luminosità, da uno spazio a 8 bit a 8 bit c’è il rischio di perdere delle informazioni intermedie perchè non c’è lo spazio corretto dove spostarli. basta confrontare l’istogramma del progetto a 8 bit con quello a 16bit.

confronto correzione colore 8 16bit

L’istogramma della correzione 8bit si vede come diventa frammentato, con diverse frequenze che spariscono e quindi rappresentano informazioni perse durante la correzione delle informazioni mentre nell’istogramma a 16bit queste informazioni vengono conservate perchè esistono più posizioni è possibile mantenere le informazioni anche di fronte ad una manipolazione più aggressiva dei valori.

Anche se poi il risultato finale sarà esportato in un file codificato a 8bit, la sorgente sarà di un file elaborato a 16bit e quindi preserverà meglio le informazioni originali.

Questo è il motivo per cui i software di correzione colore professionale lavorano solo in uno spazio colore a 32bit per canale, in modo che ogni operazione applicata ai colori delle immagini saranno a prova di errore e non ci sarà rischio di degrado causato da limitazioni dello spazio di lavoro.

Quando si lavora con AfterEffects e si manipola il colore, avere uno spazio colore di lavoro a 16bit serve a preservare il materiale durante la correzione colore, se si lavora con Premiere è importante abilitare le spunte “Rendering alla profondità massima” in modo che il calcolo interno delle elaborazioni del colore sia fatto a 32bit e quindi si corregga al meglio e nello spazio più ampio anche se poi andiamo a esportare in un codec usando solo gli 8bit di registrazione finale. DA RICORDARE come premiere, non essendo un programma di post, il calcolo nello spazio più ampio colore lo esegue in presenza di video manipolati da effetti a 32bit, nel caso la sequenza contenga anche un solo filtro a 8 bit, tutto il rendering sarà eseguito a 8 bit e non nello spazio colore a 32bit.

e quindi?

nella normalità si lavora a 8 bit, perchè le fonti medie di dslr, telecamere medie è a 8bit, e quindi solo per l’export di materiale fortemente manipolato lavorare negli a 16bit fa la differenza, mentre se non vi viene chiesto l’export di materiale con caratteristiche diverse, per fare dvd, bluray, file per tv, file per Online (youtube, vimeo, etc), file per messa in onda è a 8 bit, senza canale alfa.

Dal passato con furore…

Chiunque mi conosca sa che ho una certa passione per le lenti vintage.

Acquistare una lente vintage significa rinunciare nella maggior parte dei casi agli automatismi, il che non è un male, se per usarle non si ha fretta o non le si vuol usare per fotografia o ripresa sportiva. Per quanto mi riguarda le lenti vintage a me servono per fotografia e ripresa in condizioni più o meno controllate, e quindi non sono interessato agli automatismi, anzi spesso li disabilito per avere il controllo.

Perchè una lente vintage, vista la vasta gamma di lenti che le case fotografiche offrono oggi?

oggi vengono vendute lenti a 80-100 euro che non valgono neanche i fondi di bottiglia, ma poste su camere che le riconoscono, che correggono in camera i difetti, e contrastano, rendono nitide in post, per molte persone possono essere una buona base di partenza. In passato non esistevano prodotti di bassissimo livello, perchè la pellicola non perdonava certi difetti, e la camera non poteva rielaborare le immagini, quindi molte lenti partivano già da un buon punto di partenza a livello qualitativo.

Le lenti vintage a seconda di chi le vende e dove le si comprano possono essere un ottimo affare a livello di rapporto qualità prezzo delle lenti.
Il fatto che lavorando solo in manuale diventano inutili o poco comode per molte persone, il corpo in metallo pesante per altri, che preferiscono i “plasticotti” leggeri, spesso si trovano occasioni sui mercatini, nelle aste di usato e on line.

Naturalmente esistono anche nel vintage lenti poco attraenti come qualità, tutto sta nel sapere cosa si cerca e dove si mettono queste lenti. Se si punta su marchi noti come Leica e Zeiss si ha la certezza che qualunque lente sarà al minimo di ottima fattura, poi ci sono diversi marchi russi che usavano lo stesso schema e tipo di lenti di Zeiss, ma con prezzi più popolari, e li a seconda degli obiettivi si poteva avere dei piccoli gioiellini o dei prodotti di media fattura. Altri marchi come Nikon, a seconda della lente e del periodo, offrono interessanti prodotti.

Volendo posizionare queste lenti su sensori moderni, non dimentichiamo che devono essere lenti di qualità per essere in grado di risolvere abbastanza informazioni per fornire ai sensori moderne dettagli sufficienti per costruire delle belle immagini, quindi la scelta deve andare di conseguenza su lenti di un certo valore.

Cosa mi offre in più una lente vintage?

mi offre le sue imperfezioni, la sua unicità.
Una lente moderna è creata in totale automazione, per cui se prendo 10 50mm 1.2 di un certo marchio so che intercambiandoli avrò lo stesso identico risultato, mentre se prendo anche due lenti vintage, prodotte parzialmente da opera artigianale, avrò dei risultati differenti, anche di poco ma avrò un qualcosa di personalizzato. Si narra che lo stesso Kubrick, fanatico ed esperto di fotografia, avesse chiesto a Zeiss diverse lenti dello stesso tipo, per scegliere e comprare quella che preferiva per ogni focale, così che fosse la sua lente, la sua scelta visiva.

Quale scegliere?

quelle che ci piacciono di più… io mi sono innamorato del look delle Nippon Kogaku, una serie prodotta dalla Nikon, prima che prendesse il marchio Nikon tra gli anni 50 e 60, lenti particolari, prodotte tutte in metallo pesante, grandi lenti limpide che offrono una luce pulita e morbida, pur lasciando molto dettaglio al loro interno.

Totalmente meccaniche si possono adattare all’attacco canon in modo facile e rapido con un anello, oppure se si vuol fare un lavoro fatto bene, l’azienda di barcellona chiamata Leitax crea baionette da sostituire alle originali, così avremo un saldo e robusto attacco nativo per canon.
Una alternativa disponibile per le conversioni delle sole lenti Canon FD è l’americano EDMIKA, che ora ha aperto un centro di conversione anche in Europa.

Il particolare coating di queste lenti non protegge troppo dai flare se riprendo direttamente la luce o in controluce, creando aloni attorno agli oggetti in controluce e particolari riflessi che trovo più interessanti e meno asettici delle lenti moderne, che nel tentativo di rendere perfette le immagini si adoperano per togliere il più possibile di questi difetti, che però danno un certo sapore alle immagini.
Mi fa sorridere l’idea di come si scelgano lenti moderne per evitare flare e aloni, e poi ci si adoperi in vari modi per aggiungerli in postproduzione, sia perchè lo trovo uno spreco di tempo, sia perchè alla fine dato che tutti quelli che li aggiungono in post, essendo dei preset, saranno tutti più o meno uguali, mentre con le lenti vintage quel tipo di comportamento è reale e quindi sarà differente ogni volta che si farà una ripresa.

Le foto che vedete qui sopra sono fotogrammi raw catturati con un sensore s35 4k, praticamente come una fotocamera 8,9 megapixel 12bit raw, che alternano un semplice 35mm 2.0 ad un piccolo gioiello, l’85mm serie H 1.8 della Nippon Kogaku, una lente per la quale l’ingegnere ottico prese la massima onorificenza dall’imperatore del giappone per il lavoro svolto nella qualità ottica e costruttiva; quante lenti oggigiorno possono vantare un simile background?

Un altro marchio che mi ha offerto tante soddisfazioni sono le lenti della serie Minolta rokkor MD, ho un 50mm 1.4 che usato con mirrorless mi ha offerto tante soddisfazioni sia come luce che nitidezza, di fronte ad una lente comprata usata per meno di 90 euro.

Un altro marchio molto interessante è Voigtlander, che produceva e produce lenti di altissimo livello, in vari mount, tra cui un mount molto interessante che è il Rolley QBM, il fattore interessante di questo mount è che è molto semplice ed economico adattarlo all’attacco EF canon, basta acquistare una economica baionetta, svitare le tre viti posteriori della lente, togliere il vecchio mount e mettere il nuovo, riavvitare e a questo punto la lente è pronta per essere saldamente unita con moderne camere.

Posseggo uno splendido voigtlander Ultron 55mm 1.4 AR che offre una luce e una definizione spettacolare anche sui moderni sensori, sia al centro che lateralmente anche a tutta apertura. Questi sono fotogrammi estratti da test eseguiti con la lente modificata e montata su una Blackmagic Production Camera 4k, pur vedendo solo dei jpeg è possibile comprendere la qualità offerta da una lente che ha più di 40 anni.

Naturalmente so che ci sono molte lenti Leica e Zeiss di qualità più alta di queste, ma parliamo di costi ben più alti che non avrei potuto affrontare, perchè anche se vintage, invece di perdere valore nel tempo, quelle lenti si sono accresciute di valore.

L’uso delle vintage è una moda o una reale necessità?

personalmente posso dire che ho una doppia ragione, da un lato parlo di un lato economico, perchè posso acquistare lenti vintage di una qualità che non potrei affrontare nelle controparti Zeiss moderne; da un altro lato il mio gusto visivo trova più soddisfazione nell’usare questo tipo di lenti che le asettiche e ultra taglienti lenti moderne, che trovo spesso anche troppo contrastate (non parlo di dettaglio, ma di contrasto luce ombra) per i miei gusti.

Che poi sia di moda in vintage e si cerchi di riprodurre i difetti dei filmati amatoriali del passato, quello è un discorso diverso, ad esempio la moda lanciata dalla Lomo, e la moda della lomografia, macchine e lenti con difetti voluti per simulare le brutte foto o i brutti sviluppi del passato è un tipo di gusto visivo che nasce dalla noia della perfezione moderna, dove chi sa che può riprodurre mille volte lo stesso risultato cerca l’originalità nel finto difetto, o vero difetto. Il che, mi ripeto, lo trovo ironico e divertente in un mondo in cui ci sono persone che cercano la perfezione assoluta, il risultato perfetto e la definizione perfetta.

Leggendo una intervista al leggendario Roger Deakins, ho visto che anche lui, nel campo cinematografico ha una netta preferenza alle lenti prodotte più nel passato che in quelle moderne per un certo modo in cui catturano la luce, e decisamente lui non ha problemi nel scegliere di noleggiare una lente più moderna da una prodotta 20 o 30 anni fà per una cinepresa seria.

LUT cosa sono e a cosa servono.

lut-buddyCosa sono le LUT?

ci sono tanti modi di spiegare una LUT, più tecnico o più pratico, a me interessa spiegare il lato pratico, per il lato tecnico basta una ricerca su Google e trovate mille e più pagine tecniche che vi spiegano cosa sono fino alla formula matematica che le descrive.

Una LUT Look Up Table è praticamente una tabella, un preset che prende i colori di una immagine, di un filmato, e li corregge secondo i valori contenuti nello schema della LUT.
Internamente ci sono tabelle a 1, 2, 3 dimensioni che prendono il valore del colore originale e lo cambiano in un altro valore; le LUT 3D sono quelle più precise, perchè descrivono la trasformazione del colore in modo più dettagliato secondo lo spettro cromatico più esteso, se nella modalità 1D è una tabella valori in cui 1 diventerà 1.22, nella lut 3D cubica abbiamo uno scostamento sui tre assi del colore e quindi avendo una descrizione più dettagliata, sarà più precisa la correzione che la LUT andrà ad applicare.

A cosa servono le LUT?

Le LUT servono a tre scopi diversi, a seconda di quando si applicano tali correzioni.

LUT da set/Monitor : girando con camere che lavorano girando il log o in raw, il materiale se rivisto direttamente sarebbe strano, desaturato, piatto come contrasti, quindi spesso si usano monitor che al volo applicano una LUT per mostrare il materiale secondo una visione più “tradizionale” ad esempio il rec709 che è lo standard video.

LUT di sviluppo : sia sul set che magari dopo, si creano delle LUT per fissare un certo tipo di correzione dell’immagine originale per fissare l’estetica dello shot che viene fatto, in modo che il Direttore di fotografia possa al momento verificare l’effetto generale della ripresa fatta, che dare delle indicazioni in modo che chi si occuperà della fase color grading abbia una indicazione precisa di cosa il Direttore di Fotografia intendeva catturare sul set.

LUT di Postproduzione : si carica o si crea una tabella di correzione per dare un particolare look alle immagini partendo da LUT che simulano il tipo di risultato che si avrebbe in “determinate condizioni” ad esempio le Lut che simulano i diversi tipi di pellicola emulano come i colori e i contrasti si altererebbero in funzione della stampa su quel tipo di pellicola.

per far soldi … vendendo dei preset che forse potranno funzionare, su alcune immagini…

Perchè non funziona la LUT che sto applicando?

La spiegazione è molto semplice, la LUT funziona sempre, è l’immagine a cui la diamo in pasto che non è adatta.
Contrariamente a quello che pensano in molti, le LUT nascono come preset di correzione del colore, sviluppate su immagini di tipo X, quindi le LUT vi forniranno quel tipo di risultato SOLO se voi le applicherete ad immagini con lo stesso tipo di contrasto e densità di colore, altrimenti i risultati possono essere di ogni tipo. Le LUT sono SOLO delle tabelle di allocazione del colore, ma non possono essere senzienti, ovvero non sanno quale sarà il risultato finale, solo di quanto cambiare il tutto.

Come faccio a far funzionare una LUT?

domanda semplice, risposta molto semplice, olio di gomito, si deve alterare l’immagine sorgente PRIMA di applicare la lut in modo che sia il più simile possibile all’immagine originale usata per creare la lut, questo farà si che il risultato finale sarà il più vicino possibile a quello che ci si aspetta dall’immagine dimostrativa della LUT.

Perchè una immagine NON vale l’altra quando applico le LUT?

se una immagine ha un contrasto alto o basso, la LUT scosterà i colori in modo diverso.

qui potete vedere un esempio di come una immagine LOG o in modalità video rec 709 per la una LUT Kodachrome siano sbagliate, e quindi da una delle due ho dovuto creare una immagine ad hoc per poter ottenere un risultato più naturale da quella LUT.

completoIl file Log non è abbastanza flat, il file rec 709 è troppo contrastato e troppo saturo, mentre per far funzionare correttamente la lut ho dovuto decontrastare il log, ma saturarlo un po’ di più dell’originale. Quindi diventa evidente che quando si usa una LUT più “aggressiva” di un semplice sviluppo delicato, spesso è necessario mettere in mezzo un livello di correzione per far funzionare la lut nel modo corretto, lavorando sul contrasto e sul colore, perchè spesso la tabella è troppo forte o poco forte.

La Lut deve essere pensata più da un punto di partenza, che un punto di arrivo, per cui può essere interessante per la manipolazione delle immagini, ma non la si deve pensare come una bacchetta magica, non trasforma in pellicola le immagini che gli date in pasto alle Lut, ma aiutano lo sviluppo delle immagini per arrivare ad un determinato risultato.

La free Lut per simulare la cara e vecchia Kodachrome è un dono fatto dal cinematographer Frank Glencairn, la potete trovare sul suo blog in questo interessante Articolo sullo sviluppo del colore in stile kodachrome.

Come le lavoro le immagini prima delle LUT?

con qualunque strumento che vi permetta di vedere in realtime le applicazioni di Lut e correzione colore in contemporanea, ad esempio lo strumento LUMETRI di premiere cc 2015.5, che contiene la possibilità di caricare le LUT in due punti diversi, sia per lo sviluppo base e poi per lo sviluppo creativo, e la cosa interessante è che nello sviluppo creativo i programmatori di Adobe hanno introdotto controlli di regolazione colore come lo “sbiadito” e vividezza; sbiadito è la traduzione un po’ grossolana di bleach pass, il candeggiante, che aiuta l’applicazione delle LUT rendendo più “flat” piatta l’immagine riducendo contemporaneamente sia la saturazione che il contrasto; la vividezza è uno strumento che aumenta il colore inversamente al valore della saturazione degli elementi, oppure toglie colore in modo direttamente proporzionale alla quantità di saturazione degli elementi, molto utile per uniformare i valori di saturazione dell’immagine, riducendo gli eccessi e i contrasti di saturazione che complicano l’applicazione delle LUT e tutte le altre lavorazioni di correzione colore.

Su photoshop ad esempio le LUT si applicano come livello di regolazione, per cui possiamo inserire prima del livello di LUT due livelli di regolazione di valori tonali e vividezza e controlliamo agilmente l’immagine vedendo anche quanto la LUT la cambia e “dosiamo” l’intervento della lut stessa.

Posso applicare le LUT ad ogni tipo di immagine?

Le lut nascono per lavorare al meglio su immagini flat che nascono da file log o raw, per cui applicandole su immagini morbide e poco sature le LUT possono agire bene, e possono funzionare di più al secondo colpo.

Perchè dico al secondo colpo? Perchè log non è uno standard, se prendiamo un file log di una red, di una blackmagic, di una alexa, di una dbolex avremo tanti log diversi, diverse saturazioni e diversi contrasti. Log è un file in cui il colore e il contrasto invece di essere registrati in modo lineare sono registrati in modo logaritmico per gestire meglio e più latitudine di posa e informazioni, ma ogni azienda ha il suo modo di gestire e catturare le informazioni log.

Ad esempio logC Alexa e log blackmagic sono molto simili, Alexa tiene la saturazione più alta, Blackmagic più bassa, ma il contrasto di luminosità è invertito, quindi la LUT sviluppata sulle immagini di una non va bene su quelle dell’altra e viceversa.
Entrambe le camere registrano un log 10bit in .mov e un 12bit log raw, partendo da un sensore 16bit, ma la curva di gestione è differente.
Potete trovare qui alcune indicazioni della curva di log della Alexa.
Questo significa che anche salendo su camere più professionali non esiste un modo standard di creare le immagini e catturarle allo stesso modo. Se una Lut potesse magicamente equilibrare le immagini e dare l’aspetto X indipendentemente dalla sorgente, probabilmente sarebbe superfluo avere sia sul set che in post diversi ruoli e diverse professionalità, ma nonostante i tentativi di filtri, sistemi di allineamento colore in post, uso di tabelle come il target gretag e simili, i sistemi di correzione colore automatici al massimo posso aiutare a “normalizzare” ovvero uniformare le immagini tra di loro, ma di certo non a creare la magia, per quella servono sempre gli esseri umani.

Un altro esempio di come una camera non possa lavorare in modo lineare è dato dal fatto che a seconda della lente che poniamo davanti, dell’iso impostato, anche lavorando con le stesse condizioni cambierà il contrasto di luce, e quindi anche poi la saturazione. Quindi anche usando la stessa camera, e girando in raw, dove non avvengono elaborazioni, ma si cattura esattamente ciò che il sensore legge, basta aprire o chiudere i diaframmi della lente fissa, che cambiando il contrasto una lut usata a TA (tutta apertura) sarà inutilizzabile a 11 di diaframma perchè l’immagine andrà massaggiata prima di essere sottoposta alla lut.

4k la vecchia frontiera del nuovo, in attesa dei televisori 8k che non potremo vedere

Pur essendo un fautore del 4k per la ripresa, perchè offre molto materiale su cui lavorare, tanti vantaggi in ogni operazione di manipolazione del materiale, sono convinto che sia l’ennesima bufala del 21 secolo per vendere il nuovo televisore, i nuovi vecchi contenuti.

Perchè il 4k è inutile nei televisori, nei cellulari, nelle telecamere amatoriali?

senza parlare del fatto che se non viene usato per la postproduzione è uno spreco di risorse cpu del dispositivo di cattura, spazio di memoria occupato, surriscaldamento del dispositivo, il 4k su un dispositivo al di sotto di determinate dimensioni è uno spreco inutile. L’acutezza visiva di un essere umano medio è tale da percepire circa 1/10 mm a circa 50cm di distanza, considerato che un pannello 4k di dimensioni medio è una densità di 110 ppi, ovvero su un 40 pollici si parla di 4 punti per mm quadro, peccato che un 40 pollici si guarderà da almeno 150 cm dove la capacità risolutiva è scesa in media a 2-3mm, quindi ci sono ben dieci volte le informazioni percebili da un essere umano medio…

questo calcolo è valido esclusivamente se noi abbiamo una fonte 4k pura, perchè se su quel televisore vediamo un filmato 4k da streaming, youtube 4k, cellulare o altri elementi in realtà non avremo tutte quelle informazioni, perchè il pannello offre quella definizione, ma i dati trasmessi non li hanno, per cui il televisore sarà completamente inutile….

quindi perchè comprare un televisore 4k oggi?

Facciamo una analisi molte semplice e rapida dei pro e dei contro :

Pro:

  1. è una grande cornice digitale ad alta risoluzione per le vostre fotografie
  2. se ho una vera cinepresa digitale 4k posso vedere le immagini nel loro reale splendore, se sto molto vicino al 40 pollici che ho comprato.

Contro:

  1. non ci sono ancora contenuti veri in 4k con cui sfruttare una tv 4k
  2. lo standard bluray 4k è ancora teorico, ma non esistono bluray 4k in commercio
  3. non esistono ancora film girati completamente in 4k, quindi comunque si vedrebbero filmati “gonfiati” e non nativi 4k
  4. lo streming 4k in realtà offre meno di 2,7 k di risoluzione effettiva, il resto nasce per interpolazione quindi nuovamente inutile.
  5. la trasmissione 4k è teoria, in realtà ad oggi sono pochi i canali in FullHD (1920 x 1080), la maggior parte al max sono hd (1280×720).
  6. i televisori 4k non hanno decoder digitali per ricevere segnali 4k perchè non sono ancora stati definiti standard di trasmissione 4k, quindi al momento in cui esisteranno i canali 4k il nostro televisore sarà già obsoleto e non in grado di mostrare i filmati alla risoluzione 4k.
  7. la lettura di filmati FullHd offre una visione sfuocata dei contenuti (perchè gonfiata 4 volte) oppure troppo incisa perchè per mascherare l’immagine morbida viene processata mangiando in realtà diversi livelli di dettaglio durante le operazioni crude di sharpening. Quindi per vedere un bluray è un pessimo veicolo.
  8. costerà molto di più di un equivalente fullHD di qualità, non offrendo ad oggi la possibilità di vedere immagini realmente differenti.
  9. nel visualizzare immagini amatoriali 4k da cellulari, telecamere etc non è detto che esse abbiano sufficiente dettaglio per mostrare immagini di qualità per sfruttare la matrice 4k
  10. per percepire la reale differenza tra un tv 4k e un tv Fhd si deve andare dai 50 pollici in su, che però si dovranno vedere più da lontano e quindi si torna all’assurto iniziale, inutile per la maggior parte delle persone che non hanno la capacità visiva di apprezzarne il dettaglio a livello fisiologico.

perchè il 4k al cinema non serve?

la proiezione 4k è una piccola truffa, perchè in realtà la maggior parte dei film viene girata con cineprese digitali in 2k, come le alexa, per cui il fatto che venga poi proiettato in 4k non da nessun vantaggio di fatto, anzi, è un inutile flettere i muscoli di tutto il sistema, perchè richiederà 4 volte lo spazio originale del 2k, risorse maggiori per il play e la gestione dei contenuti senza dare un reale vantaggio.

Ma veramente non si vede la differenza?

Nolan si vantava di aver girato in Imax (formato in altissima definizione pellicola) l’ultimo cavaliere oscuro e Interstellar, e un sacco di gente ha detto di aver notato la differenza..
Sarei curioso di chiedere a quella stessa gente se mi sa indicare in quali inquadrature ha notato la differenza, perchè nessuno dei due è girato completamente in Imax, troppo costoso, troppo grandi e scomode le cineprese, etc etc… per cui sono state alternate le riprese di s35 tradizionali a quelle di imax (prettamente degli esterni dove era più semplice gestire macchine da presa più ingombranti)… soprattutto visto che queste pellicole nella maggior parte delle situazioni sono state viste in sale digitali su proiettori 2k, quindi dove tutto era appiattito e spostato verso il basso.

Altro punto a favore per l’impasto generale è dato dal fatto che molti film subendo digitalmente una postproduzione molto pesante, anche solo a livello di editing e color correction, non si è poi in grado di distinguere nelle riprese brevi fatte da dslr, go pro, telecamere, da cineprese professionali. Il tutto grazie al fatto che vengono utilizzate nella situazione migliore per estrapolare al meglio la qualità visiva dai diversi sensori facendole lavorare al meglio delle loro possibilità.

quindi per il 4k è presto?

beh si riprende in 4k per il futuro, perchè si estrae un 2k e un fullHD di altissima qualità, ma usare direttamente il 4k a livello domestico è uno spreco, perchè non è percepibile direttamente dall’occhio nella maggior parte delle situazioni domestiche.

perchè allora proliferano i televisori in 4k e tutte le periferiche 4k?

qualcosa vi devono vendere, o no?
Nel marketing si sono sempre usati i numeri per dare una percezione tangibile di un valore, anche se qui numeri non avevano reale connessione col valore del prodotto.

ad esempio, i masterizzatori sono partiti col 2x dei cd, fino ad arrivare a x52 dei dvd, ma nessuno vi dice che i supporti x52 non esistono, perchè la masterizzazione è un bilanciamento tra velocità di scrittura e numero di errori introdotti, a seconda della qualità del supporto la velocità viene dosata per introdurre un numero minimo di errori di scrittura, per permettere la lettura dei dati e grazie ad un sistema di correzione dell’errore poter risalire ai dati originali. Il concetto della correzione dell’errore di lettura era nato in origine per compensare i difetti di fabbricazione, e/o di graffi o i danni al supporto, nel tempo questo sistema è diventato un metodo per accelerare la scrittura sui supporti basandosi sul fatto che alla fine si riesce lo stesso a leggere i dati.

Il problema dove sta? nel fatto che se si porta un supporto al limite della leggibilità perchè lo vogliamo masterizzare a x52 invece che a x8, basta una leggera usura a rendere illeggibili i dati scritti. Non solo, la scrittura lenta applica in modo diverso il laser di scrittura e introducendo meno errori rende il supporto più resistente anche a usura più forte, esposizione a uv, deformazione del supporto scrivibile,  etc.
Il che fa pensare su come in modo superficiale si scrivano dati su un supporto, senza aver avuto nozioni di come farlo e come conservarlo.. auguri ai masterizzatori da formula 1, forse dopo 3-4 mesi potranno ancora rileggere qualcosa dai loro supporti.

un altro esempio, i megapixel delle fotocamere:

da sempre sembra che i megapixel siano indice di qualità, ma se si schiacciano su un sensore da 1/4 di pollice 40 megapixel, non si può pensare di avere la stessa pulizia e luce di 12 megapixel su un sensore fullframe, perchè la luce catturata da ogni recettore è maggiore. In realtà non sono solo i megapixel ma anche la capacità degli stessi di catturare informazioni, la superficie coperta che offrono la qualità effettiva dell’immagine catturata, ma il concetto è troppo complicato, quindi per la massa + megapixel = + qualità.

ricordo ancora quando regalai a mia sorella una compatta da tre megapixel, in un mondo in cui ne erano già uscite diverse da 5-6 megapixel, ma le fotografie e il dettaglio di quelle fotografie era inarrivabile dalle equivalenti come fascia di prezzo, perchè alcune interpolavano, altre avevano si più recettori ma meno sensibili etc etc.

oggi una gara nelle fotocamere e telecamere è la sensibilità (in realtà anche 25 anni fa, visto che si parla anche allora di riprendere con una candela).
Se non si riprende al buio, e non parlo di luce naturale, ma di buio, allora la camera non è degna di nota… quindi una red e una alexa, cineprese digitali con cui fanno i film che hanno una sensibilità nativa di soli 800 iso sono delle scamorze…

Perchè è già tardi comprare un televisore 4k?

diciamo che la mia è una affermazione provocatoria, ma non troppo…
perchè i giapponesi stanno già sperimentando le trasmissioni in 8k, per cui perchè comprare un prodotto superato, tanto vale passare direttamente all’8k 😀

battute a parte, i giapponesi sono sempre stati all’avanguardia con la sperimentazione, ricordo il primo sistema di fullHD ripresa e visione visto di persona al SIM audio Hifi a milano nel 1992, una sperimentazione congiunta tra RAI e un colosso giapponese Ikegami, ironicamente avevo ripreso tali immagini con la mia potentissima vhs a 200 linee e mi sembrava così lontana come qualità e potenza.

ben prima di questi pioneri già nel 1986 Francis Ford Coppola, prodotto da George Lucas, realizzava uno speciale video clip in 4D (3d più quello che oggi si chiama augmented reality) usando telecamere HD sperimentali con protagonista il grande Michael Jackson in Captain EO.
Questo per far presente come se l’HD era già presente come tecnologia nel 1986, oggi dopo quasi 30 anni, ancora non è lo standard televisivo, quindi valutiamo bene quanto il 4k possa penetrare dentro le nostre case in un paio di anni.
Soprattutto si deve riflettere sul fatto che 4k non vuol dire solo cambiare i sistemi di ricezione, poco costosi, ma cambiare tutti i sistemi di messa in onda e trasmissione, e per le televisioni sarebbe un investimento mostruoso, che dubito faranno così velocemente, visto che molte sono ancora alla Standard definition.

Miracoli digitali

Quando si riprende con una telecamera normale (amatoriale), una dslr o un altro mezzo low cost il filmato viene catturato con una qualità discreta, pensato per essere visto ed editato così com’è, quindi per ottimizzare la qualità e lo spazio occupato in memoria viene eseguito un subsampling del colore, per dover registrare meno informazioni colore.

850px-Chroma_subsampling_ratios.svg

 

 

 

 

 

quindi un classico video ha un colore registrato con un campionamento 4:2:0, questo vuol dire che una volta decodificato in RGB il canale del rosso avrà molte meno informazioni rispetto agli altri colori; in una situazione normale non causerà particolari problemi e la maggior parte delle persone non vedrà il problema, ma …

durante la postproduzione, saturando i colori, viene fuori il problema causando un aumento del problema del blocking, ovvero la visualizzazione dei blocchi di compressione del codec, come potete vedere nell’immagine sottostante.

why red is a bad color for filmakerCi sono colori basati sul canale del rosso che possono dare problemi evidenti, come vedete nell’immagine, rovinando una ripresa.
Alle volte, e sottolineo alle volte, è possibile salvare queste immagini convertendole nel modo più appropriato, usando utility che fanno un upsampling del canale del rosso, in modo da ridurre quegli effetti di blocking.

Esistono diversi strumenti che agiscono su questi canali per ridurre i difetti, a secondo degli strumenti che usate potete far affidamento su diverse soluzioni :

  • Dentro la RedGiant Shooter Suite lo strumento Deartifacter
  • L’utility stand alone di conversione 5D2RGB che converte in Prores 4:2:2 i file 4:2:0
  • Il vecchio programma HD LINK della suite Cineform Pro e Premium (non più disponibile grazie a GoPro che ha eliminato la suite).

personalmente consiglio la suite RedGiant perchè si hanno più elementi di controllo, oltre che tanti strumenti utili per ogni filmaker.

USB 3.0 … dipende diciamo 2.5 vah…

EU-4306_USB3

 

USB 3.0 una evoluzione dello standard per aumentare la velocità di trasferimento dati di xx volte.

Tutti più felici che per copiare i dati, mettere al sicuro i nostri dati, le fotografie, i filmati, i tempi si riducono in modo notevole.

Il mercato è pieno di periferiche di archiviazione usb 3.0, portatili e fissi hanno praticamente quasi solo porte usb 3.0, un paradiso… quasi …

La teoria dice che lo standard 3.0 ci porta dai 60 mb/s al 640 mb/s quindi parliamo di oltre dieci volte più veloce nel trasferire i dati tra un dispositivo all’altro.

La teoria, ma la pratica?

La teoria è questa, mentre la realtà è ben differente, perchè le vere performance sono di gran lunga superiore all’usb 2.0 ma ci sono spesso colli di bottiglia che non vengono considerati.

  • la velocità del chipset della scheda usb 3.0 del computer
  • la velocità del chipset del controller del supporto dati
  • la velocità del supporto da cui si copiano i dati
  • la velocità del supporto su cui si copiano i dati
  • se il supporto sorgente e origine condividono lo stesso controller il chipset riesce a distribuire il flusso dati in modo uniforme.

Facciamo un esempio pratico : compro il disco esterno USB 3.0 di marca nota XX (considerata la velocità con cui cambiano i modelli e i dispositivi, non ha senso indicare marca e modello, visto che lo stesso modello acquistato più volte conteneva dischi diversi e di velocità differenti), provo a copiare dei dati e lo trovo decisamente lento…
Provo a cambiare la porta del computer, niente; provo a cambiare computer, niente; provo a cambiare la sorgente dei dati, niente… sono un testardo, apro il box del disco (annullando la garanzia, ma pazienza), scopro che il disco contenuto è un 3900 rpm, ovvero un disco robusto, a bassa velocità di rotazione, che per un disco da 2.5 portatile è ottimo perchè si riducono le possibilità di danni in caso di urto e cadute in fase di rotazione, ma che riduce le performance effettive durante la copia.

ora nella maggior parte dei casi, i dischi meccanici singoli non hanno la capacità di saturare la banda del sata o dell’USB 3.0, ma se uso dei raid dove la somma delle performance dei dischi si somma, potrei anche arrivare a raggiungerla. Nella media delle persone, nessuno ha il problema di questo tipo, nè soprattutto si accorge delle differenze.

Chi invece deve maneggiare tanti dati professionalmente (backup dati, backup filmati etc) deve tener conto di diversi fattori tecnici, non solo relativi ma combinati tra di loro, perchè un disco veloce con poca cache può essere superato da un disco poco più lento, ma con maggior cache; la differenza di taglia del disco influisce sulle performance, perchè se i dischi sono più densi a parità di giri offrono un output dati maggiore quindi possono offrire maggior velocità al salire con la taglia.

Le incompatibilità che non esistevano sull’USB 2.0

In un mercato dove tutti fanno a gara ad offrire il prodotto usb 3.0 al prezzo più basso sembra di essere in paradiso, ma…
Non tutti sanno che ci sono incompatibilità più o meno forti tra i diversi chipset dei controller delle schede madri e quelli dei box/nas/dischi esterni.

Dopo aver avuto una serie di problemi con diverse schede madri, che sganciavano diversi dischi, ho fatto un po’ di ricerche e ho scoperto che i diversi produttori di chipset fanno a scaricabarile tra di loro per le responsabilità degli sganci dei supporti e/o problemi di comunicazione tra di loro. Esistono centinaiai di thread nei forum informatici che mettono in evidenza che gli accoppiamenti più a rischio sono quando si collegano i chipset :

– JMICRON JMS539 + NEC/RENESAS D720200
– JMICRON JMS551 + NEC/RENESAS D720200
– JMICRON JMS539 + ETRON EJ168A
– JMICRON JMS551 + ETRON EJ168A

quando si combinano questi chipset il rischio, o la certezza, visto che il comportamento che ne consegue è lineare, è che il dispositivo collegato avrà rallentamenti, sganci ogni 10-15 minuti del dispositivo.

Il palliativo sta nel mantenere aggiornati i driver di entrambi i chipset, disabilitare ogni tipo di risparmio energetico sui dischi e sul sistema relativo ai chipset. Ci sono aggiornamenti firmware sui siti relativi ai produttori di chipset, dove si può sperare di ridurre i problemi.

Perchè è importante sapere quale chipset stiamo usando?

perchè a seconda dei prodotti possiamo avere più chipset sulla stessa macchina, ad esempio la piastra gigabyte che usavo prima aveva due chipset diversi, e con una scheda esterna ho introdotto un terzo chipset non incriminato. L’attuale piastra Asus ha tre chipset diversi usb 3.0 e quindi devo stare attento a quale porta USB 3.0 uso per gli hard disk esterni, su due ho i chipset incriminati, per cui se collego il disco WD mini che non ha il controller problematico, tutto ok, ma se collego i nas (ne ho tre, due da 4 dischi e uno da 8 dischi) devo usare il terzo gruppo di porte USB 3.0, che però sono porte esterne, quindi ho acquistato una basetta esterna per portarle dietro a portata di connettori, altrimenti mi si sconnettono ogni 15 minuti i dischi contenuti nei nas.

Quindi si può concludere che…

lo standard Usb 3.0 ci permette di copiare i dati FINO a 640 mb/s a patto che si copino i dati da un disco collegato su un chipset DIVERSO da quello di ricezione.

Cosa posso fare per ottimizzare il trasferimento dati?

  • usare dischi connessi su chipset e standard differenti, ad esempio dischi interni su sata verso o da dischi Usb 3.0 veloci.
  • usare dischi esterni usb 3.0 su due chipset differenti per evitare che il chipset lavorando sia in ingresso che uscita dati non abbia qualche tipo di rallentamento
  • disabilitare ogni tipo di risparmio energetico su dischi interni ed esterni
  • disabilitare il controllo antivirus sui dati in arrivo dal disco X (solo per dati sicuri)
  • usare software ottimizzati per la copia dati e che usino il parity check per avere la certezza della copia dei dati.

Powered by WordPress & Theme by Anders Norén