Tutto è possibile

Categoria: Articoli Pagina 2 di 4

Workflow che parolaccia

Workflow in inglese indica il corretto flusso di lavoro per eseguire nel modo corretto un lavoro X, ma pare che la maggior parte delle persone sia allergica a tale processo.

Nella mia vita ho visto milioni di persone, dal vivo o online lamentarsi che la camera/il programma/lo strumento XXX non fa XYZ, senza studiare come vanno usati o come vanno gestiti correttamente, perchè invece di leggere 10 pagine di manuale preferiscono perdere mesi su facebook e su google a cercare la risposta che hanno sotto gli occhi.

Gente che chiede perchè non riesce a fare l’operazione X che faceva su un prodotto completamente diverso, quando nel manuale è scritto esplicitamente che non si può fare o che si fa in modo diverso. Ad esempio con buona parte delle camere Blackmagic le persone riempono i forum di domande imbarazzanti piuttosto che leggere 19 pagine (con le figure) di manuale, e se una persona arriva a chiedere come si vedono le clip appena girate quando in grande ci sono i bottoni di play con il classico simbolo triangolare, convenzione esistente da prima che nascessi io…

Un esempio che trovo più imbarazzante mi è capitato stasera leggendo su un sito noto di filmaking una tecnica per ridurre l’effetto fisheye delle GoPro usando diversi programmi da HitFilm a PremiereCC e altri, spiegando quale funzione usare e come… peccato che GoPro fornisca gratis un sistema più efficace e di qualità per eseguire quello e altre operazioni importanti per gestire un filmato di una gopro, ma quasi nessuno lo usa… perchè è talmente facile da usare come camera, che tutti la usano subito senza leggere le istruzioni, e quindi… ne usano il 10% del potenziale.

Pur non essendo amante delle gopro per il tipo di ottica presente, sarebbe utile sapere che :

  • posseggono una modalità di ripresa log, detta protune, e un camraw per catturare meglio e in modo più cinematico le immagini proteggendo meglio le informazioni delle alte e basse luci, con differenze qualitative notevoli.
  • possono settare in diversi modi l’otturazione per avere una resa più cinematografica
  • nel sistema stesso di ripresa possono ridurre l’effetto fish eye con una elaborazione realtime della camera con diversi algoritmi creati da David Newman, autore di Cineform e di molte innovazioni Gopro
  • Il software free proprietario permette la lettura e ottimizzazione di un file log protune trasformandolo in un file più utilizzabile cineform attuando anche la conversione colore in uno spazio a 10bit 4:2:2 dal file originale 8bit 4:2:0 eseguendo l’upsampling del rosso e ottimizzando in funzione del file compresso da gopro, cosa che nessun software è in grado di eseguire
  • il software free proprietario legge i metadati della camera ed è in grado di gestire meglio la conversione da fisheys a filmato più “naturale” sfruttando i dati geometrici delle lenti goPro
  • il software free proprietario ha degli algoritmi per ottimizzare i timelapse fotografici realizzati con la gopro per fondere meglio e in modo più naturale i diversi fotogrammi.

E questo solo per dire alcune delle potenzialità che vengono regalate agli utenti gopro gratuitamente, ma che la maggior parte delle persone si perdono perchè non si prendono la briga di leggere le istruzioni o comprendere quale sia il corretto workflow di utilizzo di questa piccola ma potente camera.


Blackmagic Ursa Mini Pro, che mi serve per partire?

Blackmagic Design è una delle case più prolifiche e interessanti degli ultimi tempi, dopo aver introdotto tutte una serie di schede e strumenti video nel broadcast a costi molto bassi, ha iniziato una serie di acquisizioni di aziende sviluppatrici di software e hardware per poter creare un loro ecosistema video / cinema completo.

Dopo aver acquisito Davinci Resolve, gli scanner Cinquel, e molto altro nel 2012 iniziarono a studiare una loro linea di cineprese digitali lanciando sul mercato un prodotto molto strano (per l’epoca), la Cinema Camera 2,5k, di cui potete leggere una recensione sul mio sito.
Fu una piccola rivoluzione, come qualità, pensiero, e molto altro…
Continuarono a sviluppare la logica, producendo una cinepresa “Pocket” e la Production Camera 4K, formato che nel 2013 stava iniziando ad affermarsi come standard di mercato, iniziarono poi con la linea Ursa a sviluppare diverse camere, diventando rapidamente un marchio di cineprese digitali e non più solo di strumenti di editing e post.
La loro filosofia era / è quella di costruire un hardware solido su cui poi via firmware aggiungere e / o attivare le funzionalità magari non presenti al lancio del prodotto sul mercato.
Filosofia che a seconda delle camere può anche andare su un lungo termine, ad esempio la Production camera 4k ha ricevuto il suo (probabilmente) ultimo aggiornamento firmware nel 2017, ed è una camera del 2013, quest’anno è uscita fuori dal catalogo BMD, ma è sempre una ottima cinepresa.
Pensiamo che a Hollywood si gira ancora con la prima versione hardware della Arriflex Alexa, uscita nel 2009, possiamo immaginare come la longevità di un buon prodotto è lunga, a questo proposito mi ero divertito nel scrivere un post in relazione a questo concetto.

Oggi BMD ha come cinepresa di punta la Ursa mini Pro, una camera che è la somma delle esperienze fatte in passato, con tanti vantaggi e capacità, con un sensore migliorato in 4.6k con 15 stop di gamma dinamica, un form factor più piccolo della ursa originale (decisamente una camera da cavalletto, pesante e impegnativa), e tante altre funzionalità interessanti.

La Ursa Mini Pro è sempre una cinepresa digitale, quindi nasce per il cinema, ma ha dalla sua una serie di caratteristiche più da camera ENG, quindi tende a guardare anche un mercato Broadcast, infatti rispetto al passato ha una serie di elementi interessanti aggiuntivi come :

  • Filtro ND incorporato IRCUT pensato per la color science del sensore BMD
  • Mount intercambiale tra EF (di serie), PL, NikonF e soprattutto B4 per il broastcast
  • Display esterno di stato per il controllo
  • Comandi fisici per i controlli globali della camera mentre si agisce, senza dover per forza lavorare col touch
  • Doppio formato di registrazione: CF2 ma anche SD UHS II per registrare fino al 4k su supporti più economici e capienti, ma più diffusi e comodi per la gestione globale
  • Oltre al classico monitor di serie è disponibile opzionale un Viewfinder di alta qualità, FullHd con le funzionalità di focus, esposizione etc per poter lavorare in ogni condizione.
  • Preamplificatore audio per collegare microfoni Professionali con Phantom e una sezione microfonica interna di qualità
  • Uscite SDI in 3g, 6g, 12g, per poter mandare segnali ad ogni tipo di apparecchiatura e al massimo della banda possibile.
  • Compatibilità a ogni tipo di batteria Vmount e Gmount tramite un semplice plate, oppure utilizzando un cavo XLR supporta dal 12V al 30V da ogni tipo di fonte energetica.

Ora per chi è interessato a tutte le caratteristiche, si fa un giro sul sito Blackmagic e scopre tutto della macchina, questo post nasce in risposta alla domanda che è sorta parlando con amici interessati ad acquistare questa camera, per capire quello che potrebbe essere necessario per usarla, e quello che diventa quindi una idea di spesa minima per essere operativi con tale camera.

Dalla scatola vi uscirà una Camera nuda e cruda con il suo alimentatore a rete, quindi dobbiamo preoccuparci al minimo di attrezzarci con :

Alimentazione

Soluzione A :
Classica Vmount/Gmount + un plate adattatore è la soluzione che spesso la stessa BMD suggerisce come soluzione di partenza, offrendo il plate da brand BMD per entrambi i formati.
Una soluzione del genere offre alimentazione alla camera, l’uscita Dtap della batteria una seconda alimentazione che può esser usata per alimentare uno o più accessori collegati alla camera. Inoltre la camera stessa ha un XLR out 12v per alimentazioni di prodotti aggiuntivi.
Il vantaggio di questo sistema è che la batteria è montata direttamente sulla camera e quindi è stabilmente collegata al corpo, bilancia il peso e riduce gli elementi (cablaggi etc) volanti intorno alla camera.
Lo svantaggio è che abbiamo solo una uscita aggiuntiva se dobbiamo alimentare gli accessori a 12v.

Soluzione B :
Classica Vmount/Gmount + PLATE  con distributore di correntetipo questo Lanparte per batterie Vmount che offre la stabilità di collegare la batteria alla camera, e allo stesso tempo si ha un distributore di correnti a diversi voltaggi per poter alimentare tanti diversi accessori.

Soluzione C :
Classica Vmount/Gmount + un distributore di corrente tipo il plate della Lanparte che ci offre non solo la possibilità di montare batterie sia VMount che Gmount, ma soprattutto aggiunge una distribuzione di corrente a differenti uscite a 5, 7 e 12v, usb, per poter alimentare diversi accessori con una sola batteria.

Il vantaggio di questa soluzione è che possiamo avere con una sola batteria l’alimentazione di diversi accessori : monitor, dischi esterni, ricevitori wireless etc. Un altro vantaggio è che possiamo montare un tipo di batteria sulla camera e un’altra sul raiser in modo da poter usare due tipi di batterie diverse e dato che la camera dà priorità a quella che fornisce alimentazione da XLR, è possibile scambiare le batterie continuando a registrare senza interruzione.

Lo svantaggio di questa soluzione è che serve un supporto a barre dove posizionare tale distributore dietro la camera, e che ci sono più fili volanti intorno alla batteria (se servono naturalmente). Ma guardando da un altro punto di vista, abbiamo un peso posteriore che possiamo spostare indietro per bilanciare la camera usandola sulla spalla.

 

Storage

La camera utilizza sia le Cfast2 che le SD UHS-II per registrare i filmati, naturalmente a seconda del supporto ci sono limiti di velocità di scrittura sulle due schede, per cui anche messe in doppia scrittura le schede SD non possono registrare la massima qualità in raw, però si tratta anche di capire se e quando è necessario lavorare a quel livello, dopotutto su SD è possibile anche registrare fino ad un UltraHD  a 30 fotogrammi al secondo in prores HQ, il che significa una qualità eccezionale per la maggior parte delle produzioni video.

Soluzione A : si acquistano almeno una coppia di schede SD per la registrazione continua e alternata in formato UHD prores.
Vantaggio : Soluzione economica, efficace e ci permette di lavorare con molte schede rapidamente, sia per la scrittura che per lo scarico. Le semplici 95 mbts permettono registrazioni fino a 4.6k in prores 4:2:2, un’ottima qualità per la maggior parte delle applicazioni.
Svantaggio : hanno limiti di velocità di scrittura, quindi se servisse non si può spingere al massimo la camera.

Soluzione B : si acquista una coppia di schede CFast2 certificate  così che si possano registrate tutti i formati possibili, compresi quelli Raw alla massima risoluzione 4.6k al massimo numero di frame che richiedono un datarate così alto da registrare contemporaneamente su entrambe le schede.

Vantaggio : totally freedom Svantaggio: costo delle Cfast2 certificate e … beh scarsa vita delle stesse, nella mia vita più volte ho dovuto sostituire cfast di marca.

Soluzione C : SSD adapter dalle Cfast2.
Da qualche tempo sono nate soluzioni DiY con degli adattatori da Cfast2 a Sata in modo che la camera crede che ci siano le schede cfast e invece sta scrivendo su ssd efficienti ma più economici. C’è un interessante tutorial del filmaker Tom Antos su come realizzarlo al di sotto dei 100$, altrimenti c’è la soluzione già pronta della Atoch che ne costa più di 600$

Vantaggio: relativemente economici perchè se si scelgono cavi di qualità, box di supporto di qualità veloci, prendendone una coppia si finisce con spendere poco di più del recorder BMD.
Si lascia libera l’uscita 6g esterna per un eventuale Va4k per fare una registrazione di backup.
Si usano due dischi quindi supporto fino a 60fps raw non compresso.
I dischi ssd essendo dentro un box Usb/esata sono protetti da azioni meccaniche, elettriche, umidità etc, i connettori sono protetti, lo scarico è semplificato perchè lo stesso box / card è anche utile per lo scarico diretto del materiale.
Svantaggio: soluzione Diy che coinvolge la gestione di qualche cablaggio per alimentazione e dati. Non si può chiudere completamente la parte monitor in caso di ripresa con il viewfinder perchè il cavo impedisce la chiusura completa.

Soluzione D : Blackmagic si è resa conto che il costo delle Cfast non è sceso come era previsto negli ultimi 3 anni e quindi sono usciti con una loro soluzione, un recorder SSD da collegare alle uscite 6G della Ursa Mini Pro, che permette usando un doppio Ssd di registrare anche in raw.
Vantaggio : soluzione creata su misura quindi stabile, sicuro e ottimizzata per questa camera.
Svantaggio : questa soluzione occupa entrambi i canali SDI in uscita, quindi non si può avere l’uscita 6G monitoriale, rendendo inutile avere monitor che supporta 4k con zoom per il focus se poi devi prendere l’uscita 3g del viewfinder che è fullHD, inoltre supporta 1 solo ssd rispetto ad una soluzione DiY, quindi ci sono ovvie limitazioni di velocità di scrittura, sul supporto dei formati raw al massimo di frame e peso. Contrariamente a quello che dicono sedicenti esperti che dicono di mettere semplicemente un connettore a t sulla porta SDI, quando si viaggia in modalità SSD le due uscite vengono convertite in uscite dati, quindi non è possibile usarle come monitoriale o per uscire verso una regia. Inoltre usando gli ssd come card si sollecita molto i connettori degli ssd con il rischio di danni e in caso di danneggiamento perdita totale dei dati.

Update del 1 gennaio 2018: con l’upgrade firmware 4.9 l’adattatore ssd di blackmagic funziona anche con la serie UrsaMini 4k, 4.6k e UrsaMiniPro 4.6k.

Rig e Handle

La camera nasce già con ampie quantità di forature standard per poter montare diversi tipi di accessori, ma come le prime camere, è un mattone in metallo e magnesio, manca del minimo per poterla riggare con maniglie, supporti a barre etc quindi serve poter aggiungere qualche elemento di comodità operativa :

Soluzione A : Shoulder rig BMD kit che offre una maniglia superiore per un trasporto comodo, una piastra inferiore su cui montare supporto a barre, poggiarla a spalla e una maniglia con rosetta standard per montare accessori laterali.
Questa soluzione offre ad una cifra molto onesta solo vantaggi come standard, ben bilanciata la posizione sulla camera e comoda per poter muovere la camera da spalla a cavalletto in un attimo.

Soluzione B : scegliere una delle tante soluzioni dei vari produttori di rig da Smallrig a Lanparte a Wooden camera a Zacuto, a seconda delle necessità.
La scelta dipende dalle esigenze personali, di ciò che si vuol fare con la camera, chi deve montarla spesso su un Ronin o altro sistema di gimbal o jib deve trovare una soluzione efficiente per togliere tutto il peso inutile, se i diversi elementi sono bloccati con le brugole al corpo macchina diventa lento il cambio e poco funzionale, oltre al fatto che col tempo diventa noioso e c’è il rischio di danneggiare le filettature montando e smontando in continuo, stringendo con forza perché non si vuol rischiare di veder cadere a terra più di 7000 euro di attrezzatura, perché serrata male.

Video Assist oltre al monitor di serie

La camera possiede già un monitor 4 pollici di riferimento dove possiamo controllare le immagini e  muoverci in buona agilità, però in alcuni casi potrebbe essere utile aggiungere un controllo esterno, la camera possiede delle uscite 3G (FHD) e 6/12G (UHD) per utilizzare diverse soluzioni sia proprietarie Blackmagic che altro. A seconda del tipo di lavori che andrete a fare avrà senso o no aggiungere le soluzioni sottostanti.

Soluzione A : Viewfinder BMD o di terze parti.
Per molti operatori è importante e utile avere un viewfinder dove poggiare l’occhio e poter lavorare in concentrazione, oltre che protetti dal sole, il che in molte situazioni è meglio del monitor.
Il viewfinder BMD è un Oled a risoluzione FHD con tanti ausilii per il fuoco e il framing in modo da rendere il più semplice possibile lavorare. L’unico svantaggio di questa soluzione è il costo alto del prodotto (ma di ottima qualità) e che è vincolato ad essere vicini alla camera, quindi in caso di utilizzo di Jib o di Gimbal questo strumento diventa inutile. Ottima qualità di visione e messa a fuoco, controllo strumenti etc.

Soluzione B : Monitor esterno come il Videoassist / Ursa Studio Viewfinder/ Atomos Monitor, etc. Questa seconda soluzione offre una visione di dimensioni maggiori, può essere una soluzione per la registrazione di proxy o backup contemporanea alla registrazione raw.
Lo svantaggio è che tutte queste soluzioni sono più sensibili alla luce ambientale e quindi in presenza di forte sole diventa molto più complesso leggere le immagini.

Il resto sono i normali strumenti, ovvero le lenti, cavalletto, filtri etc, ma quelli se non abbiamo fatto salti particolari da un prodotto all’altro, possiamo riutilizzarli senza problema, ricordiamo che la ursa mini Pro è una camera più impegnativa rispetto alle precedenti, ma allo stesso tempo più parca di richieste Hardware, se la confrontiamo con la production Camera 4K come potete vedere nella lista di Pronti, partenza e via che ho fatto qualche tempo fà.

Prima di fare tutti gli acquisti suggerisco di riflettere bene come e cosa comprare, perchè rapidamente si rischia di avere una camera molto pesante e quindi poco pratica da trasportare e usare in velocità.

Una riflessione molto semplice :

  • la Ursa da sola pesa 2300 gr
  • Una lente media 17-55 2.8 ef-s Canon (per avere flessibilità e versatilità in uso engine o documentario, ma abbastanza luminosa) 645 gr
  • lo shoulder Kit aggiunge ben 1560 gr
  • una batteria vmount partiamo da 600 gr (95w leggera) e arriviamo a 1600gr se puntiamo a una 180w
  • se aggiungiamo ssd recorder abbiamo altri 800 gr tra recorder ssd e cavi

Quindi senza aver aggiunto monitor esterni, mattebox, microfono esterno, o altro, abbiamo già raggiunto 7 kg da portare sulla spalla se vogliamo la batteria capiente. Non faccio il pigro, la mia prima camera amatoriale pesava da sola 4 kg e portavo attrezzatura per quasi 20 kg, ma c’era l’incoscienza e l’energia dei 20 anni, oggi c’è un po’ più senso pratico, e gli acciacchi alla schiena derivati da quell’incoscienza che mi ricordano di ottimizzare il materiale da portare con me al lavoro, altrimenti servono persone che vengano con me per trasporto e gestione materiale.

La Ursa Mini Pro nasce come macchina da cinema e come macchina broadcast, a seconda di come al si andrà a usare si faranno delle scelte pratiche su come fare il rig di lavoro, a seconda di come viaggerà, se da soli o con un gruppo di lavoro. Il mio suggerimento è riflettere su come attrezzare la camera per essere operativi nelle diverse situazioni.


Youtube e la compressione digitale

YouTube-logo-full_color

In questo periodo mi capita di parlare spesso della compressione digiltale in funzione della distribuzione on line, e in particolare di Youtube, spesso trovo molta ignoranza sul come trattare il materiale, un po’ perchè ormai la maggior parte dei software hanno un profilo chiuso che non ci permette di editare i parametri di compressione, un po’ perchè molti non sanno neanche di cosa si parli quando si esporta un video, sembra che sia solo una operazione per finalizzare e basta.

quando va tutto bene, non è importante conoscere cosa sta dietro a tutto questo, ma quando abbiamo necessità di ottimizzare dei file per un particolare prodotto o dispositivo, o in questo caso per un Social come Youtube, dobbiamo impare di più di ciò che sta dietro le quinte, e quindi è necessario introdurre diversi argomenti.

Le basi della compressione

Quando si prende un video e lo si esporta da un qualunque programma di editing o di postproduzione ogni immagine viene nuovamente elaborata e successivamente compressa in modo più o meno distruttivo a seconda del tipo di compressione, di tipo di target che ci serve e da un grande numero di impostazioni del programma, dal contenuto dei video, da come il software gestisce il contenuto originale del video

Quando si carica on line un video sulle diverse piattaforme di sharing come Youtube, Vimeo, Facebook etc viene nuovamente compresso con regole e principi dettati dai creatori della piattaforma.

Quindi banalmente il video subisce al minimo tre compressioni, quando viene catturato, quando viene esportato, quando viene ricompresso dai server delle varie piattaforme. Il che vi può dare un’idea di come la qualità possa decadere molto e rapidamente.

Molti si chiedono il perchè, ci sono diverse ragioni :

  • il primo motivo è la compatibilità, se i server dovessero fare il play di mille formati, codec e frame rate il risultato sarebbe uno sforzo immenso, e le richieste dei player per la compatibilità influenzerebbero negativamente l’esperienza visiva, quindi per semplificare youtube converte sempre i filmati nel miglior rapporto di qualità visione on line.
  • il secondo motivo è altrettanto banale, se i server di Youtube lavorassero con la qualità massima sempre, sarebbero intasati dai milioni di video fatti coi cellulari a bassa definizione (dimentichiamo il fatto che salvano in fullhd o 4k, perchè conta soprattutto il sensore), quindi esistono dei formati predefiniti con cui gestire il materiale fornito
  • il terzo motivo è pratico dovendo inglobare e gestire diversi formati e bitrate, chiedere alle persone comuni di fare i diversi formati è troppo complesso, per cui loro acquisiscono il nostro materiale e in automatico viene convertito per il formato ottimale di play per il 1080p e tutte le sue declinazioni inferiori (720p, 480p ,360p ,240p).

Se guardiamo le specifiche di youtube scopriremo che youtube preferisce filmati con un certo formato, un certo datarate e determinati settaggi. Se usiamo formati e caratteristiche diverse il filmato potrà essere caricato, ma la compressione sarà più aggressiva e distruttiva rovinando la qualità del filmato. Se usiamo formati di qualità più alti rispetto alle specifiche, comunque la gestione del server lo ridurrà al formato di default quindi si sarà sprecato più tempo e in alcuni casi andremo a perdere anche in definizione.

Perchè esistono ancora formati ridicolmente bassi come 360p e 240p?

perchè esiste un sistema automatico che per mantenere la fluidità di visione, se la rete internet attraverso il quale noi vediamo il filmato è lenta, si guarda una versione più leggera come peso e risoluzione per mantenere la fluidità. Inoltre esistono una marea di dispositivi che nonostante sia prodotti nuovi, hanno risoluzioni schermo molto basse, e quindi scaricare un filmato 1080p su un dispositivo (uno smartphone) che ha uno schermo che al max arriva a 576 o meno, sarebbe uno spreco di risorse e dati scaricati.

Ricordiamo che oggi l’uso principale dei social è via strumenti mobile, e per quanto si parli di fibra e gb come niente, esiste un mondo limitato al 3g in molte zone, o anche meno, e dato che la richiesta di banda cresce molto più velocemente della creazione di nuovi ponti e nuove celle telefoniche (i blackout di rete che avvengono durante i periodi di vacanza lo dimostrano) è importante poter fornire il servizio anche quando le risorse sono scarse.

La compressione altera più del necessario

Durante l’esportazione un programma di montaggio esegue un rendering, operazione che esegue più operazioni contemporaneamente, a seconda del programma lavora in spazi colore più ristretti o più estesi; nella compressione dei dati gli algoritmi devono tener conto di tanti fattori.

Spesso non ci si rende conto che ci sono operazioni che possono rendere più “morbido” il filmato in esportazione, che solo chi ha esperienze di compressione conosce e sa dove agire.

Scalatura : quando il programma scala una fotografia o un filmato, sia a ingrandire che a rimpicciolire, se non ottimizzato bene può far perdere qualità/nitidezza (sull’encoder adobe ci sono in più parti ottimizzazioni relative proprio a questo fattore).

Cambio di frame rate : quando il programma esporta da un frame rate all’altro deve creare in più modi i fotogrammi intermedi, o togliere dei fotogrammi, e questo può influenzare la fluidità del filmato o la nitidezza nel momento in cui vengono creati nuovi fotogrammi con le tecniche di interpolazione.

Cambi sulla luminanza e sulla crominanza : ogni tipo di manipolazione del croma e della luminanza possono evidenziare artefatti digitali presenti nel filmato originale, possono ridurre le sfumature di colore per limiti dello spazio colore, possono amplificare il rumore video perchè ne spostano la collocazione originale pensata dal codec di ripresa.

 

La compressione diretta

Immaginando di avere il filmato finito e perfetto a misura, al frame rate corretto, senza interventi, la compressione prende i dati e li ottimizza e riduce dentro gli schemi di compressione dell’h264.
H264 è un codec con degli standard ma diversi parametri e modi di comprimere i dati, per cui a seconda di come si setta un video il risultato può essere più o meno definito, più o meno dettagliato.
gopPer ridurre lo spazio occupato il formato H264 utilizza la tecnica del GoP, Group of Picture, in pratica se giriamo a 30 fotogrammi al secondo e abbiamo un GoP 15,  il codec registra il primo fotogramma intero, poi ne registra uno intero dopo 14 fotogrammi, e dei fotogrammi intermedi ne registra solo le differenze tra uno e l’altro. Questo significa che se nel filmato non ci sono movimenti camera o tanti oggetti in movimento, la compressione, pur mantenendo la qualità ci permette di ridurre molto il peso del file.

Su youtube viene suggerito un valore pari a metà del frame rate, il che significa che se il filmato ha molti movimenti all’interno del frame, oltre a non sfruttare bene il bitrate si rischiano degli errori o difetti di movimento, ad esempio se c’è una esplosione in un filmato oppure, cosa più facile si inquadra dell’acqua in movimento, oppure dei coriandoli gettati in aria, diventa più difficile per il codec distribuire il datarate, e quindi ogni tanto si potrebbe sentire un saltino.

Una possibile soluzione è dimezzare il gop, quindi invece della metà dei frame, ogni quarto dei frame al secondo, in modo che ci siano più frame interi per gestire meglio gli oggetti in movimento veloce.
Ad esempio 6 per il 24p (6×4=24), 5 per il 25p (5×5=25), 5 per il 30p (5×6=30).

L’altro parametro che ci permette di controllare la qualità è il data rate, ovvero la quantità di dati al secondo che può gestire per ogni fotogramma, più alto è il data rate, più alta è la qualità di ogni fotogramma, mentre abbassando il datarate il risultato è che le immagini perderanno nitidezza, e spesso appaiono zone di solarizzazione perchè non ci sono abbastanza informazioni per registrare i dettagli più fini.

Il datarate appare come un valore in Mega per secondo, ma la sua distribuzione nei fotogrammi che contengono un secondo è legato al metodo sottostante.

Variable o Costant bit rate definiscono come il data rate verrà distribuito lungo una sequenza

L’opzione Costant bitrate, la distribuzione è fissa, per cui ogni fotogramma riceve la stessa quantità di dati, il che offre una maggior fluidità di decompressione del filmato, perchè richiede buffer più semplici da gestire, ma in caso di filmati dove si alternano rapidamente scene con grande movimento con scene statiche, è possibile trovare molti sprechi di datarate, e quindi un file di minor qualità. Ad esempio se abbiamo una inquadratura di un’auto ferma che esplode, durante l’attesa viene sprecato datarate sui frame statici e magari per l’esplosione non ci sono sufficienti dati per gestire la qualità e il dettaglio delle fiamme in movimento veloce.

L’opzione Variable bitrate invece è un metodo che utilizza un valore variabile di dati, da un minimo ad un massimo e con un algoritmo che analizza la quantità di dati in movimento e distribuisce meno datarate dove ci sono frame statici, mentre un numero più alto dove ci sono movimenti ampi, movimento veloce o grande dettaglio di movimento.

quindi riassumendo :

  • GoP : valori più alti riducono il peso del file ma contribuiscono ad introdurre possibili artefatti nel movimento
  • Data rate : valori alti danno maggior qualità e maggior peso al file, bassi valori riducono il peso ma a seconda del contenuto (dettaglio immagini e quantità di elementi in movimento) si riduce la qualità del file finale.
  • CBR o VBR per gestire la qualità costante o distribuire meglio la qualità esistono due metodi di calcolo dei dati per ogni fotogramma, il primo offre una compressione più veloce e costante nella distribuzione dei dati, il secondo è più lento, ma sui filmati con molti dettagli e/o movimento può offrire una maggior qualità finale.

L’ottimizzazione per la compressione

Original with noiseIl contenuto di un video influenza molto il risultato perchè gli algoritmi di compressione analizzano il contenuto del fotogramma, dei fotogrammi circostanti per decidere in che modo ridurre le informazioni in modo ottimale dentro il codec. Ironicamente i video con pochissimi dettagli rischiano maggiori danni di quelli molto dettagliati.
Prendiamo un video di un oggetto in movimento su un limbo chiaro, lo stesso filmato ma al posto del limbo mettiamo una distesa di sabbia, il secondo video avrà più nitidezza e dettaglio a parità di parametri di compressione, perchè tutti quei dettagli forzano il profilo di codifica a dare il massimo e spremere ogni dettaglio dalle immagini.

La prima immagine (cliccando si può vedere in fullhd) mostra come la compressione di una immagine con un leggero rumore venga compressa correttamente e non presenti una particolare perdita anche se si comprime molto.

Nella seconda immagine (cliccando si può vedere in fullhd) ho amplificato un poco la struttura dei colori per mostrare come avendo tolto tutto il rumore si formano appena si adenoise to compressionpplica un poco il contrasto o la saturazione una serie di bandeggi / solarizzazioni che evidenziano i limiti del numero di colori disponibili per gestire quella sfumatura.

Oggi spesso si tende a volere video troppo pulito, si applicano forti denoise per togliere ogni tipo di grana o rumore video, ma eccedendo in questa pratica spesso si vedono immagini che tendono a creare il fenomeno del banding, ovvero si vedono le strisce di colore, perchè senza il rumore che “mescola” e inganna la visione si vedono tutti i difetti.

Ricordiamo che indipendentemente dal vostro video di partenza, che abbia anche una sorgente a 12 bit (ovvero miliardi di colori e sfumature) quando usciamo per youtube abbiamo un Output a 8 bit, ovvero 2 alla ottava per canale, che apparentemente sono ben 16 milioni di sfumature, ma se noi riprendiamo un cielo, al massimo dal blu più chiaro che è bianco, al blu più scuro che è nero abbiamo solo 256 sfumature pure, quindi senza un po’ di rumore che mescola le diverse strisce di colore con la tecnica che una volta veniva chiamata “dithering” si rischia di vedere i singoli bandeggi del colore.

Anche dalla sola thumbnail è possibile vedere come la versione senza rumore rischi molto di più nella compressione.

NATURALMENTE questo è un caso limite in cui ho forzato i difetti per renderli evidenti, spesso i risultati essendo più contenuti non sono altrettanto visibili.

Perchè il mio video si vede peggio di un altro fatto con la stessa camera

 

di sicuro non è colpa di youtube 😀

Ora dopo essermi preoccupato di avere le simpatie degli avvocati di Google, posso darvi delle buone ragioni tecniche per cui ogni video sarà diverso anche se fatto con la stessa camera.

Ogni volta che si realizza una ripresa, la qualità del video ha una serie di parametri che determinano la nitidezza, la qualità delle immagini, presenza o assenza di rumore, etc. Pretendere che due persone anche usando la stessa macchina, stesse lenti, nello stesso luogo contemporaneamente ottengano lo stesso risultato di qualità è molto complesso, e necessita di un allineamento di tanti parametri, non a caso quando si fanno riprese multicamera, che sia per cinema, televisione, etc si utilizzano sempre dei target (tabelle di riferimento univoche) per allineare in post tutto il materiale, perchè comunque basta che una persona cambi il diaframma per avere meno luce in ingresso e l’altro cambi invece gli iso, e le immagini saranno diverse in nitidezza e contrasto, immaginate se magari si hanno lenti diverse, e molto altro ancora…

Inoltre basta solo cambiare angolo di ripresa, e avendo luce diretta, riflessa, laterale, controluce, le immagini non saranno solo diverse come luce, ma avranno comunque dominanti e strutture diverse.

Cosa funziona meno bene su youtube?

Quando carichiamo un video, ci sono dei fattori che influiscono su come verrà ricompresso il file, quindi è importante tenerne conto per non rimanere delusi.

  1. la quantità di dettagli delle immagini
  2. i contrasti all’interno del quadro
  3. i cambi scena con differenze notevoli di luminosità
  4. il rumore / noise del filmato originale
  5. la risoluzione originale di caricamento del filmato

per fare un esempio, lo stesso video in 4k caricato sia su youtube che su vimeo ha dato origine a risultati differenti, su youtube, che tengono poi un bitrate di uscita più basso, la versione in FHD ha un maggiore effetto di banding rispetto a vimeo, se carico direttamente il video in formato FHD la qualità su youtube e su vimeo sarà superiore perchè sarà solo ricompresso ma non scalato.

youtube_fhdvimeo-hdA Oggi 1 ottobre (specifico perchè gli algoritmi sono in continuo sviluppo) il sistema di youtube/vimeo offre un buon rapporto qualità fluidità di streaming a prezzo di una compressione sia nei dati che nella risoluzione, per cui va considerato che possiamo valutare solo la qualità della resa nel formato che abbiamo caricato noi, le altre non avendo controllo sulle varianti create da youtube non dobbiamo farci troppi problemi altrimenti ci rovineremmo la salute mentale e basta.

  1. quando carichiamo un filmato di animazione, con toni piatti, l’encoder sa cosa deve fare, ovvero dettagli intorno ai bordi, pulito nei toni piatti. Quando carichiamo un filmato ripreso in pieno giorno pieno o meno di dettagli l’encoder sa di dover preservare a meglio tutti i dettagli possibili.
  2. la differenza di contrasto comporta il fatto che l’encoder darà spazio alle parti più luminose, ma meno alle parti più scure causando facilmente del banding e la presenza di elementi di blocking in movimento nelle parti più scure.
    in generale tutti gli encoder non tengono grande considerazione degli elementi nelle ombre perchè sono considerati meno importanti, dato che il cervello guarda principalmente le parti illuminate.
  3. nei cambi scene, a seconda di come viene fatta l’analisi del filmato per la compressione in CBR o VBR possono esserci più o meno bit a disposizione delle immagini al cambio scena, per cui ci possono essere dei salti e artefatti più presenti nel cambio scena. In quei casi è importante come si impostano i keyframe, se i cambi scena sono frequenti è meglio impostare dei keyframe più bassi come valore in modo che l’analisi sia fatta più di frequente, e quindi il filmato fornito a youtube abbia più informazioni in quelle parti.
  4. come già detto in precedenza, un leggero noise permette di nascondere gli eventuali bandeggi nelle sfumature, e soprattutto forza gli encoder ad analizzare meglio e più attentamente i dettagli dei filmati, quindi anche un noise molto leggero è utile per avere immagini più pulite nel risultato finale.
  5. Più alta è la risoluzione di partenza, migliori saranno le scalature, ma dipende anche dalle strutture.
    Ad esempio come si può vedere nelle immagini sopra, su vimeo sia vedere il file 4k scalato a Fhd, che il fhd direttamente, la qualità è lineare, mentre su youtube la scalatura compromette molto di più la qualità, creando banding e altri difetti, ma si sa che vimeo ha un bitrate molto più alto, quindi la qualità è senza compromessi.


Flickera, strappa, la panoramica che non va?

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

E’ divertente vedere come sulla rete siano presenti risorse infinite, ma allo stesso tempo si diffondano tanti pareri e concetti errati per il semplice copia e incolla, condividi, o voglia di essere … l’esperto del Bar Sport come nel libri di Stefano Benny

Contrariamente a quello che la maggior parte dei sedicenti esperti i concetti di ripresa base sono pochi e semplici, legati a principi di percezione visiva basilare, che non possono cambiare perchè non dipendono dalle camere e dalle loro tecnologie, ma dalla capacità dei nostri occhi di percepire le immagini in movimento e come vengono elaborate dal cervello..

I nostri occhi catturano la luce, che rimane impressionata sulla retina per un tempo X definito persistenza retinica; quando l’occhio percepisce una serie d’immagini in sequenza :

  • se la differenza è corretta le immagini si fondono e vengono percepiti come movimento fluido
  • se la differenza è troppo grande il cervello percepisce le singole immagini, quindi un movimento scattoso, stroboscopico.

All’inizio della storia del cinema si lavorava a camera fissa, e il frame rate era variabile, perchè definito da una manovella girata dall’operatore, quando si iniziò ad automatizzare il tutto utilizzando dei sistemi  a molla prima e poi motorizzati, si è trovato il giusto bilanciamento tra fluidità e uso della pellicola nei 24 fotogrammi al secondo.

Con 24 fotogrammi al secondo, girati in modo corretto, si ha la percezione del movimento fluido, al di sotto si percepisce uno scattino più o meno pronunciato tra un fotogramma e l’altro. Il numero di fotogrammi al secondo, per anni il Santo Graal dei filmaker convinti che fosse il segreto dell’effetto cinema, è solo uno degli elementi che servono per ottenere un corretto risultato di percezioni fluida del movimento lineare, circolare, o della camera in movimento.

Mito 1 : è la pellicola a creare l’effetto cinema fluido, il digitale non lo può fare

hateful eightil segreto della fluidità è data da più fattori, che vanno correttamente impostati.
L’uso di un sistema di ripresa a pellicola rispetto al digitale non è fondamentale, quanto la cura con cui vengono girate le immagini. Se una qualunque persona con una macchina digitale semi automatica può provare a fare delle riprese e ottenere dei risultati decenti, con la pellicola si deve avere più cura e conoscenza in ciò che si fà, il che include le regole che troverete in fondo all’articolo per ottenere la corretta ripresa e riproduzione del movimento.
Sicuramente la proiezione in pellicola (anche di un materiale girato in digitale) offre una maggior fluidità della proiezione digitale della maggior parte dei proiettori (troverete la spiegazione più avanti).

Mito 2 : sono i fotogrammi al secondo che fanno più o meno fluido il filmato

Fattore relativamente corretto, più fotogrammi uguale più frammentazione di un movimento veloce, quindi la differenza tra i frame si riduce e si hanno meno probabilità di vedere i difetti, ma non si può pensare di girare a 120 fotogrammi al secondo per fare un play a 120 fotogrammi al secondo, la maggior parte dei televisori, proiettori e monitor non sono in grado di riprodurli. E fino ad ora tutti gli esperimenti di cinema in HFR (High frame rate) che sono banalmente 48 fotogrami al secondo invece che 24, hanno dato una percezione troppo … “reale” da come mi è stata descritta da tanti spettatori, amici, ma non tecnici, che non solo non apprezzavano l’effetto, ma al contrario lo hanno definito “come guardare il telegiornale”, decisamente meno cinema.

Mito 3 : è la camera a fare la differenza

b_unbroken_2_01Diciamo di si, è vero che alcune cineprese sono migliori di altre, i sensori leggono in modo diverso le immagini e quindi il risultato cambia, diventando più o meno piacevole.
Addirittura alcune camere possono riprendere il movimento in differenti modi e quindi forniscono una cattura diversa dell’immagine.

Ad esempio le macchine fotografiche catturano le fotografie con la tecnica del global shutter, ovvero in uno stesso istante cattura tutte le informazioni del sensore, ma quando lavorano per il video lavorano con la tecnica del rolling shutter, ovvero catturano sequenzialmente le linee, dall’alto verso il basso, il che significa che la stessa immagine se scattate una fotografia o catturate un fotogramma da un video offrirà una cattura del movimento differente, con distorsioni, effetti jello, e altre problematiche, questo riduce la percezione dell’effetto cinema.

Il rolling shutter non va demonizzato, dipende dalla sua velocità di lettura, molte cineprese digitali utilizzano la tecnica del rolling shutter per aumentare la gamma dinamica, ma la velocità di lettura del sensore è abbastanza alta da non doversi preoccupare dei difetti del rolling shutter.

Un altro elemento importante, che è il motivo per cui le vdslr sono entrate prepotentemente nel campo video è il contrasto dell’immagine, dove la classica telecamera offre una immagine molto dettagliata e contrastata, generata da un sensore a 8bit con caratteristiche ben precise, la dlsr nasce con un sensore da 12 a 14 bit che cattura molte più informazioni di luminosità e colore, offrendo immagini più morbide nel contrasto e ricche di sfumature, come si comporta la pellicola; addirittura le cineprese digitali partono da sensori a 16bit, per simulare più accuratamente la sensibilità e la curva dinamica della pellicola.

Mito 4 : c’è qualche filtro di post nascosto per fare il cinema

Anche se in postproduzione è possibile aggiustare qualcosa, per rendere più fluide le immagini, spesso il risultato è meno piacevole e corretto della ripresa fatta con le corrette impostazioni. Non esiste l’effetto cinema in post, se una immagine è ripresa male, si può limare, ma non si può trasformare il video in cinema, l’immagine stroboscopica in immagine fluida (con le eccezioni di post particolari e in particolari situazioni). In alcuni casi è possibile aggiungere la Motion Blur che si avrebbe catturato nella ripresa con Shutter corretto nella fase di post, ma da inquadratura a inquadratura il risultato e la qualità del risultato può variare quindi non si deve dare per scontata la cosa.

Mito 5 : ci sono dei segreti che i DoP famosi non vogliono condividere

Mai mito fu più sbagliato, dal 1935 la ASC americana quando pubblicò la Bibbia dei Direttori di fotografia, dove ci sono tutte le specifiche di ripresa corrette, giunto alla decima edizione, oggi si può acquistare in versione cartacea e digitale su Amazon Manuale vol 1, Manuale vol 02.

Chiunque voglia seriamente lavorare nel campo della ripresa deve conoscerlo a memoria, ci sono ogni tipo di tecnica e spiegazione pratica di come ottenere il giusto risultato di ripresa, che sia pellicola o digitale non cambia nulla, perchè i principi sono indipendenti dal mezzo di ripresa.

Mito 6 : la ripresa interlacciata è più fluida
meglio fare interlacciato e poi deinterlacciare

Mai mito fu più sbagliato, la ripresa interlacciata ha una maggior percezione di fluidità perchè i due semiquadri che compongono l’immagine vengono catturati in due istanti separati, quindi combinati insieme offrono una percezione di maggior mosso rispetto alla ripresa progressiva con gli stessi valori, nel momenti in cui si deinterlaccia con una qualunque tecnica si andrà a buttar via buona parte delle informazioni di movimento di uno dei due semiquadri, e si tornerà ad avere un fotogramma progressivo con le stesse caratteristiche di cattura di movimento della ripresa progressiva, ma con quasi la metà delle righe orizzontali, quindi avremo perso dal 30 al 40% della definizione.

Come ottenere un movimento fluido corretto?

Il segreto della fluidità è data da più fattori, che vanno correttamente combinati, se sbagliate uno di questi fattori, le immagini saranno scattose, che siano immagini digitali, che siano create da un programma di grafica 3d, che siano realizzate da una telecamera.

Quando catturiamo una immagine in digitale i fattori principali che influenzano la fluidità di movimento sono :

  1. Diaframma.
    Una delle ragioni per cui si sono diffuse molte le vdslr è la loro capacità di sfuocare molto anche a diaframmi più chiusi grazie al sensore di grandi dimensioni, questo oltre ad aiutare a concentrarsi sui soggetti senza saper lavorare di luce e scenografia, aiuta anche a ridurre l’effetto strobo, perchè sfuocando davanti e dietro il cervello uniforma e “impasta” maggiormente le informazioni correggendo anche eventuali leggeri strobo.
    Il diaframma regola aprendo e chiudendo le lamelle la quantità di luce entrante, il che ha due risultati diretti sull’immagine :
    Diaframma aperto, profondità di campo ristretta, zona a fuoco molto corta e contrasto tra luce e ombra più morbido
    Diaframma chiuso, profondità di campo più estesa, maggior contrasto globale dell’immagine.
    a diaframma aperto abbiamo un minor contrasto delle immagini che aiuta il cervello a fondere i diversi fotogrammi in unico movimento fluido.
  2. Otturazione o Shutter.
    Il tempo in cui catturiamo il singolo fotogramma definisce la nitidezza degli oggetti in movimento. Esiste una regola per cui la otturazione dovrebbe essere sempre il doppio dei fotogrammi al secondo, per cui se giriamo a 24 fotogrammi al secondo l’otturazione dovrebbe essere di 1/48 di secondo. Tutto questo nasce dal cinema e dall’otturatore a farfalla. Questo rapporto 2:1 fa si che le immagini siano abbastanza nitide quando sono ferme per percepire correttamente il dettaglio, ma abbastanza sfuocate quando si muovono velocemente per rendere più fluido il movimento percepito.
    Più è veloce il movimento, maggiore sarà la scia lasciata dall’oggetto e fotogramma dopo fotogramma offrirà una maggior fusione tra uno e l’altro dando origine ad un movimento fluido e continuo.
    Spesso si vedono riprese stroboscopiche perchè si alza troppo lo shutter per compensare la luce, cosa che si fa ogni tanto in fotografia, ma nelle riprese video è un grave errore che può portare notevoli problemi.
    Meglio mettere un filtro Neutro e ridurre la luce piuttosto che alterare come viene catturata la stessa.
    La regola generale è 1 / Numero dei Fotogrammi al secondo x 2 = tempo di otturazione.
  3. Iso.
    La sensibilità iso reale normalmente è una, in certi casi al max sono due con sensori sovrapposti, il resto sono elaborazioni analogiche o digitali del segnale catturato, ma come nel caso della pellicola, a bassi iso abbiamo più dettaglio e morbidezza, ad alti iso abbiamo meno dettaglio e più contrasto, quindi andiamo contro la regola n5 della fluidità.
  4. Lunghezza focale.
    Questo parametro è fondamentale perchè se noi lavoriamo con un grandangolo e giriamo di 5 gradi la camera, la differenza nell’immagine è piccola, mentre se applichiamo lo stesso movimento su un teleobiettivo spinto, la differenza tra una immagine e l’altra potrebbe essere di metri…
    La regola è semplice : la velocità di movimento della camera sarà inversamente proporzionale alla lunghezza focale della lente.
  5. Contrasto immagine.
    Il contrasto dell’immagine è un parametro fondamentale per gestire l’effetto strobo all’interno di un movimento, perchè maggiore è il contrasto dell’immagine e maggiore sarà il tempo che rimarrà impressa la parte luminosa dell’immagine sulla retina contro le parti scure, quindi se abbiamo un movimento su una campitura chiara di elementi molto scuri, o viceversa, sarà più facile percepire un movimento stroboscopico contro un’immagine che abbia un contrasto minore.
    Non a caso quando si riprende in pellicola (per tornare al mito 1) la capacità di compensare meglio la differenza di luminosità,  e in particolare le alte luci della pellicola offre immagini più morbide e piacevoli della ripresa digitale classica.
    Inoltre oggi si tende con la correzione colore ad aumentare i contrasti e rendere molto più forti i due estremi amplificando questo difetto.
  6. Movimento di camera
    La velocità di movimento della camera in senso orizzontale o verticale comporta un cambiamento più o meno ampio dell’immagine in funzione della focale (vedi regola n. 4), quindi la velocità va regolata in funzione di come cambierà l’immagine altrimenti risulterà stroboscopica.
    Non a caso dentro il mitico Manuale di American Cinematographer che ho indicato all’inizio dell’articolo contiene una serie di tabelle con le velocità di spostamento in funzione del framerate e della focale montata.
    La regola generale qui non esiste, perchè ci sono troppe variabili in gioco, inoltre a seconda dell’immagine più o meno contrastata si può variare la velocità e la percezione risulterà più o meno corretta, immagine più contrastata (vedi regola 5) più lento, immagine più mrobida di contrasti, più veloce.
    Esiste un trucco per superare alcuni limiti, in alcune occasioni : se dobbiamo fare una panoramica o una ripresa a schiaffo, si abbassa l’otturazione, in modo che ogni fotogramma in movimento diventerà molto più sfuocato durante il movimento veloce, amplificando la percezione di velocità e si evita l’effetto stroboscopico.
  7. La dimensione dell’immagine percepita.
    Banale, ma molti non ci pensano, chi nasce nel cinema, pensa in grande, quindi ogni tipo di movimento viene pensato per essere visto su uno schermo di grandi dimensioni, e quindi i fattori elencati fino ad ora sono tenuti in grande considerazione. Ogni differenza tra un fotogramma e l’altro viene amplificata, quindi tutta l’esperienza percettiva viene amplificata. Lo stesso movimento su un 40 pollici comporta una differenza di un cm tra un fotogramma e l’altro, visto su 15 metri di schermo diventa 60-70 cm e a seconda della distanza dallo schermo diventa quasi fastidioso quel salto perchè superiore alla capacità di fusione del cervello.
    Regola di base, non usare solo la visione sui monitor di controllo camera o un monitor piccolo per verificare i movimenti veloci, ma testare anche sulle grandi dimensioni, dato che non tutti hanno la possibilità di testare al cinema le immagini, basta un semplice videoproiettore, se si può investire su una camera di medio livello e attrezzatura varia, si può investire 5-600 euro per un buon proiettore HD o superiore per testare l’immagine su 2-3 metri di larghezza e avere la percezione corretta del movimento senza elaborazioni o postprocessing di vario tipo (per fortuna nessun videoproiettore ha i vari chip pixelworks e simili che tritano le immagini).

A questo punto conoscete le ragioni tecniche per cui una panoramica scatta o salta mentre fate una ripresa, quindi dovete ragionare di conseguenza per correggere la o le cause di tale problema IN RIPRESA perchè l’aggiunta di sfuocatura di movimento in post è fattibile entro certi limiti e comunque nella maggior parte dei casi sarà meno naturale di quella reale.

In sintesi i movimenti strappano perchè la differenza tra un fotogramma e il successivo è troppo grande per essere percepita dal cervello come movimento fluido, e quindi vengono percepiti i singoli fotogrammi.

Queste ragioni tecnico pratiche globali che valgono per ogni mezzo di ripresa analogico (pellicola) o digitale (cineprese), si devono tenere in mente ogni volta che si fa una ripresa, altrimenti successivamente si possono avere problemi non risolvibili in postproduzione.

Perchè al cinema il film lo vedo meglio che a casa?

Esistono diversi motivi, sia che si veda in pellicola che in digitale di solito se un film è pensato per il cinema è ripreso e gestito nel modo corretto (batman dark night return presenta alcuni punti con strobing, Civil war durante i combattimenti è inguardabile, shutter altissimo e molto fastidioso, ho avuto modo, grazie ad un amico gestore di cinema di guardare frame by frame le sequenze e tecnicamente sono aberranti, fastidiose, vedevo mezzo cinema che strizzava gli occhi…

movie-theaterQuando si proietta in pellicola si può apprezzare una maggior fluidità per un fattore tecnico molto semplice, l’otturatore a farfalla. Quando si proietta una pellicola esiste una operazione che viene ripetuta 24 volte al secondo : otturatore aperto viene visto il fotogramma, otturatore chiuso il fotogramma viene sollevato per passare al successivo.

Questa operazione fa si che ci sia la classica luce intermittente che proviene dalla cabina di proiezione (che si può vedere in tanti vecchi film), e soprattutto fa si che colpendo lo schermo e rimbalzando sulla retina i diversi fotogrammi si fondano insieme, perchè mentre sta scendendo l’immagine impressa sulla retina del primo fotogramma, arriva la luce del secondo fotogramma che si fonde su una parte del primo, rimasta per persistenza retinica, in questo modo viene creata una forma di blending dell’immagine residua rendendo più fluido il passaggio da un fotogramma all’altro.

La proiezioni digitale invece manda luce continua sostituendo istantaneamente un fotogramma con il successivo, quindi essendo sempre i fotogrammi al massimo della luminosità sono più forti e non si mescolano tra di loro nello stesso modo, causando una maggior incidenza di possibile strobo rispetto alle stesse immagini proiettate dalla pellicola. Infatti nei moderni proiettori digitali stanno ripristinando l’otturatore a farfalla per migliorare la fase di visione dei film.

Purtroppo ci sono alcuni produttori di televisori che stanno sperimentando la malsana idea di fare pannelli giganti per sostituire i cinema con dei supertelevisori delle dimensioni del telo del cinema, spero vivamente che tale trend non prenda mai piede, considerati i possibili problemi di fruizione dell’imagine che possono introdurre, oltre al fattore tv nel riprodurre una immagine nel modo corretto, già è difficile trovare un televisore fedele a ciò che viene introdotto in esso, figuriamoci se fanno un discorso del genere al cinema…

Quando vediamo lo stesso film a casa, sa Dio cosa andiamo a vedere, perchè difficilmente un televisore ha la capacità di lasciare intatte le immagini, gli ingegneri video che lavorano per le varie case produttrici di televisori hanno l’arroganza di pensare cosa sia meglio per noi durante la visione di una immagine, masticandola con processori d’immagine che saturano all’inverosimile i colori, contrastano fino a trasformare ombre delicate in macchie nere, aumentando la nitidezza fittizzia con maschere di contrasto che creano dei bordi attorno ad ogni dettaglio ad alta frequenza, che eliminano ogni sorta di rumore video trasformando una spiaggia in una distesa di colore sfumato, perchè il dettaglio della sabbia per loro era rumore, e per ultimo, a seconda dei tifosi di fluidità o nitidezza c’è il partito di “flash” che aggiunge sfuocatura di movimento a ogni pixel in movimento più veloce di X facendogli lasciare la scia come il noto supereroe della DC nella serie anni 90, oppure quelli che la devono eliminare completamente perchè loro vogliono vedere nitida ogni cosa, trasformando il più delicato film in una brutta telenovelas anni 80….

Ora io ironizzo, ma vi posso garantire che trovare un televisore in cui si possa disabilitare ogni singolo parametro di manipolazione e vedere le immagini originali, quelle su cui centinaia di persone hanno sudato settimane se non anni per realizzarle è un’impresa titanica…


Log o non Log, ma quale log?

gamma-power-law_chart

Cos’è il log

Log è l’abbreviazione del termine Logaritmico, ovvero la registrazione delle informazioni di luminosità e saturazione non con informazioni lineari, ma Logaritmiche, il che comporta la capacità di registrare in un numero limitato di informazioni una maggior quantità di sfumature e luminosità, per massimizzare al meglio le possibilità della postproduzione successiva.

In soldoni, il log crea una immagine molto morbida come contrasti e saturazioni, che offre tutta una serie di vantaggi nella cattura e nell’uso.

 Perchè il log non è uno standard

La cattura logaritmica è uno standard, ma le curve di contrasto e saturazione applicate durante la cattura, no.
A seconda dei sensori, delle marche, del formato log (della curva applicata in cattura) le immagini risultati saranno differenti, quindi poi successivamente offriranno più o meno spazio di azione nella postproduzione.

A seconda delle macchine, cineprese digitali come Red, Alexa e BMD offrono un log con curve più semplici da gestire in funzione del livello di contrasto della mia scena da riprendere e quindi la scelta della curva log si fa direttamente proporzionale al contrasto presente (più contrasto + flat sarà la curva scelta / meno contrasto meno flat sarà la curva del log), mentre nel caso di macchine come Sony dove ci sono curve di contrasto molto flat registrate quasi sempre a 8 bit (poche sfumature utili per la postproduzione), è fondamentale scegliere bene il profilo, magari con l’ausilio di un monitor con i falsi colori, per capire bene come il sensore sta catturando ed esponendo le diverse parti dell’immagine; se la immagine viene codificata in un log molto flat (poco contrastato) come quello Sony c’è il rischio che nella registrazione si perdano delle parti dell’immagine, perchè invece di avvantaggiarsi dello spazio log per gestire le immagini molto contrastate, se ne prendeno le debolezze.

Perchè è utile

Il formato log nasce per catturare un numero maggiore di informazioni nella codifica limitata dello spazio 10bit, in modo che i file, pur essendo più leggeri contengano tutte le informazioni utili per la post. Il log, sposta le informazioni nello spazio migliore in cui possono essere registrate.
Nei tempi recenti il log è stato usato anche nei formati a 8 bit, ma con le ovvie limitazioni.

Vantaggio 1 : Ogni sensore ha una gamma dinamica, una capacità di catturare informazioni con poca, giusta o tanta luce, normalmente tutte queste informazioni hanno un peso di dati non gestibile direttamente dalle camere (tranne quelle che registrano il raw), per cui i dati vengono elaborati e compressi sia come colore (vedi articolo sulla profondità colore), sia come luminosità. Utilizzare il sistema di codifica Log ci permette di catturare in una gamma ridotta (8-10bit) uno spettro maggiore di informazioni.

Ogni codec durante la fase di compressione utilizza degli schemi di eliminazione dei dati inutili o ridondanti, per ridurre lo spazio occupato dai file, ma questo fa si che riduca anche dati che potrebbero essere utili. I codec di compressione classici, come H264, tendono a scartare tutte le informazioni non distinguibili, per cui se abbiamo in una immagine delle ombre profonde, il codec scarta tutte le informazioni dentro le ombre perchè tanto l’occhio percepirà ombre completamente nere, e quindi le informazioni sarebbero inutili… se non vogliamo applicare colorgrading per alleggerire quelle ombre, estrapolando a quel punto il nulla…

Vantaggio 2: Nel momento in cui utilizziamo lo spazio Log le ombre vengono spostate in alto nelle informazioni medio-basse, mentre le alte luci nelle medio alte, quindi dove il codec di compressione protegge tali informazioni, offrendo una maggior possibilità di postproduzione perchè ha protetto le informazioni importante.

Vantaggio 3: Il rumore del processore essendo registrato con un minore contrasto spesso tende a ridursi e a sparire in molti casi nella compressione, per cui un file log a parità di cattura con un Rec709 potrebbe offrire meno rumore video (se sviluppato correttamente, altrimenti mostrerà il rumore originale, i falsi miti che il logo offra più rumore è semplicemente perchè riportando il log in uno spazio rec709 il rumore meno contrastato sembra più presente).

Vantaggio 4: saturazione ridotta vuol dire meno possibilità di banding e soprattutto si riduce il rischio che qualche colore molto saturo possa andare fuori scala negli 8 bit (256 sfumature pure per componente) e quindi appiattire certi elementi o ombreggiature di colore

Perchè in tanti lo osteggiano

Perchè non hanno studiato e capito come funziona per la loro macchina, pensando che sia una opzione da abilitare sempre o comunque, lo mettono anche su scene piatte, andando a creare immagini troppo piatte, che richiedono una certa conoscenza in post e non semplicemente mettere una Lut di conversione.

Se una immagine è registrata in Log nel modo giusto basta solo alzare saturazione (meglio la vividezza) e il contrasto a gusto e si ottiene una ottima immagine pulita e ricca di dettagli. Registrare in Log non significa registrare in raw, significa avere un segnale video compresso catturando una maggior gamma dinamica potenziale, ma comunque dobbiamo preoccuparci di :

  • fare il bilanciamento del bianco
  • settare correttamente Iso ed esposizione
  • gestire correttamente l’esposizione dell’immagine
  • in alcune macchine scegliere il log (la curva di Log) corretto.

Motivi per non usare il log

Personalmente trovo una manna avere la possibilità di catturare le immagini in modalità Log, prima di avere quella possibilità avevo profili camera che simulavano alcune delle caratteristiche del Log per lasciarmi più spazio in postproduzione.

Comprendo anche che molte persone abbiano modi di vedere differenti, e quindi ritengo che non debbano usare il log coloro che :

    • Devono girare solo il materiale e darlo in pasto a terze parti che non sanno usare il Log.
    • Non sanno come girare il materiale Log, non conosco le scelte da fare e per non rischiare di avere immagini troppo piatte meglio avere una immagine classica.
    • La macchina ha troppe curve di Log che essendo molto flat (sony) non sanno cosa scegliere.
  • Non c’è tempo per fare la post minima del log (non ci credo…).

Un esempio pratico

Qui potete vedere due immagini girate in Rec709 sopra e in Log sotto.
Dato che il Log dimostra le differenze nelle immagini estreme e non in quelle demo con illuminazione morbida, ho scelto una immagine notturna che mette alle corde i sistemi di compressione, i sensori, la gestione della luce e dei colori, con contrasti molto alti.
Le immagini, tranne l’ultima, sono in 4k x 4k per poter vedere effettivamente nel dettaglio la differenza di qualità tra le due modalità di ripresa

Log vs rec 709 original

Il girato ci appare in questo modo (con un click potete vedere alla risoluzione originale, 4k i file)

Apparentemente il log è leggermente più slavato ma sembrano simili prima di una eventuale postproduzione.

Log vs rec 709 illuminato

Per vedere bene la differenza tra le due immagini basta schiarire leggermente le immagini per vedere come la prima girata in Rec709 dimostri problemi e maggior rumore rispetto a quella sotto girata in Log.

log vs rec709 corretti

Dopo aver applicato una leggera correzione al Log per portarlo vicino al Rec709 sembrano essere simili, ma in realtà se guardiamo bene nei dettagli le differenze ci sono, sia nelle esposizioni delle luci, e le bruciature in quelle zone, sia perchè l’immagine Rec709 essendo più contrastata ha perso dettagli nelle ombre appiattendo la profondità della scena.

Con l’ingrandimento del dettaglio dei fari diventa evidente come quello sopra sia più grezzo e il rumore intorno ad esso sia notevolmente maggiore

rispetto al log sotto.

Quando un colorist ci chiede un flat, quale log dobbiamo dare?

nessuno… e tutti
non esiste un log migliore in generale, ognuno ha pro e contro, se è meno contrastato e meno saturo si rischiare di perdere tonalità nella compressione, se troppo contrastato e saturo è poco utile come log, dipende dalla scena che andiamo a catturare e dalle curve di log, tanto al colorist non interessa quale log avete applicato quanto lo spazio di lavoro per agire nel suo campo. Se mai vi chiede quale log avete usato per applicare la corretta LUT di correzione… cambiate persona perchè quello non è un vero colorist ma un applicatore di preset, che offende la categoria dei colorist.

Lo scopo di chi registra (dop, dit) è catturare la gamma dinamica più ampia per offrire al colorist il maggior spaziodi lavoro utile, poi eventualmente se clip sono tutte simili, sbviluppata la prima applica alle successive lo stesso tipo di sviluppo / correzione, ma questo vale per blocchi di clip legati alla ripresa, non esiste possibilità che una lut (non sviluppata sul set in loco) possa ottenere un corretto sviluppo del vostro girato senza farvi perdere parte della gamma dinamica.

Tech note

quando si espone, ogni dop o fotografo sa che per ogni “stop” di luce si deve raddoppiare le informazioni, per farla semplice, se ho 100w di illuminazione, per ottenere +1 stop devo metterne il doppio del precedente, quindi 200W, ma appena supero questa soglia, +2 stop uguale 400W (il doppio del precedente) quindi come vedete diventa rapido il calcolo per cui come nel logaritmo, per avere le informazioni necessarie è fondamentale raddoppiare le informazioni di base ( o dividerle) quando si tratta di luce.

Quindi se ho esposto correttamente un’area del sensore avrò il valore di partenza, poi ad ogni salto in avanti o indietro, dovrò raddoppiare o dividere i valori di informazione luminosa, il che significa che tra luce e ombra in modo lineare avrei il massimo delle informazioni solo ed esclusivamente nella luce. Mentre in una cattura logaritmica che mima una distribuzione più uniforme delle informazioni siamo in grado di “distribuire” in modo più “variegato” le informazioni disponibili, quindi sia nella luce che nell’ombra possiamo catturare un certo numero di informazioni, offrendo nella fase finael una immagine più ricca di sfumature globali.

Ogni camera partendo da un sensore a 16bit offre come minimo 65k di sfumature di luminosità, quindi codificando queste stesse informazioni in una curva logaritmica più morbida e regolare, siamo in grado di ottimizzare la registrare delle informazioni per una immagine più ricca e pulita quando si scende a 10 bit o peggio a 8 bit di informazioni luma / colore.



Pagina 2 di 4

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!