Tutto è possibile

Tag: 4k Pagina 2 di 3

the Best of Sharpness, l’acutezza, la nitidezza e tutto il resto… o forse no

Nippon Kogaku 35mm 2.0 su sensore 4k

Oggi con la fisima della nitidezza e della definizione inoculata dal marketing, se non abbiamo un telefono che riprende in 8k (per mostrarlo sul display magari neanche fullhd, compresso), se non facciamo riprese panoramiche da 12k (combo di Newyork girato con 3 red 8k), non abbiamo immagini definite.

Dall’altra parte abbiamo persone che fanno studi scientifici sulla capacità visiva dell’occhio e confrontando in modo diretto le immagini delle diverse camere dimostrano che a parità di pixel non è detto che abbiamo realmente immagini più definite, anzi in certi casi diventa il contrario, motivo per cui Arriflex con la sua Alexa, 2,7k e 3.4k in openGate spesso offre immagini più nitide di quelle catturate con cineprese digitali 8k.

Senza fare il pixel peeper, lasciando queste seghe mentali ad altre persone, visto che il mio obiettivo primario è la narrazione per immagini, vediamo di capire brevemente quali sono i fattori che permettono di esprimere al meglio la nitidezza e l’acutezza di una ripresa (indipendentemente da fattori umani).

fattore 1 : la lente

 

La lente può (condizionale) determinare la qualità dell’immagine perchè è il sistema con cui si cattura la luce, la focalizza e la proietta sul piano focale (pellicola o sensore). La qualità delle lenti oggi è abbastanza lineare, per cui la differenza può essere la luminosità della lente, ma usata nel modo corretto (vedi il fattore 2), una lente media offre una buona definizione senza dare grandi limitazioni sulla nitidezza, a patto che :

  • la lente sia pulita e non abbia elementi estranei sopra
  • che non ci sia luce laterale (non protetta da paraluce e mattebox) che abbatte il contrasto
  • che non ci siano filtri di bassa qualità che riducono la definizione iniziale della lente, spesso si usano filtri neutri di qualità non ottimale, che riducendo la luce la diffondono togliendo nitidezza all’immagine originale.
  • che sia correttamente calibrata per proiettare sul sensore l’immagine (alcune lenti soffrono di problemi di pre/back focus, ovvero l’immagine viene proiettata poco prima o poco dopo il piano focale, quindi per centesimi di mm di tolleranza l’immagine è più morbida perchè non allineata col piano focale
  • che la lente sia perfettamente allineata (in alcuni casi le lenti possono essere leggermente angolate rispetto al piano focale causando una perdita di definizione su uno dei lati in alto, o in basso, o a destra, o a sinistra.

In un precedente articolo avevo fatto una disanima tra diverse lenti, da lenti vintage a lenti medie, e una lente di fascia più alta senza riscontrare una differenza di nitidezza percepibile nell’uso comparato: stesso diaframma, stessa situazione, stesso sensore, stesso soggetto.

fattore 2 : il diaframma

Quando si gestisce la ripresa troppe persone dimenticano che le regole di fotografia valgono sempre, indipendentemente dalla qualità dell’attrezzatura. Molti oggi sanno che il diaframma gestisce la luce in ingresso definendo se farne entrare tanta o poca, e di conseguenza alterando anche la profondità di campo. Ho spiegato in modo più esteso in un altro articolo sull’esposizione questo discorso, ma in molti non sanno come cambiando il diaframma si possa entrare in un campo di alterazione della luce che genera la DIFFRAZIONE e come possa essere il limite della propria ripresa.

In breve cosa è la diffrazione?

Quando si chiude il diaframma di un valore maggiore di X il dettaglio di luce proiettato sul diaframma non si concentra ma si diffonde, per cui un punto chiaro su una superficie scura non è più nitido ma sfuocato. Tradotto in soldoni c’è troppa luce e chiudo il diaframma pensando di ridurla, ma man mano che chiudo il diaframma perdo nitidezza, quindi a diaframma 22 la stessa immagine sarà sfuocata rispetto a diaframma 11 come se avessimo applicato un filtro di diffusione o di blur.

Come si gestisce la diffrazione?

Dato che la diffrazione appare da un certo diaframma in poi si tratta di scoprire quale sia il diaframma limite della propria lente, in funzione del proprio sensore. Un semplice e comodo calcolatore di diffrazione lo potete trovare in questo interessante articolo sulle lenti e le loro caratteristiche.

Comunque per semplificare la vita a molti di noi, una semplice tabella per avere un riferimento, poi da lente a lente può esserci più tolleranza.
Risoluzione vs Dimensione

Risoluzione Sensore Sensore 4/3 Sensore s35 Sensore 24×36
FULL HD f/18 f/26 f/32
4k f/9.9 f/12 f/18
4.6k (UMP) f/11
5.7k (eva1) f/8.8
8k (Red Helium) f/9.4

Come si può notare non si parla di diaframmi particolarmente chiusi, se non alle basse risoluzioni, il che diventa particolarmente divertente notare come con l’aumentare della risoluzione si abbassa la possibilità di chiudere il diaframma, altrimenti si crea diffrazione, catturando una immagine progressivamente più sfuocata pur aumentando il numero di pixel catturati. Attenzione che per risoluzione si intende la risoluzione del sensore, non della cattura del filmato, perchè la dimensione dei fotodiodi o dell’elemento che cattura la luce influenza in modo diretto la nitidezza delle immagini.

Per questa ragione quando si lavora con le cineprese digitali il filtro neutro è un elemento fondamentale e indispensabile per preservare la nitidezza originale, e contrariamente a quello che credono molte persone, le dslr non sono così comode avendo un gran numero di pixel da cui ricavare un formato fhd, perchè se usiamo una fotocamera che registra in fhd ma il sensore è un 24mpx, quello è il limite da usare per scegliere il diaframma di ripresa e mantenere il massimo della nitidezza possibile, a questo proposito la mirrorless ottimale per il video è quella creata da sony nella serie A7s perchè pur usando un sensore fullframe ha una risoluzione di ripresa corrispondente all’output, ovvero 4k, e quindi meno sensibile alla diffrazione di una A7r che con 36 e 54 mpx tenderà ad avere il triplo e il quintuplo dei problemi.

fattore 3: il sensore

 

Il sensore, la sua tipologia, la sua risoluzione possono influenzare la nitidezza catturata, quindi ovviamente se il sensore è a misura della risoluzione di uscita il risultato sarà migliore. La maggior parte dei sensori sono strutturati da una matrice detta Bayer, nella quale si cattura un segnale monocromatico e poi filtrandolo si ricavano i colori, per cui abbiamo il verde che rappresenta la luminanza che possiede buona parte delle informazioni, mentre gli altri due colori sono ricavati ecatturati parzialmente, per cui si dice che comunque un sensore xK abbia una reale risoluzione di 2/3 dei K originali e poi venga fatto l’upsampling effettivo dei pixel. Il che tecnicamente è vero, ma non è un reale problema. Esistono sensori fatti come wafer dei tre sensori (uno per colore) che catturano separatamente le componenti colore RGB che spesso offrono immagini di ottima nitidezza. Esiste poi la scuola di pensiero del downsampling, ovvero catturiamo con un sensore di dimensioni maggiori, ad esempio 4.6k, 5,7k e poi da questo ricaviamo alla fine un segnale in 4k o 2k o fhd, in modo da sovracampionare le informazioni e avere una maggior precisione e dettaglio. La semplice prova di forza o applicazione muscolare degli X k non è fonte sicura di qualità o di dettaglio, inoltre con l’aumentare della risoluzione e non delle dimensioni del sensore incontriamo il problema della Diffrazione (come abbiamo visto prima), e il problema della sensibilità, perchè la stessa lente deve distribuire la stessa luce su un numero maggiore di fotorecettori, quindi ogni elemento riceve meno luce o con meno intensità.

A livello teorico maggior numero di pixel correttamente gestiti nella cattura può corrispondere ad un maggior numero di dettagli, a patto che utilizzi la risoluzione reale del sensore, cioè i pixel catturati siano esattamente la matrice del sensore.
Le eventuali elaborazione del segnale prima della registrazione (raw o sviluppata) possono inficiare la nitidezza del segnale. Esistono diversi tipi di amplificazione del segnale e durante quella fase (analogica o digitale) si può alterare la percezione di nitidezza.

fattore 4: la compressione

Una volta catturate le informazioni, queste devono essere in qualche modo registrate, e pur partendo da sensori con un’alta capacità di cattura di dettaglio, o d’informazioni (spesso 16bit lineari) poi la registrazione delle informazioni viene ridotta a 14-12bit raw o 10bit compressi con algoritmi varii che per ridurre il peso dei file andrà a alterare in modo più o meno significativo le nitidezza delle immagini. Ogni camera ha i suoi algoritmi di compressione, molti nelle cineprese si basano sul concetto della compressione wavelet, che sia raw o no, per impedire la formazione di blocchi di tipologia più “digitale” come la compressione mpeg che genera blocchi di dati a matrici quadrate, questo ottimo tipo di trasformata nel momento in cui si comprimono i dati tende man mano che si aumenta la compressione a rendere più morbido il filmato. Naturalmente quando si parla di morbidezza parliamo di finezze, non certo di avere immagini sfuocate. Molti Dop quando usano le camere Red scelgono di usare compressioni più o meno spinte in alternativa all’uso di alcuni filtri diffusori per rendere più piacevoli le immagini.

Quindi facendo una ripresa o una fotografia, non possiamo strizzare i dati in poco spazio e pretendere di avere il massimo delle informazioni, del dettaglio, della definizione. La scelta dei formati di compressione è molto importante e conoscere le differenze tra i diversi formati di compressione e le loro tecnologie applicate alle diverse camere è importante per poter gestire correttamente la qualità di partenza iniziale. Alcuni formati a compressione maggiore (h264/5) generano artefatti a blocchi, mentre le gestioni dei formati wavelet possono ridurre la nitidezza dell’immagine man mano che si aumenta la compressione, ma in modo molto leggero, tanto che molte compressioni wavelet vengono definite visually lossless

fattore 5: la lavorazione

Le lavorazioni dei file possono alterare la percezione della nitidezza se vengono create più generazioni dei file originali non utilizzando formati DI di qualità per lo scambio e l’esportazione dei materiali. L’applicazione di effetti o lavorazioni con sistemi non professionali può causare ricompressioni non volute, downscaling e downsampling colore che possono influenzare la nitidezza originale. Inoltre ci sono fasi molto delicate come il denoise che in certi casi può essere troppo forte o troppo aggressivo e come tale tende a mangiare non solo il rumore, ma anche il dettaglio fine.

fattore 6: il delivery

Un fattore poco conosciuto è la scalatura dinamica dei flussi video, soprattutto quando si guardano i film in streaming legale. Il file alla fonte ha una risoluzione e una compressione, ma durante la trasmissione se ci sono problemi di segnale, rallentamenti, problematiche varie il segnale viene istantaneamente scalato per impedire che il filmato vada a scatti o in qualche modo possa influire sulla visione generale, quindi da una scena all’altra potrebbero esserci delle variazioni consistenti della qualità e i sistemi di contrasto dinamico andrebbero ad amplificare ulteriormente i bassi dettagli. Se abbiamo un prodotto stabile e lineare come un bluray o un bluray 4k abbiamo la certezza che la qualità sarà sempre costante, mentre se usiamo una distribuzione differente delle perdite di qualità potrebbero essere causate dalla trasmissione variabile.

fattore 7: la fruizione

Un fattore che tanti sottovalutano, spesso causa del danno finale, sono i metodi di fruizione del materiale video. A partire dal dispositivo di visione, che spesso altera in modo più meno significativo l’immagine, vedi l’articolo sui televisori da telenovelas, al metodo di gestione delle informazioni. Quando vediamo una immagine non sappiano se il pannello è a misura per l’immagine che stiamo vedendo, il che può essere causa di alterazione di vario tipo, perchè dovrà essere scalata in realtime con diversi algoritmi più o meno efficienti nel mantenere il dettaglio o perderlo. Spesso abbiamo televisori 4k che mostrano materiale fhd (1/4 delle informazioni) o peggio sd (1/16 delle informazioni). Il danno però nasce dal fatto che tutti questi televisori applicano le funzioni di oversampling anche quando una immagine ha realmente la dimensione del pannello, quindi anche se apparentemente sembrano ancora più nitide, in realtà gli effetti dei vari algoritmi di sharpening tendono a creare nuovi “FINTI” dettagli che sovrascrivono e cancellano i dettagli originali.

Spesso ci sono tanti parametri attivati a nostra insaputa, o peggio abbiamo la difficoltà di disabilitarli, perchè solo in determinate combinazioni di visione sono modificabili. Ci sono prodotti di fascia alta che è possibile disabilitare le maschere di contrasto e i vari algoritmi di contrasto solo con i segnali in ingresso HDMI, non per i segnali interni o da stream internet interno… il che è può essere imbarazzante con i segnali 4k da Netflix che sono ottimi e non richiedono ulteriori process, anzi…

 


Che bel televisore per vedere le telenovelas …

La schiava Isaura, la prima telenovelas della storia.

Un po’ parafrasando una frase detta da una persona a Cannes, che la digitalizzazione delle pellicole sarebbe capace di trasformare Barry Lyndon in una telenovelas, un po’ perchè oggi tra gli addetti al settore si dice che una certa immagine è “da telenovelas” ho deciso di scrivere due righe a proposito di uno drammi moderni nel vedere un film con una televisione : la rielaborazione delle immagini.

Grazie all’avvento della teorica alta definizione casalinga, parlo di teoria perchè molti canali televisivi trasmettono sui canali hd film da master in definizione standard, oppure solo ogni tanto trasmetto in hd qualcosa, le case di tutto il mondo si sono riempite di brillanti e molto contrastati televisori per vedere telegiornali e ogni tanto anche un film.

La battuta non è causale perchè tutti i televisori moderni, anche e soprattutto se hanno una definizione superiore come il 4k sono pensati principalmente per riprodurre materiale in definizione molto scarsa, e come tale da essere rielaborata perchè altrimenti le “persone sarebbero scontente del televisore”, ho letto la settimana scorsa di una persona che si lamentava della mancanza di definizione di un televisore 4k nel vedere le partite, non su canali dedicati in hd, ma sulla semplice rai SD, e la lamentela continuava dicendo che essendo il televisore 4k tutto doveva essere migliore… e che lo avrebbe cambiato a breve col marchio x che le fa vedere meglio…

è per questo tipo di persone che rappresentano il pubblico medio che ci dobbiamo sorbire immagini orribili quando andiamo a vedere immagini di qualità.

La spiegazione è molto semplice: tarando i televisori per immagini che sono forse un quarto della definizione (trasmissione fhd) o addirittura un sedicesimo della definizione del 4k, i pixel devono essere gonfiati, e quindi come tali si vedrebbero delle immagini sfuocate o di pessima qualità, quindi vanno rielaborate per sembrare migliori. Il concetto andrebbe bene se la manipolazione fosse progressiva e dosata sulla sorgente, ovvero se forniamo al televisore immagini di risoluzioni superiori o adatte alla matrice del televisore questi algoritmi si dovrebbero disabilitare, invece lavorano comunque alterando immagine, colore, contrasto, e addirittura il movimento percepito delle immagini purtroppo non tutti gli algoritmi di rielaborazione sono modificabili o diabilitabili, addirittura ogni produttore nasconde dietro nomi diversi le diverse funzioni e alcuni impediscono la disabilitazione se non sui segnali in ingresso sulle HDMI, per cui anche ricevendo un ottimo segnale 4k da netflix, devo usare un dispositivo con ingresso esterno per evitare che venga manipolato dal televisore rovinandolo.

Ora vediamo all’atto pratico cosa succede e come le immagini vengono alterate.
Qui vediamo la situazione più comune, una immagine nativa 4k vs l’equivalente trasmessa in SD, come trasmettono la maggior parte dei canali oggi nel 2018, se non mi credete andate nelle info del canale sul vostro televisore e guardate lo stream a che definizione viene inviato.

Ricordo che una classica immagine UHD è fatta da 3840 x 2160 pixel, il FHD da 1920×1080 pixel (esattamente la metà in orizzontale e verticale, quindi un quarto), il formato HD è 1280 x 720 pixel, e infine l’SD è solo 720×576 pixel rettangolari, perchè naque in un formato più quadrato e quindi per ottenere una scalatura su matrici moderne oltre che scalato viene distorto in orizzontale.

Come si può notare la differenza tra UHD (4ktv) e il formato Standard visti al 100% è notevole, perchè abbiamo una differenza di sedici volte delle informazioni visibili, quindi ingrandendo il segnale SD si vede in modo evidente la differenza.

Dato che i dettagli non si possono inventare, in queste situazioni non si può fare nulla, tranne masticare le immagini con algoritmi varii per fingere che ci sia contrasto dove non esiste, ma con immagini con dettagli fini come questi, il problema della scarsità di qualità rimane.

Se invece andiamo a lavorare con un pò più di risoluzione, ovvero con il formato HD, già il salto non è così disturbante, e potrebbero lasciare le immagini alla loro natura.

Se potessimo vedere sempre immagini in FHD su televisori FHD o 4k, la scalatura diventa minore e quindi meno evidente, anche se presente.

L’elemento che ci inganna è il fatto che ogni segnale viene processato in più modi e la stessa immagine riceve più trattamenti, dalla cosiddetta clarity che spinge luci e ombre in due estremi, alle maschere di contrasto per rendere più definiti dettagli che non possono essere definiti perchè troppo grossolani, oppure anche se il dettaglio è presente in modo corretto, lo rende artificiale perchè applica la maschera in modo lineare su tutta l’immagine.

quindi nella realtà non vedremmo una immagine in cui ci sono poche differenze tra fhd e 4k, ma vedremmo una immagine rielaborata del FHD creando articialmente difetti e artefatti dove non servono.

Quando vediamo una telenovelas è normale una certa piattezza di luce perchè per risparmiare tempo e non rischiare differenze tra una inquadratura e l’altra si rende molto più piatta e uniforme l’illuminazione, dato che si gira con telecamere la paura di non avere immagini nitide porta ad alzare parametri di nitidezza artificiale in camera, inoltre i sensori delle camere da studio sono tali per cui non si hanno grosse sfumature e differenze tra le diverse colorimetrie del set e i diversi incarnati. In pratica esattamente l’opposto di ciò che si fa con i film per dare il look cinematografico.

Prendiamo una immagine dal bluray di MonsterSquad, un classico teenager movie anni 80 a cui serie come Stranger Things devono tutto, mettiamola su un normale televisore, il risultato nel migliore dei casi sarà come quello che vedete qui sotto, ovvero una versione telenovelizzata dell’immagine originale, con applicata la tecnica della clarity per dare maggior contrasto locale all’immagine,  una maschera di contrasto per definire tutti i dettagli dell’immagine, rovinando completamente l’atmosfera dell’immagine, appiattendo l’immagine dove il direttore di fotografia aveva deciso separando con luce e ombra i due piani. E’ molto evidente se si guarda come vengano fuori gli elementi dalle ombre dietro l’attore, distraendo e comprimendo lo spazio intorno ad esso.

Naturalmente non può mancare una forte riduzione rumore perchè di sicuro tra compressione e trasmissione si creerà rumore che assolutamente non può essere accettato, peccato che venga eliminata spesso in questo modo anche la grana e la struttura della pellicola, oltre ad eliminare il dettaglio fine.

Il dettaglio artificiale dato dalla maschera di contrasto esalta in modo eccessivo i capelli dell’anziano protagonista, ma accentua anche i dettagli fuorifuoco alla sua destra, perchè purtroppo l’algoritmo viene applicato in modo piatto e uniforme ad ogni parte dell’immagine, mentre nella realtà se abbiamo una parte nitida (a fuoco) e una morbida (fuorifuoco) la nitidezza naturale è dosata e distribuita aumentando la sensazione di profondità delle immagini.

Queste tecniche potrebbero aiutare una immagine debole, ma se applicate ad una buona immagine la rendono molto più televisiva e piatta, rovinando il lavoro di un buon direttore di fotografia, e non solo. Inoltre andrebbero dosate inquadratura per inquadratura, area per area con delle maschere, per poter dare un vero contributo all’immagine, invece su qualunque televisore applicano questi effetti in modo piatto su tutta l’immagine rovinando in più punti la resa della fotografia.

Il buon Stu di ProLost, esperto di vfx, colore e immagini ha fatto un ottimo post su come non solo rovinino le immagini a livello colore e contrasto, ma rielaborino anche il movimento e la percezione dello stesso, creando artificialmente fotogrammi superflui, che diventano necessari perchè gli originali essendo stati troppo contrastati hanno perso la loro originale sfuocatura di movimento e sono diventati scattosi… insomma un serpente che si morde la coda…

Chiudiamo il discorso con un paio di immagini pubblicitarie che ci fanno capire come il brutto vizio di manipolare le immagini non è una derivazione moderna, ma da tanti anni abbiamo il problema di poter vedere ciò che i direttori di fotografia hanno pensato in origine, solo che una volta sui tubi con l’immagine analogica le rielaborazioni erano limitate, oggi purtroppo si può massacrare ogni immagine oltre ogni limite della decenza.

https://youtu.be/kBTnOmIXnp4

comunque nel mio post sui formati dell’immagine potete trovare qualche riferimento su come una volta venissero tagliate anche le proporzioni video e selvaggiamente tagliate le inquadrature per adattarle prima al 4:3 poi a rovescio per adattare al 16:9 filmati girati con aspect ratio più vicino al 3:2 (super16mm).

Invece per chi è dubbioso, feci tempo fà un post tra pellicola e digitale, le differenze effettive in ripresa e resa dei due media, sfido tante persone di distinguere al cinema quali sequenze sono girate in pellicola, quali in digitale e poi stampate su pellicola, etc… la maggior parte delle persone non si accorge di come i film contengano una miscelazione ampia di diversi media, analogici, digitali etc.

Sono sicuro che se Kubrick fosse ancora vivo, non solo avrebbe abbracciato il digitale, ma sarebbe stato così cocciutamente testardo da far creare per lui un sistema di check dei proiettori digitali e dei televisori per far vedere correttamente le immagini dei suoi film, cosa tecnicamente fattibile da anni, ma che a quanto pare non sembra interessare a nessuno, e questa non è una mia elucubrazione, ma alle prime di molti suoi film si preoccupava che la proiezione fosse a livello qualitativo eccellente per esaltare il lavoro da lui fatto svolgere, quindi se lo fece per la pellicola, lo avrebbe fatto fare anche per il digitale.

Nota a margine: la schiava Isaura, la prima telenovelas ufficiale della storia della tv era girata in pellicola, quindi ironicamente poco telenovelas come stile visivo.


dal 2K al 16K, a quanti K ci vogliamo fermare?

16K magari in 3D a 360 e in Odorama…

i K di risoluzione oggi sono i cerchi in lega delle camere digitali, ovvero orpelli con cui si attira l’acquirente ma non sempre si equivalgono a una vera crescita di qualità, ma questo non è un articolo tecnico dedicato a questo o quell’altro formato, a questo o l’altro codec o strumento, è un articolo dedicato a quello che i venditori di fumo vi vogliono far dimenticare… Fisiologia umana

In tutti i discorsi sui K di proiezione, di tv, si dimentica il dettaglio fondamentale, ovvero se e chi è in grado di vedere quel dettaglio, perchè fisiologicamente l’occhio umano ha dei limiti… non siamo aquile, anzi l’umanità è destinata tra visione ravvicinata con cellulari e tablet, Visori 360 e simili a perdere sempre di più la capacità visiva a distanza.

Secondo il test con la tabella di Snellen, una persona con una vista a 10/10 (non la media delle persone) ha la capacità di distinguere due elementi distinti con un alto contrasto (elementi neri su fondo chiaro) a distanza X.

Questo tipo di capacità è al massimo con il bianco e nero, nel momento in cui ci sono anche dei colori questo valore si alza, ma per amor di semplicità teniamolo buono anche per il colore.

Il calcolo in funzione dell’acutezza visiva umana si può ottenere in modo semplicistico dividendo la distanza di visione dell’elemento in mm / 687,5 = il dettaglio minimo in mm che si può vedere.

a 1 metro si possono vedere al min di 1.45 mm
a 3 metri si possono vedere al min di 4,36 mm
a 5 metri si possono vedere al min di 7,27 mm
a 10 metri si possono vedere al min di 14,5 mm
a 20 metri si possono vedere al min di 29,09 mm

Partendo dal concetto di avere immagini perfettamente nitide, in ogni caso, con massima acutezza e massimo contrasto delle stesse :

Immaginiamo di metterci davanti ad uno schermo cinema da 24 metri x 10 metri in una proiezione 2.40, due tipi di proiezione, 4K e 2K:
– 4K abbiamo una risoluzione verticale di 2160 pixel, quindi 4,6mm per linea.
– 2K abbiamo una risoluzione verticale di 1080 pixel, quindi 9,2 mm per linea.

quindi per poter vedere effettivamente il dettaglio della proiezione a 4K dovremmo essere al max a 3 metri dallo schermo, mentre per il 2K a non più di 6 metri, peccato che…
per vedere uno schermo da 24 metri per intero, considerato che il sistema visivo umano non è quello dei camaleonti, c’è all’angolo visivo che percepisce il dettaglio, perchè noi vediamo a 90 gradi di fronte a noi il dettaglio, mentre man mano che ci si sposta lateralmente percepiamo solo il movimento e non il dettaglio.
Comunque per vedere interamente uno schermo da 24metri dobbiamo porci a circa a 20 metri, quindi possiamo distinguere solo dettagli distanti tra di loro 3 cm, mentre il 2K è inferiore al cm…

Immaginiamo una situazione casalinga, guardiamo a 2 metri un televisore 60 pollici, dim media 133 x 75cm. A 2 metri siamo in grado di distinguere il dettaglio di 2,9 mm di distanza, il dettaglio esprimibile in FullHD è di 750mm diviso 1080, ovvero 0,694 mm cioè ben 4 volte quello che possiamo vedere, se la tv è 4k abbiamo 750mm diviso 2160 è di 0,347mm cioè ben 8,35 volte la nostra capacità visiva.

In realtà al cinema la struttura dell’immagine è più continua, quindi ulteriormente più complesso leggere il dettaglio singolo, mentre sul televisore esiste un microspazio tra un elemento luminoso e l’altro che spesso danno la percezione di leggere più o meno dettaglio di quello che realmente siamo in grado di percepire.

Se voi vi avvicinate allo schermo cinematografico, essendo luce riflessa, il microspazio tra i pixel proiettati va a sparire, per la distanza di proiezione, per la riflessione e diffusione della luce, quindi non percepite i singoli pixel, mentre se fate una proiezione casalinga, si vedono gli spazi nella matrice e questo fornisce una peggior percezione del dettaglio finale.

Già se si osserva un monitor da computer, un 32 pollici è alto circa 40cm, con una risoluzione di FHD abbiamo una linea di dettaglio per ogni segmento da 0,37mm, monitor che noi guarderemo a circa 50 cm di distanza, dove siamo in grado di leggere circa 0,72mm di dettaglio, cioè più del doppio… da qui nasce il dilemma e la reale utilità dell’utilizzo di monitor 4k per il computer… visto che difficilmente avremo la capacità visiva di percepire la differenza tra le due risoluzioni…

Tutto questo ammettendo che abbiate 10/10, il sottoscritto non ce l’ha, ammettendo che le immagini abbiano una gamma dinamica perfetta, un dettaglio talmente elevato da poter separare ogni singolo elementi per pixel senza antialiasing intermedio, che sia compresso e riprodotto al meglio per non perdere questa acutezza, che non ci siano effetti di postproduzione che alterano la percezione di tali elementi, che il sistema di riproduzione sia in grado di riprodurre per ogni singolo pixel un reale punto di luce nello spazio, ma soprattutto che il sistema di cattura abbia realmente catturato quelle informazioni e non abbia usato nessun sistema di pixel shifting (vedi più avanti) nè interpolazione da sensori a risoluzione più bassa.

Posso immaginare che qualcuno possa dire, ma io se vedo un SD o un FullHD sullo stesso tv vedo la differenza, ovvio, anche perchè la sorgente SD di solito arriva da una fonte di qualità talmente bassa che non offre realmente la risoluzione reale, cioè è più sfuocata e quindi i pixel non offrono il contrasto che potrebbero realmente dare. Ad esempio un DVD se visto in 4/3 ha pixel che vengono leggermente scalati in larghezza, ma se visto in 16:9 il numero dei pixel è sempre lo stesso, ma viene scalato di quasi il 30% in orizzontale facendo perdere molto dettaglio, se guardiamo una trasmissione televisiva la registrazione originale anche se digitale non conservava realmente tutte le informazioni per pixel, se poi è passata per una trasmissione via etere la quantità di dettaglio perso è semi infinita.
Inoltre che le varie rielaborazioni che le tv offrono sulle immagini in basa definizione in realtà si amplificano questi divari, contrastando gli impasti dei pixel.

Comunque non sono l’unico ad aver fatto i conti, anzi… soprattutto una azienda che produce ottiche da cinema e ha tutto l’interesse a far cambiare le ottiche per vendere le nuove… oppure no..

Spesso si cita tra i film full Digital come pionieri il secondo impianto di StarWars, che io trovo molto digitale e televisivo come risultato, come tipologia d’immagine etc, mentre preferisco citare un film uscito nello stesso anno, realizzato da Robert Rodriguez, su suggerimento dello stesso Lucas con la stessa camera “One upon a time in Mexico” che nessuno ha giudicato digitale o poco filmic, pur usando la stessa camera.
StarWar Clone Wars imdb link tech

Once upon a time in Mexico imdb link tech.

 

 

Quindi girare in 4K o 8k è inutile?

Dato che il 4k sembra diventare lo standard anche per la visione su cellulare, partiamo dal differenziare un paio di concetti: ripresa vs delivery.

Ripresa al massimo della definizione e qualità è un ottimo principio perchè quando si deve fare il downsampling (la scalatura verso il basso) la qualità globale, il dettaglio saranno sempre migliori che girare in risoluzioni inferiori. Se sono necessarie maschere, effetti di post, reframing etc una maggior risoluzione lascia spazio a lavorazioni dell’immagine senza perdite di qualità percepita.

Delivery al massimo della definizione… anche no…

  • se il sistema di trasmissione non permette un flusso dati sufficiente, meglio una definizione inferiore con più dettaglio che una maggior risoluzione più compressa che in ogni sistema di compressione creerà più artefatti e macroblocchi, non a caso molte tv digitali la trasmissione HD è preferita anche al FHD, per ottimizzare il flusso dati, solo NetFlix oggi ha trasmissioni 4K da riprese 4k, con controllo del flusso di lavoro.
  • se il sistema di visione non è adeguato per la risoluzione maggiore lo scalerà al volo, spesso con maschere di contrasto etc danneggiando il filmato, peggiorando notevolmente il dettaglio e la gamma dinamica generale
  • se la fruizione non è adatta a quella risoluzione, alla meglio sarà uno spreco di risorse di trasmissione, lettura, gestione, alla peggio non si vedrà la differenza

Detto questo non voglio incentivare il ritorno al vecchio formato SD, ma prima di comprare il nuovo monitor o tv 4k invece che un fullhd valutate bene le distanze da cui vedrete il tutto, valutate se effettivamente farà la differenza o ci sarà qualche altro elemento più interessante da valutare sulla qualità della tv… entro certi tempi perchè… il mercato velocemente sceglierà per voi eliminando il televisori Fhd.


Dal passato con furore…

Chiunque mi conosca sa che ho una certa passione per le lenti vintage.

Acquistare una lente vintage significa rinunciare nella maggior parte dei casi agli automatismi, il che non è un male, se per usarle non si ha fretta o non le si vuol usare per fotografia o ripresa sportiva. Per quanto mi riguarda le lenti vintage a me servono per fotografia e ripresa in condizioni più o meno controllate, e quindi non sono interessato agli automatismi, anzi spesso li disabilito per avere il controllo.

Perchè una lente vintage, vista la vasta gamma di lenti che le case fotografiche offrono oggi?

oggi vengono vendute lenti a 80-100 euro che non valgono neanche i fondi di bottiglia, ma poste su camere che le riconoscono, che correggono in camera i difetti, e contrastano, rendono nitide in post, per molte persone possono essere una buona base di partenza. In passato non esistevano prodotti di bassissimo livello, perchè la pellicola non perdonava certi difetti, e la camera non poteva rielaborare le immagini, quindi molte lenti partivano già da un buon punto di partenza a livello qualitativo.

Le lenti vintage a seconda di chi le vende e dove le si comprano possono essere un ottimo affare a livello di rapporto qualità prezzo delle lenti.
Il fatto che lavorando solo in manuale diventano inutili o poco comode per molte persone, il corpo in metallo pesante per altri, che preferiscono i “plasticotti” leggeri, spesso si trovano occasioni sui mercatini, nelle aste di usato e on line.

Naturalmente esistono anche nel vintage lenti poco attraenti come qualità, tutto sta nel sapere cosa si cerca e dove si mettono queste lenti. Se si punta su marchi noti come Leica e Zeiss si ha la certezza che qualunque lente sarà al minimo di ottima fattura, poi ci sono diversi marchi russi che usavano lo stesso schema e tipo di lenti di Zeiss, ma con prezzi più popolari, e li a seconda degli obiettivi si poteva avere dei piccoli gioiellini o dei prodotti di media fattura. Altri marchi come Nikon, a seconda della lente e del periodo, offrono interessanti prodotti.

Volendo posizionare queste lenti su sensori moderni, non dimentichiamo che devono essere lenti di qualità per essere in grado di risolvere abbastanza informazioni per fornire ai sensori moderne dettagli sufficienti per costruire delle belle immagini, quindi la scelta deve andare di conseguenza su lenti di un certo valore.

Cosa mi offre in più una lente vintage?

mi offre le sue imperfezioni, la sua unicità.
Una lente moderna è creata in totale automazione, per cui se prendo 10 50mm 1.2 di un certo marchio so che intercambiandoli avrò lo stesso identico risultato, mentre se prendo anche due lenti vintage, prodotte parzialmente da opera artigianale, avrò dei risultati differenti, anche di poco ma avrò un qualcosa di personalizzato. Si narra che lo stesso Kubrick, fanatico ed esperto di fotografia, avesse chiesto a Zeiss diverse lenti dello stesso tipo, per scegliere e comprare quella che preferiva per ogni focale, così che fosse la sua lente, la sua scelta visiva.

Quale scegliere?

quelle che ci piacciono di più… io mi sono innamorato del look delle Nippon Kogaku, una serie prodotta dalla Nikon, prima che prendesse il marchio Nikon tra gli anni 50 e 60, lenti particolari, prodotte tutte in metallo pesante, grandi lenti limpide che offrono una luce pulita e morbida, pur lasciando molto dettaglio al loro interno.

Totalmente meccaniche si possono adattare all’attacco canon in modo facile e rapido con un anello, oppure se si vuol fare un lavoro fatto bene, l’azienda di barcellona chiamata Leitax crea baionette da sostituire alle originali, così avremo un saldo e robusto attacco nativo per canon.
Una alternativa disponibile per le conversioni delle sole lenti Canon FD è l’americano EDMIKA, che ora ha aperto un centro di conversione anche in Europa.

Il particolare coating di queste lenti non protegge troppo dai flare se riprendo direttamente la luce o in controluce, creando aloni attorno agli oggetti in controluce e particolari riflessi che trovo più interessanti e meno asettici delle lenti moderne, che nel tentativo di rendere perfette le immagini si adoperano per togliere il più possibile di questi difetti, che però danno un certo sapore alle immagini.
Mi fa sorridere l’idea di come si scelgano lenti moderne per evitare flare e aloni, e poi ci si adoperi in vari modi per aggiungerli in postproduzione, sia perchè lo trovo uno spreco di tempo, sia perchè alla fine dato che tutti quelli che li aggiungono in post, essendo dei preset, saranno tutti più o meno uguali, mentre con le lenti vintage quel tipo di comportamento è reale e quindi sarà differente ogni volta che si farà una ripresa.

Le foto che vedete qui sopra sono fotogrammi raw catturati con un sensore s35 4k, praticamente come una fotocamera 8,9 megapixel 12bit raw, che alternano un semplice 35mm 2.0 ad un piccolo gioiello, l’85mm serie H 1.8 della Nippon Kogaku, una lente per la quale l’ingegnere ottico prese la massima onorificenza dall’imperatore del giappone per il lavoro svolto nella qualità ottica e costruttiva; quante lenti oggigiorno possono vantare un simile background?

Un altro marchio che mi ha offerto tante soddisfazioni sono le lenti della serie Minolta rokkor MD, ho un 50mm 1.4 che usato con mirrorless mi ha offerto tante soddisfazioni sia come luce che nitidezza, di fronte ad una lente comprata usata per meno di 90 euro.

Un altro marchio molto interessante è Voigtlander, che produceva e produce lenti di altissimo livello, in vari mount, tra cui un mount molto interessante che è il Rolley QBM, il fattore interessante di questo mount è che è molto semplice ed economico adattarlo all’attacco EF canon, basta acquistare una economica baionetta, svitare le tre viti posteriori della lente, togliere il vecchio mount e mettere il nuovo, riavvitare e a questo punto la lente è pronta per essere saldamente unita con moderne camere.

Posseggo uno splendido voigtlander Ultron 55mm 1.4 AR che offre una luce e una definizione spettacolare anche sui moderni sensori, sia al centro che lateralmente anche a tutta apertura. Questi sono fotogrammi estratti da test eseguiti con la lente modificata e montata su una Blackmagic Production Camera 4k, pur vedendo solo dei jpeg è possibile comprendere la qualità offerta da una lente che ha più di 40 anni.

Naturalmente so che ci sono molte lenti Leica e Zeiss di qualità più alta di queste, ma parliamo di costi ben più alti che non avrei potuto affrontare, perchè anche se vintage, invece di perdere valore nel tempo, quelle lenti si sono accresciute di valore.

L’uso delle vintage è una moda o una reale necessità?

personalmente posso dire che ho una doppia ragione, da un lato parlo di un lato economico, perchè posso acquistare lenti vintage di una qualità che non potrei affrontare nelle controparti Zeiss moderne; da un altro lato il mio gusto visivo trova più soddisfazione nell’usare questo tipo di lenti che le asettiche e ultra taglienti lenti moderne, che trovo spesso anche troppo contrastate (non parlo di dettaglio, ma di contrasto luce ombra) per i miei gusti.

Che poi sia di moda in vintage e si cerchi di riprodurre i difetti dei filmati amatoriali del passato, quello è un discorso diverso, ad esempio la moda lanciata dalla Lomo, e la moda della lomografia, macchine e lenti con difetti voluti per simulare le brutte foto o i brutti sviluppi del passato è un tipo di gusto visivo che nasce dalla noia della perfezione moderna, dove chi sa che può riprodurre mille volte lo stesso risultato cerca l’originalità nel finto difetto, o vero difetto. Il che, mi ripeto, lo trovo ironico e divertente in un mondo in cui ci sono persone che cercano la perfezione assoluta, il risultato perfetto e la definizione perfetta.

Leggendo una intervista al leggendario Roger Deakins, ho visto che anche lui, nel campo cinematografico ha una netta preferenza alle lenti prodotte più nel passato che in quelle moderne per un certo modo in cui catturano la luce, e decisamente lui non ha problemi nel scegliere di noleggiare una lente più moderna da una prodotta 20 o 30 anni fà per una cinepresa seria.


Blackmagic Production camera 4k

designLe camere Blackmagic dal 2012 stanno sconvolgendo il mercato, dopo la prima 2.5k con un sensore s16 l’azienda ha lanciato diverse altre camere per affrontare diverse fasce di prezzo, fasce di produzione, ambiti di lavoro.

Per una serie di combinazioni fortunate ho per le mani una BMP4K che mi sta dando tante soddisfazioni in tanti ambiti, da quello più complesso a quello più semplice della ripresa in stile camera ENG.

Su queste macchine sono nati tanti miti, sia perchè sono apparentemente “economiche ” (la 4k costa poco più di una 5d MKIII) e quindi accessibili anche ai newbey del cinema, sia perchè molte persone hanno avuto la pretesa da una Cinema camera come una telecamera amatoriale, ovvero tutta in automatico, avendo risultati poco entusiasmanti.

Essendo più economica di una controparte come Red o Arriflex tante persone hanno potuto acquistare la camera, ma senza la preparazione, o la voglia di imparare ad usare una Cinema camera, ovvero un prodotto che nasce per il cinema, con tutto ciò che ne consegue.

Il fatto ironico è che la maggior parte dei difetti che vengono imputati alla camera sono gli stessi che si possono trovare su camere professionali da una decina di volte il suo prezzo, ma in quel caso non si trovano tanti lamenti, ma al contrario si guarda l’estrema qualità che offrono queste macchine. Il problema vero è solo ignoranza sul prodotto, sul tipo di prodotto che gli utenti hanno per le mani, quindi si cercano funzioni o automatismi tipici dei prodotti amatoriali o semiprofessionali che non esistono sulle cineprese digitali.

Mito 1 : economica = non professionale

Molte persone sentendo il prezzo di base della camera la scambiano per una fotocamera e quindi la considerano più un giocattolo che una cinepresa. Partiamo dal fatto che la camera da sola non serve a nulla, quindi oltre alla camera si deve investire una cifra superiore a quella della camera stessa per renderla operativa aggiungendo ad essa come minimo le seguenti componenti :

  • cage per gestire l’ergonomia della camera >150€
  • supporto batteria v-lock o g-mount > 150€
  • batteria g-lock v-mount 100 w > 200€
  • microfono pro >200€
  • recorder esterno / amplificatore audio > 300€
  • ssd certificato 480gb (20 min raw -> 4 ore proresHQ) 250€
  • zoom luminoso serio stabilizzato 2.8 minimo > 1200€
  • Filtro ND variabile serio (per esposizione corretta) 200€
  • Filtro IR per gestire IrPollution in situazioni complesse 180€
  • cavalletto base ma stabile >750€

quindi l’investimento minimo è di circa 7000€ ben oltre la classica vDSLR o la telecamera media base, per cui proprio giocattolo non la definirei…

Se poi una persona vuole lavorare con più qualità, a questi elementi si devono aggiungere :

  • Monitor serio SDI in Hd >500€
  • Filtri ND a lastra pieni e sfumati
  • Lenti prime 35mm-50mm-85mm-135mm  >400€ per lente

Però chi arriva dal mondo Run&Gun delle VDSLR non si rende conto che si devono prendere un minimo di accessori ed elementi per rendere operativa la camera, nè accetta che se si vuol passare dalla serie C alla serie B si deve investire non solo soldi, ma anche tempo, studio, esperienza per usare al meglio il nuovo mezzo.

Mito 2 : la batteria dura poco e non si può cambiare

Molte persone che vengono dalle telecamere amatoriali o dalle fotocamere sono perplessi da questa scelta, che è comune nel mondo professionale, perchè la batteria interna non è una batteria da produzione, ma di sostegno, ovvero serve a mantenere operativa la camera quando si passa da una batteria esterna all’altra.

Le camere professionali usano sempre e solo batterie esterne, perchè montare una batteria interna di grande capacità appesantirebbe troppo la camera, e la renderebbe troppo ingombrante. Al contrario in caso di uso di Gimbal o strumenti in cui serve la camera più “free” la batteria interna consente in tante situazioni di agire dove una normale cinepresa sarebbe troppo ingombrante con una batteria aggiuntiva.

Mito 3 : ha pochi iso, non va bene per le situazioni LowLight

Le camere Blackmagic Design nascono con poche simulazioni di iso, solitamente 200-400-800 e alcune hanno anche il 1600 iso.
La scelta tecnica è evidente per una persona che ha sempre lavorato con la pellicola, mentre è incomprensibile per chi arriva dal video.
Un sensore, tranne che per alcune eccezioni, ha solo una sensibilità, mentre le altre sono solo elaborazioni digitali delle informazioni catturate dal sensore.

La BMPC4K è una camera che nasce a 400 iso, dove esprime il meglio della gamma dinamica, quando si lavora in low light

porto di santa margherita ligure di notte

Esempio di shooting a 400 iso

BMD ha fatto la scelta più efficace, catturare tutto il possibile dal sensore e poi decidere in post con calma quanto tirar su, come e quanto ridurre rumore, etc.
Per la simulazione dei diversi iso ho approfondito i vari principi di lavoro in un altro articolo.

Il vero problema di avere pochi iso disponibili nella scelta (che quasi nessuno in realtà vede, ma è reale) quando si riprende in lowlight, potendo solo arrivare a 800 iso come simulazione, diventa più difficile fare il fuoco manuale, anche con il focus peaking, mentre in camere dove abbiamo la simulazione di iso maggiori, è più semplice vedere per mettere a fuoco con poca luce, mentre con la BMPC4K o si ha un monitor esterno con lut e simili o diventa complicato, ma si fa, come si è sempre fatto con le cineprese in 100 anni di cinema, non a caso nel cinema a lato cinepresa c’è un misuratore di distanza digitale per i fuochi.

Mito 4 : produce file troppo grossi da usare

beh questo è il mito che mi fa più ridere… si compra una cinepresa digitale per avere qualità e poi si pretende che registri dei file compressi come l’h264 o h265… rovinando tutta la qualità che può offrire…

Comunque oltre al Raw, che effettivamente richiede spazio e potenza per lavorarlo la stessa camera può registrare in diversi formati prores molto più parchi nello spazio occupato pur mantenendo una qualità molto alta.

Dal 4k si può passare al formato fullHD che è di ottima qualità perchè è un downsampling del segnale 4k che arriva dal sensore, quindi con un dettaglio e una nitidezza incredibili occupando comunque uno spazio ragionevole.

Se si spende 7000 € per una camera e poi non si spende qualche centinaio di euro per gli hard disk del girato… cambiate mestiere…

Mito 5 : non scatta fotografie

Per forza è una cinepresa!!! se è per quello non va su internet, e non fa un buon espresso…
anche se la maggior parte delle telecamere scattano fotografie, spesso di qualità non eccelsa, non è molto assennato comprare una cinepresa per scattare fotografie…
E’ un commento fatto da chi arriva dalle vdslr, e mi lascia perplesso… a quel punto potrei rovesciare la domanda, se compri una fotocamera da 2500 euro perchè non fa bene i video in fullHD e 4K (A7 series esclusa) ?

Comunque se una persona volesse usare la BMPC4K come fotocamera, e si adattasse ad una ergonomia non adatta a questo scopo, basta mettere la camera in modalità raw, scatto in timelapse a 1minuto, e usare il bottone d’azione anteriore per lo scatto.

Di contro si può pensare alla BMPC4K come una delle poche fotocamere al mondo da 8.6 megapixel che può scattare raffiche di 30 fotogrammi al secondo per lo spazio disponibile sulla memoria, cosa che nessuna dslr può fare…

Personalmente ho una fotocamera per fotografare, una cinepresa per riprendere, ad ogni oggetto il suo scopo dove si esprime al meglio.

Mito 6 : ha un sensore piccolo per sfuocare

La BMPC4k ha un sensore s35 standard come Alexa e Red, quindi nel formato 35mm cinematografico, con le ottiche si comporta esattamente come si comporta una cinepresa di fascia alta; la ricerca dello sfuocato ad ogni costo è una moda moderna nata con le riprese fatte con le fullframe, dove la profondità di campo viene ridotta in modo esagerato e incontrollabile in una ripresa in movimento.

Non è un caso che il cinema sia stato per la maggior parte delle sue incarnazioni un formato 35mm, mentre il formato 70mm è sempre stato relegato a poche produzioni e in situazioni più particolari. Una dimensione di piano focale troppo grande costringe l’uso di diaframmi molto chiusi per poter gestire agilmente la profondità di campo sia nello statico ma soprattutto in movimento, ma chiudere troppo il diaframma può comportare il problema chiamato diffrazione che fa perdere nitidezza nell’immagine.

Col salire della risoluzione si deve andare di pari passo con la dimensione del sensore, ma se a livello pratico sensorre più grande uguale più luce, sensore più grande risoluzione più grande significa spesso incorrere nel problema della diffrazione.

Se volete approfondire il discorso dei formati della pellicola e dei sensori potete leggere questo articolo, mentre a riguardo dei vantaggi e svantaggi dell’uso di sensori di dimensioni grandi e piccole le trovate in questo altro articolo. Con l’esclusione di Barry Lindon dove Kubrick fece fare delle lenti apposite molto veloci, si tende a usare diaframmi più chiusi per non far impazzire i fuochisti e avere spazio di movimento.

Mito 7 : non ha un Nd integrato

Normalmente le telecamere hanno filtri ND integrati e non le cineprese, Blackmagic ha fatto una scelta ben precisa, ottimizzare i costi creando un corpo macchina cinema, con le logiche del cinema, nessun Dop serio userebbe un Nd interno se può scegliere un Nd esterno, magari sfumato e di qualità molto più alta.

Allora lo stesso tipo di difetto lo si può imputare  a macchine più costose come Red o Alexa, ma nessuno sembra lamentarsene…

Mito 8 : non si possono cancellare le clip, riempirò il disco subito

vero, anzi verissimo, perchè come in altre camere professionali è impedita la cancellazione per due ragioni tecnico pratiche molto importanti :

  • si evitano cancellazioni accidentali di clip da parte dell’operatore o altre persone attorno alla camera
  • si evita la frammentazione del supporto con continue cancellazioni di clip e riscritture. Fondamentale quando si registrano dati raw a quasi 20 gb al minuto…
    La frammentazione causerebbe sicuramente rallentamenti nella registrazione, e/o fotogrammi saltati durante la registrazione

Il problema di riempire i supporti è proprio relativo ai videomaker, o chi è nato col nastro (me compreso) perchè abituati a supporti molto economici si tende a sprecare registrando il superfluo, e quasi a caso nella speranza di azzeccare qualcosa di migliore nel riprendere di più.

Nel cinema non si possono registrare di nuovo le pellicole, si impressionano una volta sola, se si sbaglia, si butta la pellicola… Usare gli ssd con le Blackmagic Camera segue lo stesso principio, non si butta nulla, ma prima di fare una ripresa una persona deve pensarci bene e fare al meglio.
Più che un limite lo vedo come l’opportunità di lavorare al meglio per quello che si vuol fare, per imparare a inquadrare e riprendere meglio.

Mito 9 : è una camera rumorosa

Per fortuna.. come lo sono anche Alexa e Red quando non sono esposte correttamente, o una pellicola sottoesposta… La camera nasce IN TUTTO e per TUTTO una camera votata alla postproduzione, e la riduzione rumore è un processo da fare BENE in postproduzione, farla in registrazione è una necessità delle riprese Run&Gun, ma nel cinema si cattura il materiale al meglio e poi solo dopo si andrà a manipolare, campionare e rimuovere il rumore scegliendo per ogni inquadratura i settaggi migliori, senza perdere di definizione.

Inoltre è importante sapere che la camera è una macchina che deve lavorare in ETTR, ovvero una camera che si espone guardando l’istogramma e spostandolo dal centro un po’ a destra, in modo che si avrà l’immagine più pulita e definita possibile.

L’esposizione ETTR che molti fotografi già conoscono, sia moderni che utilizzatori della pellicola, spesso è poco compresa dagli utilizzatori classici di camere e telecamere.

Il concetto è molto semplice, per avere una immagine pulita senza rumore si deve offrire un minimo di xx informazioni luminose, quindi si apre il diaframma, si illumina, si gestisce l’esposizione per far si che le parti più buie abbiano più luce possibile senza mandare in saturazione le alte luci, poi in post si riportano le informazioni dell’istogramma nella posizione corretta, con la differenza che saranno più pulite.

Dato che sia il raw che il prores 10bit offrono maggior spazio di azione, registrare immagini un po’ sovraesposte (ma non clippate) offre la possibilità di catturare immagini più pulite, che verranno equilibrate a posteriori.

C’è un interessante articolo sull’ETTR sul blog di un filmaker molto in gamba Tom Majersky, per comprendere bene come funziona e come usarlo al meglio.

Mito 10 : non registra l’audio bene

La camera nasce con un micro microfono giusto di riferimento, poi ha due ingressi audio bilanciati per introdurre un segnale audio stereo di qualità. grazie ai ricenti firmware (dell’ultimo anno) è stata ottimizzata per registrare da microfoni esterni o attraverso recorder esterni un segnale audio di più che discreta qualità, visto che comunque cattura audio a 24bit 48 khz… Volendo si può collegare un microfono direttamente agli ingressi bilanciati, ma come per molte altre camere è meglio mettere in mezzo tra microfono e camera un amplificatore di segnale, o personalmente ho fatto la scelta di un recorder esterno Tascam dr-70, che fa sia da amplificatore che da recorder a 24bit 96khz, con canali separati (4) per cui ho sia una buona copia in camera dell’audio per il sinch automatico, sia un sistema di cattura e audio di alta qualità.

Potrei girare l’affermazione dicendo che tranne le vdslr panasonic le altre vdslr hanno un audio scarso e spesso non hanno neanche l’ingresso per l’audio serio da microfoni esterni…

Quali sono invece le informazioni che molti non sanno, e che invece sarebbe importante che i futuri acquirenti di una camera del genere dovrebbero sapere?

    • la camera nasce con lcd posteriore a bassa risoluzione per una visione veloce e il controllo touch delle funzioni, avere un monitor esterno di qualità per fuoco e gestioni generali è fondamentale.
    • la camera nasce per fare riprese votate alla post, se la si vuol usare Run&Gun esprime il suo meglio in FullHD proresLt dove tra scalatura e compressione il rumore è sparito nella maggior parte delle situazioni, e usando la curva Film si lascia ancora spazio alla post colore, mentre se si usa la curva Video, si ha già immagini di ottima qualità per montarle e usarle direttamente, essendo comunque dei file a 10bit.
    • per registrare un audio buono è fondamentale introdurre un segnale di un microfono amplificato direttamente o con un amplificatore intermedio beachtek o simili, come si fa con le dslr, per avere un buon rapporto segnale rumore
    • non tutte le ottiche canon compatibili sono supportate completamente, in particolare quelle che non hanno acquisito da canon gli schemi di costruzione delle ottiche e dell’elettronica, ma hanno fatto reverse engeneering (non faccio nomi, ma nell’ambiente e con una ricerca google si scopre), in quei casi la stabilizzazione potrebbe non essere supportata, come anche il fuoco automatico o il controllo diaframmi. Con l’uso delle ottiche native canon in generale si ha compatibilità quasi totale.
    • nascendo come cinema camera, anche riggata, è comunque una camera massiccia e che per le riprese in movimento richiede un certo tipo di attrezzatura per essere “mossa” in libertà.
    • il meglio dello sviluppo dei file avviene con DaVinci Resolve, che viene fornito in licenza full con la macchina, in particolare i file raw, ciò che si può estrarre dai file raw con davinci, per quanto si usino altri software evoluti, non si estrae tutta la gamma tonale, e comunque non con la stessa semplicità e pochi click.
    • come indicato nel mito 9, si deve sapere come va esposta, ovvero dato che il sensore lavora come la pellicola, si deve saper gestire al meglio il tutto, per poter estrapolare il massimo della qualità, se l’esposizione viene gestita in modo normale il sensore non riceverà il massimo della luce che serve e quindi i risultati saranno sempre di qualità più scarsa. Questa camera preferisce lavorare in ETTR, se non si applica questo sistema di esposizione le immagini saranno oltre che più piatte, più rumorose di quello che serve, inutilmente, meno dettagliate e povere d’informazioni nelle ombre.
  • la camera, come Alexa e Red soffre di IR pollution, quindi usando i filtri ND per ridurre la luce di giorno (perchè il problema non è quando manca luce, ma quando ce n’è troppa) si deve usare un filtro ircut che tagli le frequenze da 680 nm per evitare che i filtri neutri più forti diano una una dominante rosso marcino alle immagini.


Pagina 2 di 3

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!