Tutto è possibile

Tag: 8k

12k è lo specchietto, vediamo dietro le vere rivoluzioni

Il 16 luglio 2020 Grant Petty, ceo e fondatore di Bmd presenta una nuova camera che rivoluzionerà tanti paradigmi, da qui ai prossimi anni.

Di fronte ad un mercato saturo di prodotti che sta guardando le risoluzioni verso 8k è stato presentato il risultato di tre anni di sviluppo: la Ursa Mini Pro 12k.

 

Subito sono partite le lotte tra fanboy e haters di varie fazioni, da chi si lamenta del prezzo (di una camera che è stata presentata da Petty come un prodotto pensato per la fascia Hi-end) al fatto che il 12k non funziona, etc etcIn tutto questo chiasso si sono perse le vere rivoluzioni, sviluppi che partono dalla fascia alta, ma che di sicuro apriranno nuovi sviluppi anche alle camere più economiche.

Sensore Blackmagic

La camera presenta un sensore proprietario Blackmagic Design con struttura parallela completa, ovvero non esiste la matrice di bayer, quindi ogni pixel ha tre fotorecettori, ognuno per una componente colore Verde, Blu e Rossa e in aggiunta la luce bianca.

Questo fattore significa che è in grado di :

  1. Sensore senza matrice di Bayer = Bye bye Red Patent sul raw compresso
  2. scalatura di cattura SENZA crop, quindi il sensore 12k è in grado di generare un file braw a risoluzione inferiore senza pixel binning, ma con la qualità e aliasing del sensore originale. Quindi la camera registra anche 4k e tante altre combinazioni di risoluzione.
  3. 12k 60fps fino a 220 fps in 4k raw (chi li cercava doveva andare di Phantom, ora ha una alternativa).
  4. su una risoluzione così alta anche le riprese agli iso più alti saranno usabili perchè nel downscaling spariranno i difetti più evidenti
Braw 2.0 e color science 5
  1. viene rilasciata una nuova Color Science 5 che migliora le immagini che è retrocompatibile con le camere precedenti con il braw, quindi si può applicare tale cs anche ad altre camere, a shooting già fatti (già disponibile la beta di Resolve e del nuovo Braw 2.0).
  2. Braw 2.0 prevede la registrazione splittata su più supporti per superare i limiti di registrazione dei supporti attuali.
  3. Braw 2.0 aggiunge nuovi flavour di compressione come 18:1, Q1 e Q3, per ottimizzare ancora di più spazio e qualità
  4. Braw 2.0 è talmente ottimizzato da permettere lo stream 12k anche su macchine molto modeste, e oggi il Braw è disponibile anche per macchine non Blackmagic design come C300 mkII, Eva1, Sigma FP.
  5. Nella nuova Color science 5 le camere hanno una curva di log uguale per ogni iso, questo significa che sarà più facile creare delle LUT di look che funzionino più facilmente attraverso riprese differenti.

Ovvio che questa macchina nasca per il cinema e non per l'indipendente, anche perchè viene venduta con attacco PL (attacco ottiche cinema) e solo su richiesta si acquista l'attacco per EF, sarei curioso di trovare e verificare nelle specifiche delle lenti EF quale ha la risolvenza adatta per questa risoluzione. Il costo della macchina non è un problema considerato che l'ecosistema di lenti da noleggiare costerà quando il corpo macchina.

Quello su cui voglio puntare lo sguardo è l'iceberg che sta dietro l'annuncio dove le tecnologie sviluppate porteranno blackmagic Design molto avanti nei prossimi anni.

Questa immagine è una semplice ripresa braw fatta per test qualche settimana fa, senza nessun tipo di correzione colore qui si può vedere la differenza tra le due color science, basta osservare le alte luci recuperate in automatico perchè le differenze stanno nei dettagli, in questo caso nel roll off delle alte luci dove si ottiene una base di partenza migliore e più facile da gestire anche per chi ha meno skill di postpro.

 


Video FULL FRAME : la prossima illusione Cinematic Look

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

Tanti filmaker moderni sono nati con le fotocamere, e per tale ragione si sono sempre lamentati che non avevano telecamere fullframe, che le telecamere non sono cinematiche perchè sono croppate... Ho scritto tanti articoli relativi al crop e al motivo per cui non è mai stato un problema finchè non è stato inventato dal marketing di un noto brand per vendere le sue fotocamere Fullframe rispetto alla concorrenza Aps-c.

Il cinema è nato 16 e 35 mm ma con scorrimento verticale, quindi con una dimensione assimilabile al aps-c, e il concetto di crop non c'è mai stato, si aveva una lente e la si usava / usa per le necessità o per le scelte estetico/narrative. Alternativa ad esse c'è stato il 70mm per contrastare la televisione, e per dare una resa particolare di dettaglio e qualità delle immagini, ma a causa delle dimensioni maggiori della camera e dei caricatori di pellicola 70mm, che oltretutto aveva una durata minore per caricatore, era meno diffuso e meno usato del 35mm e s35mm classico.

Oggi con l'avvento di cineprese Arri, Panasonic, Panavision, Sony LF (largo formato) i filmaker si lamentano che non possono avere cineprese economiche con quel formato, non pensando che non è il sensore grande a fare il cosiddetto Cinematic Look.

Perchè la nascita della seconda ondata del digitale con la 5D ha fatto credere questo mito del sensore grande?

Chi mi conosce sa che sono un pragmatico, mi piace scherzare, ma poi mi piace analizzare seriamente e tecnicamente i fatti.

Prima della 5D tutti i sistemi di ripresa erano telecamere a sensore piccolo, pensate per il video, quindi con tutta una serie di difetti, che la 5d, per quanto non fosse nata per il video, non aveva.

La classica telecamera degli anni 2000 aveva i seguenti difetti :

Sensore piccolo

Il sensore piccolo ha una serie di limiti:

  • il primo è relativo alla superficie, di solito da 1/3 a 2/3 di pollice, la quantità di luce che poteva raccogliere era poca, quindi per funzionare correttamente spesso doveva applicare forti rapporti di guadagno elettronico, contrastando spesso troppo le immagini, portando facilmente a bruciare le alte luci e chiudere le ombre o sporcandole con forte rumore digitale.
  • Il secondo difetto del sensore piccolo è che mettendo uno zoom davanti al sensore, questo deve essere molto spinto come grandangolare, altrimenti non è possibile fare dei totali nei luoghi più stretti, facendo si che la maggior parte delle immagini hanno distorsioni più o meno spinte, allargando le immagini,da qui il detto "la Tv ingrassa".
  • Il terzo difetto è che un sensore piccolo, soprattutto pre smartphone, ondata tecnologica che ha spinto molto di più la ricerca nella direzione dell'ottimizzazione dell'immagine sulle piccole dimensioni, offriva una qualità di dettaglio fine molto relativa, ma all'epoca bastava l'HD visto su monitor di qualità relativa.
Immagine con Video Look

Tutte le telecamere lavoravano in uno spazio colore rec601, con poco contrasto tra luce e ombra, non avevano ancora diffuso bene il rec709 che gestisce un contrasto migliore, quindi spesso veniva applicato uno sharpness artificiale alle immagini che creava quello che oggi chiamano il "retro look" o il "vhs look", cioè degli aloni più o meno intensi attorno agli oggetti con un minimo di contrasto.

  • Il primo difetto è dato dalla bassa gamma dinamica catturabile da quel tipo di sensori, unita a contrasto forte, e non c'era molto da fare, quasi tutte le camere erano costruite in quel modo.
  • Il secondo difetto era causato da pessimi display che portavano la maggior parte degli operatori a alzare lo sharpness al massimo nell'illusione di avere immagini più nitide, ma non lo erano e quindi purtroppo diventavano più artificiali le immagini.
  • il terzo difetto era dato dall'uso delle telecamere che permettendo movimenti più "sporchi" per la natura della cattura del movimento con i ccd portava ad una diversa estetica del movimento e dell'uso della camera.
  • il quarto difetto, terribile, era/è l'interlacciatura, che vista su una televisione è invisibile, ma vista su computer o altri media sbriciola in modo orribile le linee degli elementi in movimento creando difetti digitali antiestetici, e la sua rimozione portava alla perdita del 50% della già bassa definizione verticale.

Cosa ha offerto la DSLR che era improbabile poter fare al tempo con le telecamere.

  • Sensore con minore crop (Non crop zero, che non esiste) = lenti normali e rese più naturali della prospettiva.
  • Focali più lunghe = più possibilità di sfuocare lo sfondo e separare soggetto e sfondo senza conoscere bene i principi di illuminazione.
  • Gamma dinamica maggiore = più possibilità di espressione della luce, e allo stesso tempo la lettura più naturale della realtà.
  • Immagini più morbide = maggior risoluzione di cattura offre meno sharpness finto, ma più nitidezza reale (uso i due termini per distinguere l'effetto digitale da quella reale della lente).
  • Lenti intercambiabili di qualità possibile maggiore.

Questo tipo di vantaggi fu ciò che fece esplodere la "moda" delle dslr a fine anni 2000, moda che doveva restare nella fascia bassa, per chi non aveva accesso a camere di maggior livello, e invece fu poi introdotta anche nel cinema di fascia alta dove spesso si usano le mirrorless come cam C, o Crash cam che anche se vengono distrutte il problema non sussiste contro perdere una cinepresa da 100k. Oggi fin troppo spesso si vedono comprare le fotocamere come telecamere, e scoprire dopo tutti i limiti e i difetti delle stesse, in primis l'ergonomia, l'autofocus continuo, la registrazione spesso più compressa, limiti nell'uso del viewfinder, rolling shutter accentuato, etc etc.

Oggi il mito della largo formato cozza con tanti dettagli a cui le persone non pensano, che non tange i professionisti o le LF di alto livello.

  • Costo notevolmente maggiore del corpo macchina.
  • Maggiori consumi batteria e surriscaldamenti varii.
  • Lenti di nuovo formato notevolmente più costose.
  • Maggior dimensione di sensore significa una serie di scelte diverse sulle lenti con possibili più problemi di gestire e mantenere i fuochi durante il movimento.
  • Necessità di formati di registrazione a qualità più alta per raccogliere la maggior qualità catturata.

Il largo formato è interessante soprattutto per creare film dove gli effetti visivi ne fanno da padroni, perchè alzare semplicemente la risoluzione di cattura (4k,6k, 8k) a fronte della stessa dimensione di sensore spesso comporta un problema di gestione della luce, mentre per la maggior parte delle produzioni non comporta un cambiamento tale da giustificare il recente entusiasmo per tale formato.

 

the Best of Sharpness, l’acutezza, la nitidezza e tutto il resto… o forse no

Nippon Kogaku 35mm 2.0 su sensore 4k

Oggi con la fisima della nitidezza e della definizione inoculata dal marketing, se non abbiamo un telefono che riprende in 8k (per mostrarlo sul display magari neanche fullhd, compresso), se non facciamo riprese panoramiche da 12k (combo di Newyork girato con 3 red 8k), non abbiamo immagini definite.

Dall'altra parte abbiamo persone che fanno studi scientifici sulla capacità visiva dell'occhio e confrontando in modo diretto le immagini delle diverse camere dimostrano che a parità di pixel non è detto che abbiamo realmente immagini più definite, anzi in certi casi diventa il contrario, motivo per cui Arriflex con la sua Alexa, 2,7k e 3.4k in openGate spesso offre immagini più nitide di quelle catturate con cineprese digitali 8k.

Senza fare il pixel peeper, lasciando queste seghe mentali ad altre persone, visto che il mio obiettivo primario è la narrazione per immagini, vediamo di capire brevemente quali sono i fattori che permettono di esprimere al meglio la nitidezza e l'acutezza di una ripresa (indipendentemente da fattori umani).

fattore 1 : la lente
 

La lente può (condizionale) determinare la qualità dell'immagine perchè è il sistema con cui si cattura la luce, la focalizza e la proietta sul piano focale (pellicola o sensore). La qualità delle lenti oggi è abbastanza lineare, per cui la differenza può essere la luminosità della lente, ma usata nel modo corretto (vedi il fattore 2), una lente media offre una buona definizione senza dare grandi limitazioni sulla nitidezza, a patto che :

  • la lente sia pulita e non abbia elementi estranei sopra
  • che non ci sia luce laterale (non protetta da paraluce e mattebox) che abbatte il contrasto
  • che non ci siano filtri di bassa qualità che riducono la definizione iniziale della lente, spesso si usano filtri neutri di qualità non ottimale, che riducendo la luce la diffondono togliendo nitidezza all'immagine originale.
  • che sia correttamente calibrata per proiettare sul sensore l'immagine (alcune lenti soffrono di problemi di pre/back focus, ovvero l'immagine viene proiettata poco prima o poco dopo il piano focale, quindi per centesimi di mm di tolleranza l'immagine è più morbida perchè non allineata col piano focale
  • che la lente sia perfettamente allineata (in alcuni casi le lenti possono essere leggermente angolate rispetto al piano focale causando una perdita di definizione su uno dei lati in alto, o in basso, o a destra, o a sinistra.

In un precedente articolo avevo fatto una disanima tra diverse lenti, da lenti vintage a lenti medie, e una lente di fascia più alta senza riscontrare una differenza di nitidezza percepibile nell'uso comparato: stesso diaframma, stessa situazione, stesso sensore, stesso soggetto.

fattore 2 : il diaframma

Quando si gestisce la ripresa troppe persone dimenticano che le regole di fotografia valgono sempre, indipendentemente dalla qualità dell'attrezzatura. Molti oggi sanno che il diaframma gestisce la luce in ingresso definendo se farne entrare tanta o poca, e di conseguenza alterando anche la profondità di campo. Ho spiegato in modo più esteso in un altro articolo sull'esposizione questo discorso, ma in molti non sanno come cambiando il diaframma si possa entrare in un campo di alterazione della luce che genera la DIFFRAZIONE e come possa essere il limite della propria ripresa.

In breve cosa è la diffrazione?

Quando si chiude il diaframma di un valore maggiore di X il dettaglio di luce proiettato sul diaframma non si concentra ma si diffonde, per cui un punto chiaro su una superficie scura non è più nitido ma sfuocato. Tradotto in soldoni c'è troppa luce e chiudo il diaframma pensando di ridurla, ma man mano che chiudo il diaframma perdo nitidezza, quindi a diaframma 22 la stessa immagine sarà sfuocata rispetto a diaframma 11 come se avessimo applicato un filtro di diffusione o di blur.

Come si gestisce la diffrazione?

Dato che la diffrazione appare da un certo diaframma in poi si tratta di scoprire quale sia il diaframma limite della propria lente, in funzione del proprio sensore. Un semplice e comodo calcolatore di diffrazione lo potete trovare in questo interessante articolo sulle lenti e le loro caratteristiche.

Comunque per semplificare la vita a molti di noi, una semplice tabella per avere un riferimento, poi da lente a lente può esserci più tolleranza. Risoluzione vs Dimensione

Risoluzione Sensore Sensore 4/3 Sensore s35 Sensore 24x36
FULL HD f/18 f/26 f/32
4k f/9.9 f/12 f/18
4.6k (UMP) f/11
5.7k (eva1) f/8.8
8k (Red Helium) f/9.4

Come si può notare non si parla di diaframmi particolarmente chiusi, se non alle basse risoluzioni, il che diventa particolarmente divertente notare come con l'aumentare della risoluzione si abbassa la possibilità di chiudere il diaframma, altrimenti si crea diffrazione, catturando una immagine progressivamente più sfuocata pur aumentando il numero di pixel catturati. Attenzione che per risoluzione si intende la risoluzione del sensore, non della cattura del filmato, perchè la dimensione dei fotodiodi o dell'elemento che cattura la luce influenza in modo diretto la nitidezza delle immagini.

Per questa ragione quando si lavora con le cineprese digitali il filtro neutro è un elemento fondamentale e indispensabile per preservare la nitidezza originale, e contrariamente a quello che credono molte persone, le dslr non sono così comode avendo un gran numero di pixel da cui ricavare un formato fhd, perchè se usiamo una fotocamera che registra in fhd ma il sensore è un 24mpx, quello è il limite da usare per scegliere il diaframma di ripresa e mantenere il massimo della nitidezza possibile, a questo proposito la mirrorless ottimale per il video è quella creata da sony nella serie A7s perchè pur usando un sensore fullframe ha una risoluzione di ripresa corrispondente all'output, ovvero 4k, e quindi meno sensibile alla diffrazione di una A7r che con 36 e 54 mpx tenderà ad avere il triplo e il quintuplo dei problemi.

fattore 3: il sensore
 

Il sensore, la sua tipologia, la sua risoluzione possono influenzare la nitidezza catturata, quindi ovviamente se il sensore è a misura della risoluzione di uscita il risultato sarà migliore. La maggior parte dei sensori sono strutturati da una matrice detta Bayer, nella quale si cattura un segnale monocromatico e poi filtrandolo si ricavano i colori, per cui abbiamo il verde che rappresenta la luminanza che possiede buona parte delle informazioni, mentre gli altri due colori sono ricavati ecatturati parzialmente, per cui si dice che comunque un sensore xK abbia una reale risoluzione di 2/3 dei K originali e poi venga fatto l'upsampling effettivo dei pixel. Il che tecnicamente è vero, ma non è un reale problema. Esistono sensori fatti come wafer dei tre sensori (uno per colore) che catturano separatamente le componenti colore RGB che spesso offrono immagini di ottima nitidezza. Esiste poi la scuola di pensiero del downsampling, ovvero catturiamo con un sensore di dimensioni maggiori, ad esempio 4.6k, 5,7k e poi da questo ricaviamo alla fine un segnale in 4k o 2k o fhd, in modo da sovracampionare le informazioni e avere una maggior precisione e dettaglio. La semplice prova di forza o applicazione muscolare degli X k non è fonte sicura di qualità o di dettaglio, inoltre con l'aumentare della risoluzione e non delle dimensioni del sensore incontriamo il problema della Diffrazione (come abbiamo visto prima), e il problema della sensibilità, perchè la stessa lente deve distribuire la stessa luce su un numero maggiore di fotorecettori, quindi ogni elemento riceve meno luce o con meno intensità.

A livello teorico maggior numero di pixel correttamente gestiti nella cattura può corrispondere ad un maggior numero di dettagli, a patto che utilizzi la risoluzione reale del sensore, cioè i pixel catturati siano esattamente la matrice del sensore. Le eventuali elaborazione del segnale prima della registrazione (raw o sviluppata) possono inficiare la nitidezza del segnale. Esistono diversi tipi di amplificazione del segnale e durante quella fase (analogica o digitale) si può alterare la percezione di nitidezza.

fattore 4: la compressione

Una volta catturate le informazioni, queste devono essere in qualche modo registrate, e pur partendo da sensori con un'alta capacità di cattura di dettaglio, o d'informazioni (spesso 16bit lineari) poi la registrazione delle informazioni viene ridotta a 14-12bit raw o 10bit compressi con algoritmi varii che per ridurre il peso dei file andrà a alterare in modo più o meno significativo le nitidezza delle immagini. Ogni camera ha i suoi algoritmi di compressione, molti nelle cineprese si basano sul concetto della compressione wavelet, che sia raw o no, per impedire la formazione di blocchi di tipologia più "digitale" come la compressione mpeg che genera blocchi di dati a matrici quadrate, questo ottimo tipo di trasformata nel momento in cui si comprimono i dati tende man mano che si aumenta la compressione a rendere più morbido il filmato. Naturalmente quando si parla di morbidezza parliamo di finezze, non certo di avere immagini sfuocate. Molti Dop quando usano le camere Red scelgono di usare compressioni più o meno spinte in alternativa all'uso di alcuni filtri diffusori per rendere più piacevoli le immagini.

Quindi facendo una ripresa o una fotografia, non possiamo strizzare i dati in poco spazio e pretendere di avere il massimo delle informazioni, del dettaglio, della definizione. La scelta dei formati di compressione è molto importante e conoscere le differenze tra i diversi formati di compressione e le loro tecnologie applicate alle diverse camere è importante per poter gestire correttamente la qualità di partenza iniziale. Alcuni formati a compressione maggiore (h264/5) generano artefatti a blocchi, mentre le gestioni dei formati wavelet possono ridurre la nitidezza dell'immagine man mano che si aumenta la compressione, ma in modo molto leggero, tanto che molte compressioni wavelet vengono definite visually lossless

fattore 5: la lavorazione
Le lavorazioni dei file possono alterare la percezione della nitidezza se vengono create più generazioni dei file originali non utilizzando formati DI di qualità per lo scambio e l'esportazione dei materiali. L'applicazione di effetti o lavorazioni con sistemi non professionali può causare ricompressioni non volute, downscaling e downsampling colore che possono influenzare la nitidezza originale. Inoltre ci sono fasi molto delicate come il denoise che in certi casi può essere troppo forte o troppo aggressivo e come tale tende a mangiare non solo il rumore, ma anche il dettaglio fine.
fattore 6: il delivery

Un fattore poco conosciuto è la scalatura dinamica dei flussi video, soprattutto quando si guardano i film in streaming legale. Il file alla fonte ha una risoluzione e una compressione, ma durante la trasmissione se ci sono problemi di segnale, rallentamenti, problematiche varie il segnale viene istantaneamente scalato per impedire che il filmato vada a scatti o in qualche modo possa influire sulla visione generale, quindi da una scena all'altra potrebbero esserci delle variazioni consistenti della qualità e i sistemi di contrasto dinamico andrebbero ad amplificare ulteriormente i bassi dettagli. Se abbiamo un prodotto stabile e lineare come un bluray o un bluray 4k abbiamo la certezza che la qualità sarà sempre costante, mentre se usiamo una distribuzione differente delle perdite di qualità potrebbero essere causate dalla trasmissione variabile.

fattore 7: la fruizione

Un fattore che tanti sottovalutano, spesso causa del danno finale, sono i metodi di fruizione del materiale video. A partire dal dispositivo di visione, che spesso altera in modo più meno significativo l'immagine, vedi l'articolo sui televisori da telenovelas, al metodo di gestione delle informazioni. Quando vediamo una immagine non sappiano se il pannello è a misura per l'immagine che stiamo vedendo, il che può essere causa di alterazione di vario tipo, perchè dovrà essere scalata in realtime con diversi algoritmi più o meno efficienti nel mantenere il dettaglio o perderlo. Spesso abbiamo televisori 4k che mostrano materiale fhd (1/4 delle informazioni) o peggio sd (1/16 delle informazioni). Il danno però nasce dal fatto che tutti questi televisori applicano le funzioni di oversampling anche quando una immagine ha realmente la dimensione del pannello, quindi anche se apparentemente sembrano ancora più nitide, in realtà gli effetti dei vari algoritmi di sharpening tendono a creare nuovi "FINTI" dettagli che sovrascrivono e cancellano i dettagli originali.

Spesso ci sono tanti parametri attivati a nostra insaputa, o peggio abbiamo la difficoltà di disabilitarli, perchè solo in determinate combinazioni di visione sono modificabili. Ci sono prodotti di fascia alta che è possibile disabilitare le maschere di contrasto e i vari algoritmi di contrasto solo con i segnali in ingresso HDMI, non per i segnali interni o da stream internet interno... il che è può essere imbarazzante con i segnali 4k da Netflix che sono ottimi e non richiedono ulteriori process, anzi...

 

dal 2K al 16K, a quanti K ci vogliamo fermare?

16K magari in 3D a 360 e in Odorama...

i K di risoluzione oggi sono i cerchi in lega delle camere digitali, ovvero orpelli con cui si attira l'acquirente ma non sempre si equivalgono a una vera crescita di qualità, ma questo non è un articolo tecnico dedicato a questo o quell'altro formato, a questo o l'altro codec o strumento, è un articolo dedicato a quello che i venditori di fumo vi vogliono far dimenticare... Fisiologia umana

In tutti i discorsi sui K di proiezione, di tv, si dimentica il dettaglio fondamentale, ovvero se e chi è in grado di vedere quel dettaglio, perchè fisiologicamente l'occhio umano ha dei limiti... non siamo aquile, anzi l'umanità è destinata tra visione ravvicinata con cellulari e tablet, Visori 360 e simili a perdere sempre di più la capacità visiva a distanza.

Secondo il test con la tabella di Snellen, una persona con una vista a 10/10 (non la media delle persone) ha la capacità di distinguere due elementi distinti con un alto contrasto (elementi neri su fondo chiaro) a distanza X.

Questo tipo di capacità è al massimo con il bianco e nero, nel momento in cui ci sono anche dei colori questo valore si alza, ma per amor di semplicità teniamolo buono anche per il colore.

Il calcolo in funzione dell'acutezza visiva umana si può ottenere in modo semplicistico dividendo la distanza di visione dell'elemento in mm / 687,5 = il dettaglio minimo in mm che si può vedere.

a 1 metro si possono vedere al min di 1.45 mm a 3 metri si possono vedere al min di 4,36 mm a 5 metri si possono vedere al min di 7,27 mm a 10 metri si possono vedere al min di 14,5 mm a 20 metri si possono vedere al min di 29,09 mm

Partendo dal concetto di avere immagini perfettamente nitide, in ogni caso, con massima acutezza e massimo contrasto delle stesse :

Immaginiamo di metterci davanti ad uno schermo cinema da 24 metri x 10 metri in una proiezione 2.40, due tipi di proiezione, 4K e 2K: - 4K abbiamo una risoluzione verticale di 2160 pixel, quindi 4,6mm per linea. - 2K abbiamo una risoluzione verticale di 1080 pixel, quindi 9,2 mm per linea.

quindi per poter vedere effettivamente il dettaglio della proiezione a 4K dovremmo essere al max a 3 metri dallo schermo, mentre per il 2K a non più di 6 metri, peccato che... per vedere uno schermo da 24 metri per intero, considerato che il sistema visivo umano non è quello dei camaleonti, c'è all'angolo visivo che percepisce il dettaglio, perchè noi vediamo a 90 gradi di fronte a noi il dettaglio, mentre man mano che ci si sposta lateralmente percepiamo solo il movimento e non il dettaglio. Comunque per vedere interamente uno schermo da 24metri dobbiamo porci a circa a 20 metri, quindi possiamo distinguere solo dettagli distanti tra di loro 3 cm, mentre il 2K è inferiore al cm...

Immaginiamo una situazione casalinga, guardiamo a 2 metri un televisore 60 pollici, dim media 133 x 75cm. A 2 metri siamo in grado di distinguere il dettaglio di 2,9 mm di distanza, il dettaglio esprimibile in FullHD è di 750mm diviso 1080, ovvero 0,694 mm cioè ben 4 volte quello che possiamo vedere, se la tv è 4k abbiamo 750mm diviso 2160 è di 0,347mm cioè ben 8,35 volte la nostra capacità visiva.

In realtà al cinema la struttura dell'immagine è più continua, quindi ulteriormente più complesso leggere il dettaglio singolo, mentre sul televisore esiste un microspazio tra un elemento luminoso e l'altro che spesso danno la percezione di leggere più o meno dettaglio di quello che realmente siamo in grado di percepire.

Se voi vi avvicinate allo schermo cinematografico, essendo luce riflessa, il microspazio tra i pixel proiettati va a sparire, per la distanza di proiezione, per la riflessione e diffusione della luce, quindi non percepite i singoli pixel, mentre se fate una proiezione casalinga, si vedono gli spazi nella matrice e questo fornisce una peggior percezione del dettaglio finale.

Già se si osserva un monitor da computer, un 32 pollici è alto circa 40cm, con una risoluzione di FHD abbiamo una linea di dettaglio per ogni segmento da 0,37mm, monitor che noi guarderemo a circa 50 cm di distanza, dove siamo in grado di leggere circa 0,72mm di dettaglio, cioè più del doppio... da qui nasce il dilemma e la reale utilità dell'utilizzo di monitor 4k per il computer... visto che difficilmente avremo la capacità visiva di percepire la differenza tra le due risoluzioni...

Tutto questo ammettendo che abbiate 10/10, il sottoscritto non ce l'ha, ammettendo che le immagini abbiano una gamma dinamica perfetta, un dettaglio talmente elevato da poter separare ogni singolo elementi per pixel senza antialiasing intermedio, che sia compresso e riprodotto al meglio per non perdere questa acutezza, che non ci siano effetti di postproduzione che alterano la percezione di tali elementi, che il sistema di riproduzione sia in grado di riprodurre per ogni singolo pixel un reale punto di luce nello spazio, ma soprattutto che il sistema di cattura abbia realmente catturato quelle informazioni e non abbia usato nessun sistema di pixel shifting (vedi più avanti) nè interpolazione da sensori a risoluzione più bassa.

Posso immaginare che qualcuno possa dire, ma io se vedo un SD o un FullHD sullo stesso tv vedo la differenza, ovvio, anche perchè la sorgente SD di solito arriva da una fonte di qualità talmente bassa che non offre realmente la risoluzione reale, cioè è più sfuocata e quindi i pixel non offrono il contrasto che potrebbero realmente dare. Ad esempio un DVD se visto in 4/3 ha pixel che vengono leggermente scalati in larghezza, ma se visto in 16:9 il numero dei pixel è sempre lo stesso, ma viene scalato di quasi il 30% in orizzontale facendo perdere molto dettaglio, se guardiamo una trasmissione televisiva la registrazione originale anche se digitale non conservava realmente tutte le informazioni per pixel, se poi è passata per una trasmissione via etere la quantità di dettaglio perso è semi infinita. Inoltre che le varie rielaborazioni che le tv offrono sulle immagini in basa definizione in realtà si amplificano questi divari, contrastando gli impasti dei pixel.

Comunque non sono l'unico ad aver fatto i conti, anzi... soprattutto una azienda che produce ottiche da cinema e ha tutto l'interesse a far cambiare le ottiche per vendere le nuove... oppure no..

Spesso si cita tra i film full Digital come pionieri il secondo impianto di StarWars, che io trovo molto digitale e televisivo come risultato, come tipologia d'immagine etc, mentre preferisco citare un film uscito nello stesso anno, realizzato da Robert Rodriguez, su suggerimento dello stesso Lucas con la stessa camera "One upon a time in Mexico" che nessuno ha giudicato digitale o poco filmic, pur usando la stessa camera. StarWar Clone Wars imdb link tech Once upon a time in Mexico imdb link tech.    

Quindi girare in 4K o 8k è inutile?

Dato che il 4k sembra diventare lo standard anche per la visione su cellulare, partiamo dal differenziare un paio di concetti: ripresa vs delivery.

Ripresa al massimo della definizione e qualità è un ottimo principio perchè quando si deve fare il downsampling (la scalatura verso il basso) la qualità globale, il dettaglio saranno sempre migliori che girare in risoluzioni inferiori. Se sono necessarie maschere, effetti di post, reframing etc una maggior risoluzione lascia spazio a lavorazioni dell'immagine senza perdite di qualità percepita.

Delivery al massimo della definizione... anche no...

  • se il sistema di trasmissione non permette un flusso dati sufficiente, meglio una definizione inferiore con più dettaglio che una maggior risoluzione più compressa che in ogni sistema di compressione creerà più artefatti e macroblocchi, non a caso molte tv digitali la trasmissione HD è preferita anche al FHD, per ottimizzare il flusso dati, solo NetFlix oggi ha trasmissioni 4K da riprese 4k, con controllo del flusso di lavoro.
  • se il sistema di visione non è adeguato per la risoluzione maggiore lo scalerà al volo, spesso con maschere di contrasto etc danneggiando il filmato, peggiorando notevolmente il dettaglio e la gamma dinamica generale
  • se la fruizione non è adatta a quella risoluzione, alla meglio sarà uno spreco di risorse di trasmissione, lettura, gestione, alla peggio non si vedrà la differenza

Detto questo non voglio incentivare il ritorno al vecchio formato SD, ma prima di comprare il nuovo monitor o tv 4k invece che un fullhd valutate bene le distanze da cui vedrete il tutto, valutate se effettivamente farà la differenza o ci sarà qualche altro elemento più interessante da valutare sulla qualità della tv... entro certi tempi perchè... il mercato velocemente sceglierà per voi eliminando il televisori Fhd.

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!