Tutto è possibile

Categoria: I miti da sfatare Pagina 5 di 12

In questa categoria raccolgo una serie di miti tecnici da sfatare, troppo spesso tra i passaparola, tra il copia e incolla on line, e colpevole il Web 2.0, sono nati e si sono radicati tanti miti “tecnici” per i quali non esistono rimedi, tranne che la logica e il pragmatismo nell’affrontare queste bufale…

Che bel televisore per vedere le telenovelas …

La schiava Isaura, la prima telenovelas della storia.

Un po’ parafrasando una frase detta da una persona a Cannes, che la digitalizzazione delle pellicole sarebbe capace di trasformare Barry Lyndon in una telenovelas, un po’ perchè oggi tra gli addetti al settore si dice che una certa immagine è “da telenovelas” ho deciso di scrivere due righe a proposito di uno drammi moderni nel vedere un film con una televisione : la rielaborazione delle immagini.

Grazie all’avvento della teorica alta definizione casalinga, parlo di teoria perchè molti canali televisivi trasmettono sui canali hd film da master in definizione standard, oppure solo ogni tanto trasmetto in hd qualcosa, le case di tutto il mondo si sono riempite di brillanti e molto contrastati televisori per vedere telegiornali e ogni tanto anche un film.

La battuta non è causale perchè tutti i televisori moderni, anche e soprattutto se hanno una definizione superiore come il 4k sono pensati principalmente per riprodurre materiale in definizione molto scarsa, e come tale da essere rielaborata perchè altrimenti le “persone sarebbero scontente del televisore”, ho letto la settimana scorsa di una persona che si lamentava della mancanza di definizione di un televisore 4k nel vedere le partite, non su canali dedicati in hd, ma sulla semplice rai SD, e la lamentela continuava dicendo che essendo il televisore 4k tutto doveva essere migliore… e che lo avrebbe cambiato a breve col marchio x che le fa vedere meglio…

è per questo tipo di persone che rappresentano il pubblico medio che ci dobbiamo sorbire immagini orribili quando andiamo a vedere immagini di qualità.

La spiegazione è molto semplice: tarando i televisori per immagini che sono forse un quarto della definizione (trasmissione fhd) o addirittura un sedicesimo della definizione del 4k, i pixel devono essere gonfiati, e quindi come tali si vedrebbero delle immagini sfuocate o di pessima qualità, quindi vanno rielaborate per sembrare migliori. Il concetto andrebbe bene se la manipolazione fosse progressiva e dosata sulla sorgente, ovvero se forniamo al televisore immagini di risoluzioni superiori o adatte alla matrice del televisore questi algoritmi si dovrebbero disabilitare, invece lavorano comunque alterando immagine, colore, contrasto, e addirittura il movimento percepito delle immagini purtroppo non tutti gli algoritmi di rielaborazione sono modificabili o diabilitabili, addirittura ogni produttore nasconde dietro nomi diversi le diverse funzioni e alcuni impediscono la disabilitazione se non sui segnali in ingresso sulle HDMI, per cui anche ricevendo un ottimo segnale 4k da netflix, devo usare un dispositivo con ingresso esterno per evitare che venga manipolato dal televisore rovinandolo.

Ora vediamo all’atto pratico cosa succede e come le immagini vengono alterate.
Qui vediamo la situazione più comune, una immagine nativa 4k vs l’equivalente trasmessa in SD, come trasmettono la maggior parte dei canali oggi nel 2018, se non mi credete andate nelle info del canale sul vostro televisore e guardate lo stream a che definizione viene inviato.

Ricordo che una classica immagine UHD è fatta da 3840 x 2160 pixel, il FHD da 1920×1080 pixel (esattamente la metà in orizzontale e verticale, quindi un quarto), il formato HD è 1280 x 720 pixel, e infine l’SD è solo 720×576 pixel rettangolari, perchè naque in un formato più quadrato e quindi per ottenere una scalatura su matrici moderne oltre che scalato viene distorto in orizzontale.

Come si può notare la differenza tra UHD (4ktv) e il formato Standard visti al 100% è notevole, perchè abbiamo una differenza di sedici volte delle informazioni visibili, quindi ingrandendo il segnale SD si vede in modo evidente la differenza.

Dato che i dettagli non si possono inventare, in queste situazioni non si può fare nulla, tranne masticare le immagini con algoritmi varii per fingere che ci sia contrasto dove non esiste, ma con immagini con dettagli fini come questi, il problema della scarsità di qualità rimane.

Se invece andiamo a lavorare con un pò più di risoluzione, ovvero con il formato HD, già il salto non è così disturbante, e potrebbero lasciare le immagini alla loro natura.

Se potessimo vedere sempre immagini in FHD su televisori FHD o 4k, la scalatura diventa minore e quindi meno evidente, anche se presente.

L’elemento che ci inganna è il fatto che ogni segnale viene processato in più modi e la stessa immagine riceve più trattamenti, dalla cosiddetta clarity che spinge luci e ombre in due estremi, alle maschere di contrasto per rendere più definiti dettagli che non possono essere definiti perchè troppo grossolani, oppure anche se il dettaglio è presente in modo corretto, lo rende artificiale perchè applica la maschera in modo lineare su tutta l’immagine.

quindi nella realtà non vedremmo una immagine in cui ci sono poche differenze tra fhd e 4k, ma vedremmo una immagine rielaborata del FHD creando articialmente difetti e artefatti dove non servono.

Quando vediamo una telenovelas è normale una certa piattezza di luce perchè per risparmiare tempo e non rischiare differenze tra una inquadratura e l’altra si rende molto più piatta e uniforme l’illuminazione, dato che si gira con telecamere la paura di non avere immagini nitide porta ad alzare parametri di nitidezza artificiale in camera, inoltre i sensori delle camere da studio sono tali per cui non si hanno grosse sfumature e differenze tra le diverse colorimetrie del set e i diversi incarnati. In pratica esattamente l’opposto di ciò che si fa con i film per dare il look cinematografico.

Prendiamo una immagine dal bluray di MonsterSquad, un classico teenager movie anni 80 a cui serie come Stranger Things devono tutto, mettiamola su un normale televisore, il risultato nel migliore dei casi sarà come quello che vedete qui sotto, ovvero una versione telenovelizzata dell’immagine originale, con applicata la tecnica della clarity per dare maggior contrasto locale all’immagine,  una maschera di contrasto per definire tutti i dettagli dell’immagine, rovinando completamente l’atmosfera dell’immagine, appiattendo l’immagine dove il direttore di fotografia aveva deciso separando con luce e ombra i due piani. E’ molto evidente se si guarda come vengano fuori gli elementi dalle ombre dietro l’attore, distraendo e comprimendo lo spazio intorno ad esso.

Naturalmente non può mancare una forte riduzione rumore perchè di sicuro tra compressione e trasmissione si creerà rumore che assolutamente non può essere accettato, peccato che venga eliminata spesso in questo modo anche la grana e la struttura della pellicola, oltre ad eliminare il dettaglio fine.

Il dettaglio artificiale dato dalla maschera di contrasto esalta in modo eccessivo i capelli dell’anziano protagonista, ma accentua anche i dettagli fuorifuoco alla sua destra, perchè purtroppo l’algoritmo viene applicato in modo piatto e uniforme ad ogni parte dell’immagine, mentre nella realtà se abbiamo una parte nitida (a fuoco) e una morbida (fuorifuoco) la nitidezza naturale è dosata e distribuita aumentando la sensazione di profondità delle immagini.

Queste tecniche potrebbero aiutare una immagine debole, ma se applicate ad una buona immagine la rendono molto più televisiva e piatta, rovinando il lavoro di un buon direttore di fotografia, e non solo. Inoltre andrebbero dosate inquadratura per inquadratura, area per area con delle maschere, per poter dare un vero contributo all’immagine, invece su qualunque televisore applicano questi effetti in modo piatto su tutta l’immagine rovinando in più punti la resa della fotografia.

Il buon Stu di ProLost, esperto di vfx, colore e immagini ha fatto un ottimo post su come non solo rovinino le immagini a livello colore e contrasto, ma rielaborino anche il movimento e la percezione dello stesso, creando artificialmente fotogrammi superflui, che diventano necessari perchè gli originali essendo stati troppo contrastati hanno perso la loro originale sfuocatura di movimento e sono diventati scattosi… insomma un serpente che si morde la coda…

Chiudiamo il discorso con un paio di immagini pubblicitarie che ci fanno capire come il brutto vizio di manipolare le immagini non è una derivazione moderna, ma da tanti anni abbiamo il problema di poter vedere ciò che i direttori di fotografia hanno pensato in origine, solo che una volta sui tubi con l’immagine analogica le rielaborazioni erano limitate, oggi purtroppo si può massacrare ogni immagine oltre ogni limite della decenza.

https://youtu.be/kBTnOmIXnp4

comunque nel mio post sui formati dell’immagine potete trovare qualche riferimento su come una volta venissero tagliate anche le proporzioni video e selvaggiamente tagliate le inquadrature per adattarle prima al 4:3 poi a rovescio per adattare al 16:9 filmati girati con aspect ratio più vicino al 3:2 (super16mm).

Invece per chi è dubbioso, feci tempo fà un post tra pellicola e digitale, le differenze effettive in ripresa e resa dei due media, sfido tante persone di distinguere al cinema quali sequenze sono girate in pellicola, quali in digitale e poi stampate su pellicola, etc… la maggior parte delle persone non si accorge di come i film contengano una miscelazione ampia di diversi media, analogici, digitali etc.

Sono sicuro che se Kubrick fosse ancora vivo, non solo avrebbe abbracciato il digitale, ma sarebbe stato così cocciutamente testardo da far creare per lui un sistema di check dei proiettori digitali e dei televisori per far vedere correttamente le immagini dei suoi film, cosa tecnicamente fattibile da anni, ma che a quanto pare non sembra interessare a nessuno, e questa non è una mia elucubrazione, ma alle prime di molti suoi film si preoccupava che la proiezione fosse a livello qualitativo eccellente per esaltare il lavoro da lui fatto svolgere, quindi se lo fece per la pellicola, lo avrebbe fatto fare anche per il digitale.

Nota a margine: la schiava Isaura, la prima telenovelas ufficiale della storia della tv era girata in pellicola, quindi ironicamente poco telenovelas come stile visivo.


Workflow che parolaccia

Workflow in inglese indica il corretto flusso di lavoro per eseguire nel modo corretto un lavoro X, ma pare che la maggior parte delle persone sia allergica a tale processo.

Nella mia vita ho visto milioni di persone, dal vivo o online lamentarsi che la camera/il programma/lo strumento XXX non fa XYZ, senza studiare come vanno usati o come vanno gestiti correttamente, perchè invece di leggere 10 pagine di manuale preferiscono perdere mesi su facebook e su google a cercare la risposta che hanno sotto gli occhi.

Gente che chiede perchè non riesce a fare l’operazione X che faceva su un prodotto completamente diverso, quando nel manuale è scritto esplicitamente che non si può fare o che si fa in modo diverso. Ad esempio con buona parte delle camere Blackmagic le persone riempono i forum di domande imbarazzanti piuttosto che leggere 19 pagine (con le figure) di manuale, e se una persona arriva a chiedere come si vedono le clip appena girate quando in grande ci sono i bottoni di play con il classico simbolo triangolare, convenzione esistente da prima che nascessi io…

Un esempio che trovo più imbarazzante mi è capitato stasera leggendo su un sito noto di filmaking una tecnica per ridurre l’effetto fisheye delle GoPro usando diversi programmi da HitFilm a PremiereCC e altri, spiegando quale funzione usare e come… peccato che GoPro fornisca gratis un sistema più efficace e di qualità per eseguire quello e altre operazioni importanti per gestire un filmato di una gopro, ma quasi nessuno lo usa… perchè è talmente facile da usare come camera, che tutti la usano subito senza leggere le istruzioni, e quindi… ne usano il 10% del potenziale.

Pur non essendo amante delle gopro per il tipo di ottica presente, sarebbe utile sapere che :

  • posseggono una modalità di ripresa log, detta protune, e un camraw per catturare meglio e in modo più cinematico le immagini proteggendo meglio le informazioni delle alte e basse luci, con differenze qualitative notevoli.
  • possono settare in diversi modi l’otturazione per avere una resa più cinematografica
  • nel sistema stesso di ripresa possono ridurre l’effetto fish eye con una elaborazione realtime della camera con diversi algoritmi creati da David Newman, autore di Cineform e di molte innovazioni Gopro
  • Il software free proprietario permette la lettura e ottimizzazione di un file log protune trasformandolo in un file più utilizzabile cineform attuando anche la conversione colore in uno spazio a 10bit 4:2:2 dal file originale 8bit 4:2:0 eseguendo l’upsampling del rosso e ottimizzando in funzione del file compresso da gopro, cosa che nessun software è in grado di eseguire
  • il software free proprietario legge i metadati della camera ed è in grado di gestire meglio la conversione da fisheys a filmato più “naturale” sfruttando i dati geometrici delle lenti goPro
  • il software free proprietario ha degli algoritmi per ottimizzare i timelapse fotografici realizzati con la gopro per fondere meglio e in modo più naturale i diversi fotogrammi.

E questo solo per dire alcune delle potenzialità che vengono regalate agli utenti gopro gratuitamente, ma che la maggior parte delle persone si perdono perchè non si prendono la briga di leggere le istruzioni o comprendere quale sia il corretto workflow di utilizzo di questa piccola ma potente camera.


Crop la parola definitiva… il fullframe non è un vero fullframe, ha crop, addirittura 2.4

Più volte ho ironizzato sul fatto che non ho pensato mai al crop finchè alcuni articoli me lo hanno fatto notare, ora dopo questo dispetto che mi è stato fatto/ tempo perso a rifletterci e dopo tante fuffe inventate dai pubblicitari e dai pixel peeper di tutto il mondo, restituisco la moneta con una affermazione matematicamente corretta dicendo, no tutti i concetti di crop sono sbagliati, il full frame non è vero che non ha crop, anzi ha un crop 2.4, quindi non rompeteci le scatole e convivete con questo concetto ottico!!!!

Una prova della mia affermazione?

Il marketing dice che data focale deve avere un certo angolo visivo, altrimenti ha crop, il FullFrame non ha crop perchè se metto un 50mm ho un angolo di 46.8 gradi, mentre se lo metto davanti ad altri sensori ho meno gradi, questo è vero, tranne per un dettaglio…

Il termine full frame è stato inventato dal marketing, questo termine viene usato in riferimento al diffuso formato amatoriale 24×36 mm, ma se vogliamo creare un punto di riferimento senza crop si deve andare sul medio formato, ovvero il 60x90mm, dove il 50mm cattura ben 112.6 gradi dell’immagine…
Il vero formato di riferimento della fotografia professionale è da sempre il 6×9 (scarto il 6×6 sia perchè quadrato, sia perchè non è l’area massima di cattura di un fotogramma), quindi stabilendo che quello è il vero punto zero come crop (evito di andare sulla lastra del dagherrotipo o altri formati non diffusi del largo formato, ma resto nel medio formato), il formato 24×36 rispetto ad esso ha un crop 2.4, semplice matematica calcolando la focale sulla diagonale del sensore/piano focale.

Se volete divertirvi con i calcoli trovate sul sito foto.bonavoglia.eu il calcolatore degli angoli focali in funzione dei formati.

Quindi da oggi a chi vi dice che avete un sensore con crop perchè inferiore al 24×36, fate presente che anche quello ha crop, quasi 3… che se si vuole perdere tempo dietro il concetto di crop, si deve usare un vero punto di partenza, non quello che il marketing dell’industria fotografica digitale si è inventato per comodità, perchè la maggior parte dei produttori produce al max sensori 24×36 e quindi secondo loro quello delle essere il riferimento standard.

La realtà dei fatti qual’è?
Semplice: il concetto di crop, ovvero che state tagliando/perdendo qualcosa è stato inventato dal marketing per dare un maggior valore alle macchine fotografiche digitali Fullframe, per affermare che siano migliori; giustificare un prezzo maggiore con qualcosa di tangibile, ovvero l’angolo focale maggiore. La realtà dei fatti è che da sempre in fotografia e cinematografia a seconda dei sensori e delle lenti si ha un angolo visivo differente, per leggi ottiche, e come tali non ci si è mai fatto il problema.

Di recente è avvenuta l’introduzione degli Speedbooster della Metabone, strumenti ottici che focalizzano il fascio di luce di una lente di dimensioni maggiori a quelle del piano focale su cui si proietta, recuperando angolo focale e spesso anche luminosità.

Gli speedbooster della Metabone dimostrano che volendo i vari produttori di lenti fotografiche e cinematografiche potrebbero ridurre in modo considerevole il limite dei sensori più piccoli con una focalizzazione doppia della luce, guadagnando magari uno o più stop, ma il costo di tale operazione mantenendo la qualità originale è talmente alto che nessuna azienda vuole affrontare tale operazione per le proprie lenti, pur potendolo fare in modo più agevole e solido che un adattatore esterno ad esse come il Metabone.

 

Scegliere una lente, il costo vale la candela?

Spesso ho scritto sulle lenti fotografiche, un argomento molto dibattuto tra fotografi o videmaker, si ammirano da lontano lenti costose, se ne usano di più economiche, resta il mito che le lenti siano uno dei segreti del cinema, della qualità e che se non si spende determinati budget non si hanno i livelli di qualità.

Da un lato esistono differenze reali, meccaniche, strutturali, operative delle lenti cinema verso le lenti fotografiche, per cui il motivo del loro costo è pienamente giustificato, dall’altra non sempre in altri ambiti le differenze sono così evidenti da giustificare differenze di prezzo molto ampie.

Mi sono divertito a fare qualche foto a mia nipote, e mentre le facevo ho cambiato diverse lenti 85mm, dalle più economiche a più costose, passando da una lente vintage che si trova nell’usato intorno ai 200 euro, ad una lente media meccanica, ad una serie L Canon da quasi 2000 euro.

Ognuna di esse esposte nella stessa situazione, massima apertura per metterle in difficoltà, con l’incarnato di una bimba di quasi 3 anni. Indovinate un po’ quale lente è per ogni foto ?

Le fotografie sono state sviluppate allo stesso modo, croppate al 100% da file raw, il risultato è piacevole e dettagliato in ognuna di esse. Dimostrazione che le diverse lenti se ben usate possono offrirci visivamente un ottimo servizio qualitativo.

Per la cronaca si parla di una lente vintage Nikon 85mm serie H, Samyang 85mm 1.5, Canon 85mm 1.4 Serie L IS USM. Nelle stesse condizioni offrono una resa talmente simile che difficilmente si possono distinguere, quindi… forse interscambiabili per molte situazioni.

Ovviamente ognuna di esse ha i suoi vantaggi e svantaggi, ma quello che vede lo spettatore saranno queste immagini, non la tecnica e tutto ciò che si fa dietro di esse.

Una lente cinema o di fascia superiore rispetto ad una lente vintange offrono :

  • No breathing, quando si cambia il fuoco l’ottica non respira, non cambia nulla, il che evita movimenti non voluti durante il cambio di fuoco nè aspira aria con la possibilità di introdurre aria e polvere nell’ottica.
  • Se la lente è uno zoom parafocale, si può cambiare la focale senza perdere il fuoco impostato, mentre per la maggior parte delle lenti zoom al cambio di focale si perde il fuoco.
  • Struttura e meccanica molto più robuste per reggere sollecitazioni fisiche molto intense.
  • Quasi tutte sono tropicalizzate per poter reggere senza problemi schizzi di liquidi e polvere senza danni.
  • Coating frontale e non solo pensato per evitare riflessi e degenerazioni colorate sulle alte luci (Purple fringing).

In conclusione, di fondi di bottiglia e plasticotti ce ne sono tanti, ma non sempre le differenze tra le diverse lenti sono così evidenti da giustificare dieci o trenta volte il loro prezzo, inoltre qui vedete le lenti che si sono espresse al loro meglio con un sensore senza pixelbinning o line skipping, ma se mettete delle lenti davanti a sensori fotografici, che saranno poi scalati in qualche modo, che comprimeranno in modo violento e percepibili il materiale catturato, molte lenti moderne saranno non solo superflue, ma deteriorate in modo così considerevole che rispetto alle lenti kit dette plasticotti, non saranno più nitide o più risolute.


dal 2K al 16K, a quanti K ci vogliamo fermare?

16K magari in 3D a 360 e in Odorama…

i K di risoluzione oggi sono i cerchi in lega delle camere digitali, ovvero orpelli con cui si attira l’acquirente ma non sempre si equivalgono a una vera crescita di qualità, ma questo non è un articolo tecnico dedicato a questo o quell’altro formato, a questo o l’altro codec o strumento, è un articolo dedicato a quello che i venditori di fumo vi vogliono far dimenticare… Fisiologia umana

In tutti i discorsi sui K di proiezione, di tv, si dimentica il dettaglio fondamentale, ovvero se e chi è in grado di vedere quel dettaglio, perchè fisiologicamente l’occhio umano ha dei limiti… non siamo aquile, anzi l’umanità è destinata tra visione ravvicinata con cellulari e tablet, Visori 360 e simili a perdere sempre di più la capacità visiva a distanza.

Secondo il test con la tabella di Snellen, una persona con una vista a 10/10 (non la media delle persone) ha la capacità di distinguere due elementi distinti con un alto contrasto (elementi neri su fondo chiaro) a distanza X.

Questo tipo di capacità è al massimo con il bianco e nero, nel momento in cui ci sono anche dei colori questo valore si alza, ma per amor di semplicità teniamolo buono anche per il colore.

Il calcolo in funzione dell’acutezza visiva umana si può ottenere in modo semplicistico dividendo la distanza di visione dell’elemento in mm / 687,5 = il dettaglio minimo in mm che si può vedere.

a 1 metro si possono vedere al min di 1.45 mm
a 3 metri si possono vedere al min di 4,36 mm
a 5 metri si possono vedere al min di 7,27 mm
a 10 metri si possono vedere al min di 14,5 mm
a 20 metri si possono vedere al min di 29,09 mm

Partendo dal concetto di avere immagini perfettamente nitide, in ogni caso, con massima acutezza e massimo contrasto delle stesse :

Immaginiamo di metterci davanti ad uno schermo cinema da 24 metri x 10 metri in una proiezione 2.40, due tipi di proiezione, 4K e 2K:
– 4K abbiamo una risoluzione verticale di 2160 pixel, quindi 4,6mm per linea.
– 2K abbiamo una risoluzione verticale di 1080 pixel, quindi 9,2 mm per linea.

quindi per poter vedere effettivamente il dettaglio della proiezione a 4K dovremmo essere al max a 3 metri dallo schermo, mentre per il 2K a non più di 6 metri, peccato che…
per vedere uno schermo da 24 metri per intero, considerato che il sistema visivo umano non è quello dei camaleonti, c’è all’angolo visivo che percepisce il dettaglio, perchè noi vediamo a 90 gradi di fronte a noi il dettaglio, mentre man mano che ci si sposta lateralmente percepiamo solo il movimento e non il dettaglio.
Comunque per vedere interamente uno schermo da 24metri dobbiamo porci a circa a 20 metri, quindi possiamo distinguere solo dettagli distanti tra di loro 3 cm, mentre il 2K è inferiore al cm…

Immaginiamo una situazione casalinga, guardiamo a 2 metri un televisore 60 pollici, dim media 133 x 75cm. A 2 metri siamo in grado di distinguere il dettaglio di 2,9 mm di distanza, il dettaglio esprimibile in FullHD è di 750mm diviso 1080, ovvero 0,694 mm cioè ben 4 volte quello che possiamo vedere, se la tv è 4k abbiamo 750mm diviso 2160 è di 0,347mm cioè ben 8,35 volte la nostra capacità visiva.

In realtà al cinema la struttura dell’immagine è più continua, quindi ulteriormente più complesso leggere il dettaglio singolo, mentre sul televisore esiste un microspazio tra un elemento luminoso e l’altro che spesso danno la percezione di leggere più o meno dettaglio di quello che realmente siamo in grado di percepire.

Se voi vi avvicinate allo schermo cinematografico, essendo luce riflessa, il microspazio tra i pixel proiettati va a sparire, per la distanza di proiezione, per la riflessione e diffusione della luce, quindi non percepite i singoli pixel, mentre se fate una proiezione casalinga, si vedono gli spazi nella matrice e questo fornisce una peggior percezione del dettaglio finale.

Già se si osserva un monitor da computer, un 32 pollici è alto circa 40cm, con una risoluzione di FHD abbiamo una linea di dettaglio per ogni segmento da 0,37mm, monitor che noi guarderemo a circa 50 cm di distanza, dove siamo in grado di leggere circa 0,72mm di dettaglio, cioè più del doppio… da qui nasce il dilemma e la reale utilità dell’utilizzo di monitor 4k per il computer… visto che difficilmente avremo la capacità visiva di percepire la differenza tra le due risoluzioni…

Tutto questo ammettendo che abbiate 10/10, il sottoscritto non ce l’ha, ammettendo che le immagini abbiano una gamma dinamica perfetta, un dettaglio talmente elevato da poter separare ogni singolo elementi per pixel senza antialiasing intermedio, che sia compresso e riprodotto al meglio per non perdere questa acutezza, che non ci siano effetti di postproduzione che alterano la percezione di tali elementi, che il sistema di riproduzione sia in grado di riprodurre per ogni singolo pixel un reale punto di luce nello spazio, ma soprattutto che il sistema di cattura abbia realmente catturato quelle informazioni e non abbia usato nessun sistema di pixel shifting (vedi più avanti) nè interpolazione da sensori a risoluzione più bassa.

Posso immaginare che qualcuno possa dire, ma io se vedo un SD o un FullHD sullo stesso tv vedo la differenza, ovvio, anche perchè la sorgente SD di solito arriva da una fonte di qualità talmente bassa che non offre realmente la risoluzione reale, cioè è più sfuocata e quindi i pixel non offrono il contrasto che potrebbero realmente dare. Ad esempio un DVD se visto in 4/3 ha pixel che vengono leggermente scalati in larghezza, ma se visto in 16:9 il numero dei pixel è sempre lo stesso, ma viene scalato di quasi il 30% in orizzontale facendo perdere molto dettaglio, se guardiamo una trasmissione televisiva la registrazione originale anche se digitale non conservava realmente tutte le informazioni per pixel, se poi è passata per una trasmissione via etere la quantità di dettaglio perso è semi infinita.
Inoltre che le varie rielaborazioni che le tv offrono sulle immagini in basa definizione in realtà si amplificano questi divari, contrastando gli impasti dei pixel.

Comunque non sono l’unico ad aver fatto i conti, anzi… soprattutto una azienda che produce ottiche da cinema e ha tutto l’interesse a far cambiare le ottiche per vendere le nuove… oppure no..

Spesso si cita tra i film full Digital come pionieri il secondo impianto di StarWars, che io trovo molto digitale e televisivo come risultato, come tipologia d’immagine etc, mentre preferisco citare un film uscito nello stesso anno, realizzato da Robert Rodriguez, su suggerimento dello stesso Lucas con la stessa camera “One upon a time in Mexico” che nessuno ha giudicato digitale o poco filmic, pur usando la stessa camera.
StarWar Clone Wars imdb link tech

Once upon a time in Mexico imdb link tech.

 

 

Quindi girare in 4K o 8k è inutile?

Dato che il 4k sembra diventare lo standard anche per la visione su cellulare, partiamo dal differenziare un paio di concetti: ripresa vs delivery.

Ripresa al massimo della definizione e qualità è un ottimo principio perchè quando si deve fare il downsampling (la scalatura verso il basso) la qualità globale, il dettaglio saranno sempre migliori che girare in risoluzioni inferiori. Se sono necessarie maschere, effetti di post, reframing etc una maggior risoluzione lascia spazio a lavorazioni dell’immagine senza perdite di qualità percepita.

Delivery al massimo della definizione… anche no…

  • se il sistema di trasmissione non permette un flusso dati sufficiente, meglio una definizione inferiore con più dettaglio che una maggior risoluzione più compressa che in ogni sistema di compressione creerà più artefatti e macroblocchi, non a caso molte tv digitali la trasmissione HD è preferita anche al FHD, per ottimizzare il flusso dati, solo NetFlix oggi ha trasmissioni 4K da riprese 4k, con controllo del flusso di lavoro.
  • se il sistema di visione non è adeguato per la risoluzione maggiore lo scalerà al volo, spesso con maschere di contrasto etc danneggiando il filmato, peggiorando notevolmente il dettaglio e la gamma dinamica generale
  • se la fruizione non è adatta a quella risoluzione, alla meglio sarà uno spreco di risorse di trasmissione, lettura, gestione, alla peggio non si vedrà la differenza

Detto questo non voglio incentivare il ritorno al vecchio formato SD, ma prima di comprare il nuovo monitor o tv 4k invece che un fullhd valutate bene le distanze da cui vedrete il tutto, valutate se effettivamente farà la differenza o ci sarà qualche altro elemento più interessante da valutare sulla qualità della tv… entro certi tempi perchè… il mercato velocemente sceglierà per voi eliminando il televisori Fhd.


Pagina 5 di 12

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!