Carlo Macchiavello

Tutto è possibile

Tag: alexa

Log o non Log, ma quale log?

gamma-power-law_chart

Cos’è il log

Log è l’abbreviazione del termine Logaritmico, ovvero la registrazione delle informazioni di luminosità e saturazione non con informazioni lineari, ma Logaritmiche, il che comporta la capacità di registrare in un numero limitato di informazioni una maggior quantità di sfumature e luminosità, per massimizzare al meglio le possibilità della postproduzione successiva.

In soldoni, il log crea una immagine molto morbida come contrasti e saturazioni, che offre tutta una serie di vantaggi nella cattura e nell’uso.

 Perchè il log non è uno standard

La cattura logaritmica è uno standard, ma le curve di contrasto e saturazione applicate durante la cattura, no.
A seconda dei sensori, delle marche, del formato log (della curva applicata in cattura) le immagini risultati saranno differenti, quindi poi successivamente offriranno più o meno spazio di azione nella postproduzione.

A seconda delle macchine, cineprese digitali come Red, Alexa e BMD offrono un log con curve più semplici da gestire in funzione del livello di contrasto della mia scena da riprendere e quindi la scelta della curva log si fa direttamente proporzionale al contrasto presente (più contrasto + flat sarà la curva scelta / meno contrasto meno flat sarà la curva del log), mentre nel caso di macchine come Sony dove ci sono curve di contrasto molto flat, è fondamentale scegliere bene il profilo, magari con l’ausilio di un monitor con i falsi colori, per capire bene come il sensore sta catturando ed esponendo le diverse parti dell’immagine; se la immagine viene codificata in un log molto flat (poco contrastato) come quello Sony c’è il rischio che nella registrazione si perdano delle parti dell’immagine, perchè invece di avvantaggiarsi dello spazio log per gestire le immagini molto contrastate, se ne prendeno le debolezze.

Perchè è utile

Il log nasce per catturare un numero maggiore di informazioni nella codifica limitata dello spazio 8bit o 10bit, in modo che i file, pur essendo più leggeri contengano tutte le informazioni utili per la post. Il log, sposta le informazioni nello spazio migliore in cui possono essere registrate.

Vantaggio 1 : Ogni sensore ha una gamma dinamica, una capacità di catturare informazioni con poca, giusta o tanta luce, normalmente tutte queste informazioni hanno un peso di dati non gestibile direttamente dalle camere (tranne quelle che registrano il raw), per cui i dati vengono elaborati e compressi sia come colore (vedi articolo sulla profondità colore), sia come luminosità. Utilizzare il sistema di codifica Log ci permette di catturare in una gamma ridotta (8bit) uno spettro maggiore di informazioni.

Ogni codec durante la fase di compressione utilizza degli schemi di eliminazione dei dati inutili o ridondanti, per ridurre lo spazio occupato dai file, ma questo fa si che riduca anche dati che potrebbero essere utili. I codec di compressione classici, come H264, tendono a scartare tutte le informazioni non distinguibili, per cui se abbiamo in una immagine delle ombre profonde, il codec scarta tutte le informazioni dentro le ombre perchè tanto l’occhio percepirà ombre completamente nere, e quindi le informazioni sarebbero inutili… se non vogliamo applicare colorgrading per alleggerire quelle ombre, estrapolando a quel punto il nulla…

Vantaggio 2: Nel momento in cui utilizziamo lo spazio Log le ombre vengono spostate in alto nelle informazioni medio-basse, mentre le alte luci nelle medio alte, quindi dove il codec di compressione protegge tali informazioni, offrendo una maggior possibilità di postproduzione perchè ha protetto le informazioni importante.

Vantaggio 3: Il rumore del processore essendo registrato con un minore contrasto spesso tende a ridursi e a sparire in molti casi, per cui un file log a parità di cattura con un Rec709 offrirà meno rumore video (se sviluppato correttamente, altrimenti mostrerà il rumore originale, i falsi miti che il logo offra più rumore è semplicemente perchè riportando il log in uno spazio rec709 il rumore meno contrastato sembra più presente).

Vantaggio 4: saturazione ridotta vuol dire meno possibilità di banding e soprattutto si riduce il rischio che qualche colore molto saturo possa andare fuori scala negli 8 bit (256 sfumature pure per componente) e quindi appiattire certi elementi o ombreggiature di colore

Perchè in tanti lo osteggiano

Perchè non hanno studiato e capito come funziona per la loro macchina, pensando che sia una opzione da abilitare sempre o comunque, lo mettono anche su scene piatte, andando a creare immagini troppo piatte, che richiedono una certa conoscenza in post e non semplicemente mettere una Lut di conversione.

Se una immagine è registrata in Log nel modo giusto basta solo alzare saturazione (meglio la vividezza) e il contrasto a gusto e si ottiene una ottima immagine pulita e ricca di dettagli. Registrare in Log non significa registrare in raw, significa avere un segnale video compresso catturando una maggior gamma dinamica potenziale, ma comunque dobbiamo preoccuparci di :

  • fare il bilanciamento del bianco
  • settare correttamente Iso ed esposizione
  • gestire correttamente l’esposizione dell’immagine
  • in alcune macchine scegliere il log (la curva di Log) corretto.

Motivi per non usare il log

Personalmente trovo una manna avere la possibilità di catturare le immagini in modalità Log, prima di avere quella possibilità avevo profili camera che simulavano alcune delle caratteristiche del Log per lasciarmi più spazio in postproduzione.

Comprendo anche che molte persone abbiano modi di vedere differenti, e quindi ritengo che non debbano usare il log coloro che :

  • Devono girare solo il materiale e darlo in pasto a terze parti che non sanno usare il Log.
  • Non sanno come girare il materiale Log, non conosco le scelte da fare e per non rischiare di avere immagini troppo piatte meglio avere una immagine classica.
  • La macchina ha troppe curve di Log che essendo molto flat (sony) non sanno cosa scegliere.
  • Non c’è tempo per fare la post minima del log (non ci credo…).

Un esempio pratico

Qui potete vedere due immagini girate in Rec709 sopra e in Log sotto.
Dato che il Log dimostra le differenze nelle immagini estreme e non in quelle demo con illuminazione morbida, ho scelto una immagine notturna che mette alle corde i sistemi di compressione, i sensori, la gestione della luce e dei colori, con contrasti molto alti.
Le immagini, tranne l’ultima, sono in 4k x 4k per poter vedere effettivamente nel dettaglio la differenza di qualità tra le due modalità di ripresa

Log vs rec 709 original

 

 

 

 

Il girato ci appare in questo modo (con un click potete vedere alla risoluzione originale, 4k i file)

Apparentemente il log è leggermente più slavato ma sembrano simili prima di una eventuale postproduzione.

 

 

 

 

 

Log vs rec 709 illuminato

 

 

 

 

Per vedere bene la differenza tra le due immagini basta schiarire leggermente le immagini per vedere come la prima girata in Rec709 dimostri problemi e maggior rumore rispetto a quella sotto girata in Log.

 

 

 

 

 

log vs rec709 corretti

Dopo aver applicato una leggera correzione al Log per portarlo vicino al Rec709 sembrano essere simili, ma in realtà se guardiamo bene nei dettagli le differenze ci sono, sia nelle esposizioni delle luci, e le bruciature in quelle zone, sia perchè l’immagine Rec709 essendo più contrastata ha perso dettagli nelle ombre appiattendo la profondità della scena.

 

 

 

 

 

 

 

 

Con l’ingrandimento del dettaglio dei fari diventa evidente come quello sopra sia più grezzo e il rumore intorno ad esso sia notevolmente maggiore

rispetto al log sotto.

Quando un colorist ci chiede un flat, quale log dobbiamo dare?

nessuno… e tutti
non esiste un log migliore in generale, ognuno ha pro e contro, se è meno contrastato e meno saturo si rischiare di perdere tonalità nella compressione, se troppo contrastato e saturo è poco utile come log, dipende dalla scena che andiamo a catturare e dalle curve di log, tanto al colorist non interessa quale log avete applicato quanto lo spazio di lavoro per agire nel suo campo. Se mai vi chiede quale log avete usato per applicare la corretta LUT di correzione… cambiate persona perchè quello non è un vero colorist ma un applicatore di preset, che offende la categoria dei colorist.

Lo scopo di chi registra (dop, dit) è catturare la gamma dinamica più ampia per offrire al colorist il maggior spaziodi lavoro utile, poi eventualmente se clip sono tutte simili, sbviluppata la prima applica alle successive lo stesso tipo di sviluppo / correzione, ma questo vale per blocchi di clip legati alla ripresa, non esiste possibilità che una lut (non sviluppata sul set in loco) possa ottenere un corretto sviluppo del vostro girato senza farvi perdere parte della gamma dinamica.

Tech note

quando si espone, ogni dop o fotografo sa che per ogni “stop” di luce si deve raddoppiare le informazioni, per farla semplice, se ho 100w di illuminazione, per ottenere +1 stop devo metterne il doppio del precedente, quindi 200W, ma appena supero questa soglia, +2 stop uguale 400W (il doppio del precedente) quindi come vedete diventa rapido il calcolo per cui come nel logaritmo, per avere le informazioni necessarie è fondamentale raddoppiare le informazioni di base ( o dividerle) quando si tratta di luce.

Quindi se ho esposto correttamente un’area del sensore avrò il valore di partenza, poi ad ogni salto in avanti o indietro, dovrò raddoppiare o dividere i valori di informazione luminosa, il che significa che tra luce e ombra in modo lineare avrei il massimo delle informazioni solo ed esclusivamente nella luce. Mentre in una cattura logaritmica che mima una distribuzione più uniforme delle informazioni siamo in grado di “distribuire” in modo più “variegato” le informazioni disponibili, quindi sia nella luce che nell’ombra possiamo catturare un certo numero di informazioni, offrendo nella fase finael una immagine più ricca di sfumature globali.

Ogni camera partendo da un sensore a 16bit offre come minimo 65k di sfumature di luminosità, quindi codificando queste stesse informazioni in una curva logaritmica più morbida e regolare, siamo in grado di ottimizzare la registrare delle informazioni per una immagine più ricca e pulita quando si scende a 10 bit o peggio a 8 bit di informazioni luma / colore.

 



LUT cosa sono e a cosa servono.

lut-buddyCosa sono le LUT?

ci sono tanti modi di spiegare una LUT, più tecnico o più pratico, a me interessa spiegare il lato pratico, per il lato tecnico basta una ricerca su Google e trovate mille e più pagine tecniche che vi spiegano cosa sono fino alla formula matematica che le descrive.

Una LUT Look Up Table è praticamente una tabella, un preset che prende i colori di una immagine, di un filmato, e li corregge secondo i valori contenuti nello schema della LUT.
Internamente ci sono tabelle a 1, 2, 3 dimensioni che prendono il valore del colore originale e lo cambiano in un altro valore; le LUT 3D sono quelle più precise, perchè descrivono la trasformazione del colore in modo più dettagliato secondo lo spettro cromatico più esteso, se nella modalità 1D è una tabella valori in cui 1 diventerà 1.22, nella lut 3D cubica abbiamo uno scostamento sui tre assi del colore e quindi avendo una descrizione più dettagliata, sarà più precisa la correzione che la LUT andrà ad applicare.

A cosa servono le LUT?

Le LUT servono a tre scopi diversi, a seconda di quando si applicano tali correzioni.

LUT da set/Monitor : girando con camere che lavorano girando il log o in raw, il materiale se rivisto direttamente sarebbe strano, desaturato, piatto come contrasti, quindi spesso si usano monitor che al volo applicano una LUT per mostrare il materiale secondo una visione più “tradizionale” ad esempio il rec709 che è lo standard video.

LUT di sviluppo : sia sul set che magari dopo, si creano delle LUT per fissare un certo tipo di correzione dell’immagine originale per fissare l’estetica dello shot che viene fatto, in modo che il Direttore di fotografia possa al momento verificare l’effetto generale della ripresa fatta, che dare delle indicazioni in modo che chi si occuperà della fase color grading abbia una indicazione precisa di cosa il Direttore di Fotografia intendeva catturare sul set.

LUT di Postproduzione : si carica o si crea una tabella di correzione per dare un particolare look alle immagini partendo da LUT che simulano il tipo di risultato che si avrebbe in “determinate condizioni” ad esempio le Lut che simulano i diversi tipi di pellicola emulano come i colori e i contrasti si altererebbero in funzione della stampa su quel tipo di pellicola.

per far soldi … vendendo dei preset che forse potranno funzionare, su alcune immagini…

Perchè non funziona la LUT che sto applicando?

La spiegazione è molto semplice, la LUT funziona sempre, è l’immagine a cui la diamo in pasto che non è adatta.
Contrariamente a quello che pensano in molti, le LUT nascono come preset di correzione del colore, sviluppate su immagini di tipo X, quindi le LUT vi forniranno quel tipo di risultato SOLO se voi le applicherete ad immagini con lo stesso tipo di contrasto e densità di colore, altrimenti i risultati possono essere di ogni tipo. Le LUT sono SOLO delle tabelle di allocazione del colore, ma non possono essere senzienti, ovvero non sanno quale sarà il risultato finale, solo di quanto cambiare il tutto.

Come faccio a far funzionare una LUT?

domanda semplice, risposta molto semplice, olio di gomito, si deve alterare l’immagine sorgente PRIMA di applicare la lut in modo che sia il più simile possibile all’immagine originale usata per creare la lut, questo farà si che il risultato finale sarà il più vicino possibile a quello che ci si aspetta dall’immagine dimostrativa della LUT.

Perchè una immagine NON vale l’altra quando applico le LUT?

se una immagine ha un contrasto alto o basso, la LUT scosterà i colori in modo diverso.

qui potete vedere un esempio di come una immagine LOG o in modalità video rec 709 per la una LUT Kodachrome siano sbagliate, e quindi da una delle due ho dovuto creare una immagine ad hoc per poter ottenere un risultato più naturale da quella LUT.

completoIl file Log non è abbastanza flat, il file rec 709 è troppo contrastato e troppo saturo, mentre per far funzionare correttamente la lut ho dovuto decontrastare il log, ma saturarlo un po’ di più dell’originale. Quindi diventa evidente che quando si usa una LUT più “aggressiva” di un semplice sviluppo delicato, spesso è necessario mettere in mezzo un livello di correzione per far funzionare la lut nel modo corretto, lavorando sul contrasto e sul colore, perchè spesso la tabella è troppo forte o poco forte.

La Lut deve essere pensata più da un punto di partenza, che un punto di arrivo, per cui può essere interessante per la manipolazione delle immagini, ma non la si deve pensare come una bacchetta magica, non trasforma in pellicola le immagini che gli date in pasto alle Lut, ma aiutano lo sviluppo delle immagini per arrivare ad un determinato risultato.

La free Lut per simulare la cara e vecchia Kodachrome è un dono fatto dal cinematographer Frank Glencairn, la potete trovare sul suo blog in questo interessante Articolo sullo sviluppo del colore in stile kodachrome.

Come le lavoro le immagini prima delle LUT?

con qualunque strumento che vi permetta di vedere in realtime le applicazioni di Lut e correzione colore in contemporanea, ad esempio lo strumento LUMETRI di premiere dalla CC2015 in poi, che contiene la possibilità di caricare le LUT in due punti diversi, sia per lo sviluppo base e poi per lo sviluppo creativo, e la cosa interessante è che nello sviluppo creativo i programmatori di Adobe hanno introdotto controlli di regolazione colore come lo “sbiadito” e vividezza; sbiadito è la traduzione un po’ grossolana di bleach pass, il candeggiante, che aiuta l’applicazione delle LUT rendendo più “flat” piatta l’immagine riducendo contemporaneamente sia la saturazione che il contrasto; la vividezza è uno strumento che aumenta il colore inversamente al valore della saturazione degli elementi, oppure toglie colore in modo direttamente proporzionale alla quantità di saturazione degli elementi, molto utile per uniformare i valori di saturazione dell’immagine, riducendo gli eccessi e i contrasti di saturazione che complicano l’applicazione delle LUT e tutte le altre lavorazioni di correzione colore.

Su photoshop ad esempio le LUT si applicano come livello di regolazione, per cui possiamo inserire prima del livello di LUT due livelli di regolazione di valori tonali e vividezza e controlliamo agilmente l’immagine vedendo anche quanto la LUT la cambia e “dosiamo” l’intervento della lut stessa.

Posso applicare le LUT ad ogni tipo di immagine?

Le lut nascono per lavorare al meglio su immagini flat che nascono da file log o raw, per cui applicandole su immagini morbide e poco sature le LUT possono agire bene, e possono funzionare di più al secondo colpo.

Perchè dico al secondo colpo? Perchè log non è uno standard, se prendiamo un file log di una red, di una blackmagic, di una alexa, di una dbolex avremo tanti log diversi, diverse saturazioni e diversi contrasti. Log è un file in cui il colore e il contrasto invece di essere registrati in modo lineare sono registrati in modo logaritmico per gestire meglio e più latitudine di posa e informazioni, ma ogni azienda ha il suo modo di gestire e catturare le informazioni log.

Ad esempio logC Alexa e log blackmagic sono molto simili, Alexa tiene la saturazione più alta, Blackmagic più bassa, ma il contrasto di luminosità è invertito, quindi la LUT sviluppata sulle immagini di una non va bene su quelle dell’altra e viceversa.
Entrambe le camere registrano un log 10bit in .mov e un 12bit log raw, partendo da un sensore 16bit, ma la curva di gestione è differente.
Potete trovare qui alcune indicazioni della curva di log della Alexa.
Questo significa che anche salendo su camere più professionali non esiste un modo standard di creare le immagini e catturarle allo stesso modo. Se una Lut potesse magicamente equilibrare le immagini e dare l’aspetto X indipendentemente dalla sorgente, probabilmente sarebbe superfluo avere sia sul set che in post diversi ruoli e diverse professionalità, ma nonostante i tentativi di filtri, sistemi di allineamento colore in post, uso di tabelle come il target gretag e simili, i sistemi di correzione colore automatici al massimo posso aiutare a “normalizzare” ovvero uniformare le immagini tra di loro, ma di certo non a creare la magia, per quella servono sempre gli esseri umani.

Un altro esempio di come una camera non possa lavorare in modo lineare è dato dal fatto che a seconda della lente che poniamo davanti, dell’iso impostato, anche lavorando con le stesse condizioni cambierà il contrasto di luce, e quindi anche poi la saturazione. Quindi anche usando la stessa camera, e girando in raw, dove non avvengono elaborazioni, ma si cattura esattamente ciò che il sensore legge, basta aprire o chiudere i diaframmi della lente fissa, che cambiando il contrasto una lut usata a TA (tutta apertura) sarà inutilizzabile a 11 di diaframma perchè l’immagine andrà “massaggiata” prima di essere sottoposta alla lut.


4k la vecchia frontiera del nuovo, in attesa dei televisori 8k che non potremo vedere

Pur essendo un fautore del 4k per la ripresa, perchè offre molto materiale su cui lavorare, tanti vantaggi in ogni operazione di manipolazione del materiale, sono convinto che sia l’ennesima bufala del 21 secolo per vendere il nuovo televisore, i nuovi vecchi contenuti.

Perchè il 4k è inutile nei televisori, nei cellulari, nelle telecamere amatoriali?

senza parlare del fatto che se non viene usato per la postproduzione è uno spreco di risorse cpu del dispositivo di cattura, spazio di memoria occupato, surriscaldamento del dispositivo, il 4k su un dispositivo al di sotto di determinate dimensioni è uno spreco inutile. L’acutezza visiva di un essere umano medio è tale da percepire circa 1/10 mm a circa 50cm di distanza, considerato che un pannello 4k di dimensioni medio è una densità di 110 ppi, ovvero su un 40 pollici si parla di 4 punti per mm quadro, peccato che un 40 pollici si guarderà da almeno 150 cm dove la capacità risolutiva è scesa in media a 2-3mm, quindi ci sono ben dieci volte le informazioni percebili da un essere umano medio…

questo calcolo è valido esclusivamente se noi abbiamo una fonte 4k pura, perchè se su quel televisore vediamo un filmato 4k da streaming, youtube 4k, cellulare o altri elementi in realtà non avremo tutte quelle informazioni, perchè il pannello offre quella definizione, ma i dati trasmessi non li hanno, per cui il televisore sarà completamente inutile….

quindi perchè comprare un televisore 4k oggi?

Facciamo una analisi molte semplice e rapida dei pro e dei contro :

Pro:

  1. è una grande cornice digitale ad alta risoluzione per le vostre fotografie
  2. se ho una vera cinepresa digitale 4k posso vedere le immagini nel loro reale splendore, se sto molto vicino al 40 pollici che ho comprato.

Contro:

  1. non ci sono ancora contenuti veri in 4k con cui sfruttare una tv 4k
  2. lo standard bluray 4k è ancora teorico, ma non esistono bluray 4k in commercio
  3. non esistono ancora film girati completamente in 4k, quindi comunque si vedrebbero filmati “gonfiati” e non nativi 4k
  4. lo streming 4k in realtà offre meno di 2,7 k di risoluzione effettiva, il resto nasce per interpolazione quindi nuovamente inutile.
  5. la trasmissione 4k è teoria, in realtà ad oggi sono pochi i canali in FullHD (1920 x 1080), la maggior parte al max sono hd (1280×720).
  6. i televisori 4k non hanno decoder digitali per ricevere segnali 4k perchè non sono ancora stati definiti standard di trasmissione 4k, quindi al momento in cui esisteranno i canali 4k il nostro televisore sarà già obsoleto e non in grado di mostrare i filmati alla risoluzione 4k.
  7. la lettura di filmati FullHd offre una visione sfuocata dei contenuti (perchè gonfiata 4 volte) oppure troppo incisa perchè per mascherare l’immagine morbida viene processata mangiando in realtà diversi livelli di dettaglio durante le operazioni crude di sharpening. Quindi per vedere un bluray è un pessimo veicolo.
  8. costerà molto di più di un equivalente fullHD di qualità, non offrendo ad oggi la possibilità di vedere immagini realmente differenti.
  9. nel visualizzare immagini amatoriali 4k da cellulari, telecamere etc non è detto che esse abbiano sufficiente dettaglio per mostrare immagini di qualità per sfruttare la matrice 4k
  10. per percepire la reale differenza tra un tv 4k e un tv Fhd si deve andare dai 50 pollici in su, che però si dovranno vedere più da lontano e quindi si torna all’assurto iniziale, inutile per la maggior parte delle persone che non hanno la capacità visiva di apprezzarne il dettaglio a livello fisiologico.

perchè il 4k al cinema non serve?

la proiezione 4k è una piccola truffa, perchè in realtà la maggior parte dei film viene girata con cineprese digitali in 2k, come le alexa, per cui il fatto che venga poi proiettato in 4k non da nessun vantaggio di fatto, anzi, è un inutile flettere i muscoli di tutto il sistema, perchè richiederà 4 volte lo spazio originale del 2k, risorse maggiori per il play e la gestione dei contenuti senza dare un reale vantaggio.

Ma veramente non si vede la differenza?

Nolan si vantava di aver girato in Imax (formato in altissima definizione pellicola) l’ultimo cavaliere oscuro e Interstellar, e un sacco di gente ha detto di aver notato la differenza..
Sarei curioso di chiedere a quella stessa gente se mi sa indicare in quali inquadrature ha notato la differenza, perchè nessuno dei due è girato completamente in Imax, troppo costoso, troppo grandi e scomode le cineprese, etc etc… per cui sono state alternate le riprese di s35 tradizionali a quelle di imax (prettamente degli esterni dove era più semplice gestire macchine da presa più ingombranti)… soprattutto visto che queste pellicole nella maggior parte delle situazioni sono state viste in sale digitali su proiettori 2k, quindi dove tutto era appiattito e spostato verso il basso.

Altro punto a favore per l’impasto generale è dato dal fatto che molti film subendo digitalmente una postproduzione molto pesante, anche solo a livello di editing e color correction, non si è poi in grado di distinguere nelle riprese brevi fatte da dslr, go pro, telecamere, da cineprese professionali. Il tutto grazie al fatto che vengono utilizzate nella situazione migliore per estrapolare al meglio la qualità visiva dai diversi sensori facendole lavorare al meglio delle loro possibilità.

quindi per il 4k è presto?

beh si riprende in 4k per il futuro, perchè si estrae un 2k e un fullHD di altissima qualità, ma usare direttamente il 4k a livello domestico è uno spreco, perchè non è percepibile direttamente dall’occhio nella maggior parte delle situazioni domestiche.

perchè allora proliferano i televisori in 4k e tutte le periferiche 4k?

qualcosa vi devono vendere, o no?
Nel marketing si sono sempre usati i numeri per dare una percezione tangibile di un valore, anche se qui numeri non avevano reale connessione col valore del prodotto.

ad esempio, i masterizzatori sono partiti col 2x dei cd, fino ad arrivare a x52 dei dvd, ma nessuno vi dice che i supporti x52 non esistono, perchè la masterizzazione è un bilanciamento tra velocità di scrittura e numero di errori introdotti, a seconda della qualità del supporto la velocità viene dosata per introdurre un numero minimo di errori di scrittura, per permettere la lettura dei dati e grazie ad un sistema di correzione dell’errore poter risalire ai dati originali. Il concetto della correzione dell’errore di lettura era nato in origine per compensare i difetti di fabbricazione, e/o di graffi o i danni al supporto, nel tempo questo sistema è diventato un metodo per accelerare la scrittura sui supporti basandosi sul fatto che alla fine si riesce lo stesso a leggere i dati.

Il problema dove sta? nel fatto che se si porta un supporto al limite della leggibilità perchè lo vogliamo masterizzare a x52 invece che a x8, basta una leggera usura a rendere illeggibili i dati scritti. Non solo, la scrittura lenta applica in modo diverso il laser di scrittura e introducendo meno errori rende il supporto più resistente anche a usura più forte, esposizione a uv, deformazione del supporto scrivibile,  etc.
Il che fa pensare su come in modo superficiale si scrivano dati su un supporto, senza aver avuto nozioni di come farlo e come conservarlo.. auguri ai masterizzatori da formula 1, forse dopo 3-4 mesi potranno ancora rileggere qualcosa dai loro supporti.

un altro esempio, i megapixel delle fotocamere:

da sempre sembra che i megapixel siano indice di qualità, ma se si schiacciano su un sensore da 1/4 di pollice 40 megapixel, non si può pensare di avere la stessa pulizia e luce di 12 megapixel su un sensore fullframe, perchè la luce catturata da ogni recettore è maggiore. In realtà non sono solo i megapixel ma anche la capacità degli stessi di catturare informazioni, la superficie coperta che offrono la qualità effettiva dell’immagine catturata, ma il concetto è troppo complicato, quindi per la massa + megapixel = + qualità.

ricordo ancora quando regalai a mia sorella una compatta da tre megapixel, in un mondo in cui ne erano già uscite diverse da 5-6 megapixel, ma le fotografie e il dettaglio di quelle fotografie era inarrivabile dalle equivalenti come fascia di prezzo, perchè alcune interpolavano, altre avevano si più recettori ma meno sensibili etc etc.

oggi una gara nelle fotocamere e telecamere è la sensibilità (in realtà anche 25 anni fa, visto che si parla anche allora di riprendere con una candela).
Se non si riprende al buio, e non parlo di luce naturale, ma di buio, allora la camera non è degna di nota… quindi una red e una alexa, cineprese digitali con cui fanno i film che hanno una sensibilità nativa di soli 800 iso sono delle scamorze…

Perchè è già tardi comprare un televisore 4k?

diciamo che la mia è una affermazione provocatoria, ma non troppo…
perchè i giapponesi stanno già sperimentando le trasmissioni in 8k, per cui perchè comprare un prodotto superato, tanto vale passare direttamente all’8k 😀

battute a parte, i giapponesi sono sempre stati all’avanguardia con la sperimentazione, ricordo il primo sistema di fullHD ripresa e visione visto di persona al SIM audio Hifi a milano nel 1992, una sperimentazione congiunta tra RAI e un colosso giapponese Ikegami, ironicamente avevo ripreso tali immagini con la mia potentissima vhs a 200 linee e mi sembrava così lontana come qualità e potenza.

ben prima di questi pioneri già nel 1986 Francis Ford Coppola, prodotto da George Lucas, realizzava uno speciale video clip in 4D (3d più quello che oggi si chiama augmented reality) usando telecamere HD sperimentali con protagonista il grande Michael Jackson in Captain EO.
Questo per far presente come se l’HD era già presente come tecnologia nel 1986, oggi dopo quasi 30 anni, ancora non è lo standard televisivo, quindi valutiamo bene quanto il 4k possa penetrare dentro le nostre case in un paio di anni.
Soprattutto si deve riflettere sul fatto che 4k non vuol dire solo cambiare i sistemi di ricezione, poco costosi, ma cambiare tutti i sistemi di messa in onda e trasmissione, e per le televisioni sarebbe un investimento mostruoso, che dubito faranno così velocemente, visto che molte sono ancora alla Standard definition.


Powered by WordPress & Theme by Anders Norén

Translate »