Carlo Macchiavello

Tutto è possibile

Categoria: I miti da sfatare (Page 1 of 10)

Supporti questi sconosciuti, quanta velocità mi serve?

Troppe volte sento parlare e leggo di problemi di registrazione dei file, sia fotografici che video, associati a bestialità tecniche incredibili, sia perchè c’è tanta disinformazione, sia perchè spesso sono argomenti affrontati con molta superficialità, che causa problemi lavorativamente.

La cosa inquietante è che spesso anche le aziende non sono preparati per rispondere a domande banali, conservo ancora una email del supporto tecnico di una nota Azienda riguardo alla richiesta di un elenco di SD certificate per la registrazione del flusso dati 400mbits della loro camera, l’avranno testata in qualche modo visto che facevano uscire i video dimostrativi, ma nessuno mi sapeva dare elenco di card certificate per ottenere tale risultati, e di sicuro non spendo centinaia di euro in schede inutili per fare i test al posto loro, come suggeritomi dall’assistenza.

Perchè mi serve avere un supporto veloce e cosa accade quando uso un supporto più lento di quello necessario?

Quando stiamo scattando una fotografia, stiamo girando un video, stiamo creando dati che passano attraverso 5 diversi possibili colli di bottiglia:

  • Dimensione buffer interno della camera
  • Controller di registrazione della camera (supporto o no di schede veloci UHS-II etc)
  • Dimensione buffer esterno della scheda (prima della scrittura sulle celle il controller spesso ha un buffer di passaggio per liberare quello della camera)
  • Controller di registrazione della scheda (la gestione delle celle viene fatto da un controller che registra direttamente i dati o spesso li comprime per accelerare il trasferimento).
  • Qualità celle che mantengano la stessa velocità di scrittura per tutte le celle, molti supporti dopo aver riempito in modo casuale la metà delle celle rallentano perchè hanno mappato male i dati e devo “trovare gli spazi liberi”.

Dato che con la scelta della scheda stiamo influenzando buona parte di questi elementi di gestione della velocità di scrittura dei dati, è importante fare la scelta giusta, perchè se il supporto scelto è quello ottimale avremo una serie di vantaggi:

  • registrazione alla massima qualità dei video
  • registrazione al massimo bitrate dei video (non sempre coicide col primo punto, ma ci sono vantaggi e differenze in questo)
  • registrazione di raffiche di fotogrammi più lunghe
  • reattività della macchina a scattare nuovamente dopo aver scattato i primi fotogrammi

Al contrario se il dispositivo non è adeguato possiamo incontrare i seguenti problemi:

  • limiti di durata dei video alla massima qualità/bitrate (dipende dal buffer interno, normalmente si parla di pochi secondi se la scheda non è adeguata), si prevede perchè sempre stesso intervallo.
  • se la scheda è discretamente veloce, possiamo avere interruzioni della ripresa video dopo un tempo X (buffer che si riempe ma non abbiamo feedback può essere anche dopo minuti di registrazione) non prevedibile.
  • tempi di attesa più o meno lunghi dopo lo scatto per attendere che sia scaricato il buffer
  • lo scarico del buffer della raffica richiede secondi e quindi non si può scattare nel frattempo
  • raffiche brevi perchè il buffer della camera si riempe subito
come scelgo la card giusta?

Il primo limite nella scelta delle card sta nel fatto che i produttori spesso offrono dati confusi e tendenziosi per ingannare l’acquirente occasionale, fornendo sigle e indicazioni poco chiare o spesso indicanti solo di parte dei dati:

  • SD Secure Digital fino ad un massimo di 2gb
  • SDHC Secure Digital High Capacity dai 4 ai 32 gb
  • SDXC Secure Digital eXtended Capacity da 64gb a 2 tb
  • Classe 2 scrittura a 2 mb/s
  • Classe 4 scrittura a 4 mb/s
  • Classe 6 scrittura a 6 mb/s
  • Classe 10 scrittura a 10 mb/s
  • SD UHS Speed Class-I U1 scrittura garantita a 10 mb/s per tutta la capacità della scheda
  • SD UHS Speed Class-I U3 scrittura garantita a 30 mb/s per tutta la capacità della scheda
  • SD UHS Speed Class-II U1 e U3 scrittura garantita da 150 mb/s a 312 per tutta la capacità della scheda
  • SD Video Speed Class nuova categoria per la registrazione video con garanzia di prestazione V6 (6 mb/s), V10(10mb/s),V30 (30 mb/s), V60(60mb/s),V90 (90 mb/s)

Spesso quando si vedono le velocità scritte sulle schede si parla delle velocità di lettura, non di scrittura, che non ci interessano per la scrittura dei file in ripresa.

Entrambe sono SDXC Classe 10, U3

la prima legge a 95 mb/s ma V30, quindi scrive a 30 mb/s

la seconda legge a 300 mb/s ma scrive fino a 260mb/s.

Quindi è importante saper leggere le sigle, verificare le vere velocità di scrittura delle schede SD per evitare sorprese durante il lavoro.

come scelgo l’ssd giusto?

Oggi diverse camere usano gli ssd per la registrazione dei dati, o tramite adattatori CF2 to Esata trasferiscono i file su SSD. Le stesse regole delle schede SD valgono anche per le CF e gli SSD, anzi ci sono anche più pericoli nascosti, perchè spesso le velocità dichiarate sono farlocche, ovvero ottenute solo tramite trucchi hardware, ma solo nel momento in cui lavorano su un computer, mentre nel momento in cui sono connesse con un sistema di registrazione diretto questi elementi non funzionano.

Troppi utenti trascurano il fatto che dentro gli ssd ci sono dei controller, dei buffer, e spesso trucchi per raggiungere velocità di picco che non saranno mai mantenute durante la registrazione di file continua.

I produttori di ssd spesso cambiano le memorie interne degli ssd senza cambiare le sigle, per cui dischi ssd testati l’anno scorso contengono memorie diverse, meno efficienti, meno rapide di quelle testate in passato.

Inoltre a seconda del controller, del tipo di disco, delle memorie la velocità può essere costante durante il riempimento del disco, oppure mentre si riempe il disco, dopo la metà può essere anche meno del 30% del valore dichiarato.

Ogni disco è una storia a sè, le diverse taglie di un disco offrono prestazioni diverse perchè cambiano i controller, il tipo di memorie, e spesso anche il modo con cui vengono riempiti i dischi, per cui ci possono essere ssd da 256 gb poco efficienti, ma lo stesso disco in taglio da 1 tera è perfettamente utilizzabile e compatibile con le più alte velocità di scrittura.

Ovviamente i produttori di ssd testano gli ssd per usarli nel computer e quindi non è illegale dichiarare determinate performance, perchè su computer possono raggiungere 480 mb/s quando in realtà collegati ad una normale interfaccia sata rendono al massimo 130/140 mb/s costanti, perchè il resto delle performance sono picchi ottenuti con la compressione dati e col trasferimento da un controller all’altro.

Per queste ragioni le liste di supporti certificati sono molto brevi e limitate a determinati marchi, dischi, e taglie particolari di suddetti dischi.

MAI SUPPORRE O FIDARSI DELLE INDICAZIONI TECNICHE

acquistare sempre i supporti certificati dalla casa madre della camera, e/o verificare il supporto prima di un lavoro con riprese multiple, sia con ripresa continua fino a riempire il disco, riprese alternate, accensioni e spegnimenti camera etc etc.

Ho avuto esperienze di dischi che per velocità dichiarate avrebbero dovuto supportare registrazioni raw continue, mentre in realtà faticavano con registrazioni in formati DI di alta qualità perchè erano solo velocità di picco e nulla di costante.

La verità è là fuori

Ve li ricordate? La coppia di scettica e credente che hanno cambiato il modo di fare televisione e serie tv negli anni 90, X-File.

Mi sono ispirato a loro per questo post, perchè sono stufo della disinformazione che viene fatta dietro l’hardware quando si deve lavorare, da una parte la totale confusione che c’è su internet a proposito della potenza e delle soluzioni hardware per chi deve fare editing video, postproduzione, 3D, dall’altra gli assemblatori di computer che sono totalmente ignoranti, prendendo a paragone il mercato del gaming come fonte assoluta dei benchmark, quando in realtà chi lavora non può affidarsi a quelle informazioni.

Facciamo una premessa : i giochi e i software di editing/postproduzione/3d si basano su principi di gestione della memoria, dei core, delle GPU completamente diversi, per questa ragione una configurazione che per i giochi mostra un incremento notevole di potenza, magari per l’editing il discorso è ininfluente.
Tutto il mio articolo è fondato sulla ricerca delle performance lavorative, quindi se qualcuno vi fornisce informazioni discordanti chiedete quali sono le sue fonti e le ragioni operativo pratiche su cui si basano le sue conoscenze, se non utilizza almeno due o tre pacchetti di postproduzione e 3d non è attendibile.

Parliamo dei processori

Tanti anni fà il signor Gordon Moore, coofondatore della Intel, teorizzò con la prima legge di Moore che i processori avrebbero raddoppiato il numero dei loro transistor e di conseguenza la loro potenza ogni 2 anni.
Quello che non considerò furono tre fattori :

  1. c’è un limite alla dimensione del processore, un limite alla miniaturizzazione delle piste altrimenti ad aumento di potenza si rischia la elettromigrazione e quindi corto delle piste.
  2. c’è un notevole aumento di temperatura all’aumento della potenza del processore e va dissipata in modo efficiente per non avere oltre che consumi notevoli, problemi di stabilità (vedi i moderni cellulari octacore che sembra di avere uno scaldino sul viso).
  3. I programmatori sono diventati sistematicamente più pigri e inefficienti, se negli anni 90 i programmatori compilavano il software ottimizzato per il singolo processore e all’installazione si sceglieva la versione più adatta, oggi molti programmi non sono neanche ottimizzati per il multicore, multiprocessing sprecando fino al 80% delle risorse

Ad ognuno di questi fattori c’è rimedio, nel tempo sono cambiate le tecnologie e se si vuole…

  1. la stratificazione permette la creazione di processori multicore (a oggi 72), con ridotti rischi di elettromigrazione, ma alcuni produttori per evitare il rischio mettono dei “lucchetti” alle potenzialità del processore, ovvero la velocità non è costante ma oscillante a seconda della richiesta di sistema, il chè è bene per ottimizzare risorse, scaldare meno, consumare meno, ma nel momento in cui lavoro e lascio a renderizzare un computer per 60 ore (il 3d o la postproduzione anche giorni di rendering), quel processore rischia di toccare picchi di durata non prevista e passare dal semplice spegnimento al danno diretto del processore.
  2. oggi sia i dissipatori attivi di buona qualità che i dissipatori a liquido sono discretamente economici da permettere a chi lavora di dissipare tutto il calore che serve, peccato che il principio è come quello delle vecchie lampadine a incandescenza, si sprecava una quantità inusitata di energia in calore invece che in luce/calcolo
  3. qualche programmatore che ottimizza i software esiste ancora, mi vengono in mente per il 3d Zbrush, 3D coat, Clarisse, software che sembrano magici per quello che fanno, ma in realtà si tratta solo di buona programmazione.
parliamo delle schede video

Nel mercato di oggi si sta spingendo molto sulla scheda video e sull’utilizzo delle GPU per il calcolo, un discorso molto moderno e approccio innovativo, che iniziò circa 40anni fà con Steve Wozniac in Apple nel 1977 e con Commodore con Amiga nel 1985, in quel caso i programmatori lavoravano a basso livello, gestivano direttamente i chip delle schede video spremendo ogni bit disponibile, oggi i programmatori si appoggiano a librerie di sistema che utilizzano poi l’hardware, parliamo di Metal2 nel caso di Apple per chip (Nvidia, Intel, AMD), Cuda per Nvidia, OpenCL per AMD, Nvidia, Intel (standard open a più tipi di chip, ma purtroppo meno performante).

Questo vuol dire che a seconda delle scelte dei programmatori possono sfruttare meglio o peggio le risorse hardware del sistema, questo è il motivo per cui il programma di editing X arranca con il fullHD sulla stessa macchina dove il programma di editing Y gira fluido in 4k.

La scheda video oggi viene sfruttata per accelerare come minimo :

  • decodifica dei file h264, h265 (la maggioranza dei file video generati da smartphone, macchine fotografiche e telecamere di fascia medio – bassa, quindi se già la lettura del file e la sua decodifica impegna la scheda, questa ha meno risorse per i task successivi
  • accelerazione effetti video / audio in tempo reale
  • gestione di rappresentazione o calcolo 3D (esiste una intera categoria di motori di rendering di alto livello, alcuni nati dai giochi come U-Render o Octane Render che usano solo esclusivamente la GPU per il calcolo.
  • riduzione rumore video, da Neat video in poi…
  • gestione interfaccia video (sprechiamo risorse e memoria video della scheda visto che ne hanno già poca…)
  • Compressione in formati H264, H265 per output video.
parliamo delle CPU

Nel mercato di oggi dopo aver raggiunto una sorta di limite nella creazione di processori con Clock sempre più alti, si è passati alla creazione di wafer, strati multipli dove i diversi core si combinano tra di loro, per cui invece di avere un potentissimo motore, abbiamo la somma di tutti questi motori. La logica è inopinabile, più efficiente e potente, e in caso di danno parte del processore resta attiva e quindi funzionante, ma…

A oggi il tallone d’achille è lo sfruttamente di tali core, perchè di base il sistema operativo riceve le chiamate di calcolo dal programma, le smista ai diversi core del processore, restituisce i risultati, peccato che tale approccio sia differente e meno efficiente dell’accesso diretto dei programmi ai singoli core del processore, e quindi si perdono troppi cicli macchina in questi passaggi, inoltre se è il sistema a gestire l’assegnazione è possibile che semplici task come aprire un browser possa rubare troppe risorse ad un rendering, o ne vengano sprecate in vario modo.

Il risultato di questa gestione è che i programmi progressivamente perdono potenza, come se avessimo una macchina che ha le marce fino alla quinta, ma quando iniziamo ad accelerare ci sollevano le ruote dal terreno facendolo solo sfiorare.

Ora perchè tutto questo discorso?

Perchè contrariamente a quello che fanno credere tutti, non ci sono sempre salti proporzionali tra il valore economico di CPU e GPU e le risultanti di potenza nei programmi di editing, post, 3D, quindi si può sprecare investimenti su schede e cpu costose senza avere dei veri e propri salti prestazionali con i software.

Inoltre col fatto che spesso questi chip non sono usati al 100% dai software il rischio maggiore è quello di veder inutilizzati buona parte delle risorse.

Come verificare prima dell’acquisto cosa comprare?

Dopo anni di esperimenti ho verificato un paio di test affidabili oggi (agosto 2018), poi spero di essere smentito e vedere software da lavoro ultraottimizzati come i giochi che sfrutteranno meglio le differenze operative di CPU e GPU.

Parlo di benchmark affidabili perchè storicamente i produttori di schede video e driver hanno spesso barato per risultare ottimi nei benchmark in voga nel momento ma non nelle reali performance; è sempre stato complesso fare benchmark che offrissero indicazioni sull’uso reale, perchè i benchmark eseguono calcoli per sovraccaricare i diversi processori e strumenti dell’hardware, ma spesso gli sviluppatori di benchmark sono ottimisti, ovvero pensano che anche i programmatori dei software sfrutteranno come loro tutte le funzionalità, cosa che non accade quasi mai.

Per le GPU un buon benchmark è OctaneBench, ovvero una scena 3d calcolata esclusivamente con la GPU, tramite il motore di rendering Octane render, il risultato di benchmark e differenze tra una GPU e l’altra mi ha dato stesso riscontro utilizzando le differenti GPU su programmi come :

  • Adobe Premiere
  • Adobe After Effects
  • Davinci Resolve
  • NeatVideo denoiser
  • Avid
  • Fusion

La cosa imbarazzante sono i risultati, che potete leggere voi stessi, ovvero la differenza tra le Titan e una GTX 980ti oltre al quadruplo del prezzo è solo per la quantità di memoria a bordo, ma le performance… NO!!!
facciamo un riassunto veloce?

  1. GTX 1080ti euro 800 (di media) score 185
  2. Quadro P6000 euro 4.500 (ci sono da 6000) score 169
  3. Tesla P40 euro 7.000 score 166
  4. GTX 1080 euro 550 score 135
  5. GTX 980Ti euro 450 score 130 (posseggo la Asus Strix che fa 141 di score)
  6. Titan X euro 665 score 129
  7. Quadro P4000 euro 800 score 101
  8. Titan Black euro 1800 score 80
  9. Titan Z euro 2400 score 77

quindi contrariamente a quello che dicono la maggior parte delle persone, quando si passa al lato operativo lavorativo (NON STIAMO GIOCANDO nel vero senso del discorso) le schede considerate più performanti sono le più sfigate in un rapporto potenza prezzo, senza considerare che molti software (Resolve, Octane, Neatvideo, and more) sono capaci di sfruttare il multigpu, quindi scegliendo oculatamente la piastra del computer e le schede video, si possono ottenere performance che le superschede si possono solo che sognare mettendo 2 o più schede in parallelo. Esistono poi delle riflessioni parallele da fare in riferimento alla vecchiaia delle schede, perchè dopo qualche anno le schede non vengono più supportate nei software e quindi un investimento molto alto se non si ripaga velocemente si rischia di vederlo sparire nelle nuove versioni dei software. Teniamo inoltre conto del fatto che pur essendo teoricamente pensate per il multiGPU le schede madri non sono pensate per usarle tutte… ovvero spesso non ci sono abbastanza lane per la distribuzione dei calcoli o banalmente pur essendo una E-Atx le schede sono troppo vicine e il problema sarà il calore generato perchè ogni scheda manda aria calda alle spalle della scheda davanti a lei e quindi il surriscaldamento sarà dietro l’angolo, e non si potrà applicare un raffreddamento a liquido perchè non c’è spazio per montare i radiatori sulle schede tra una scheda e l’altra.

Come verifico la potenza delle CPU?

per le CPU esistono ancora più benchmark e spesso inutili… perchè molti programmi non sfruttano il multicore o il multithreading, o non usano tutte le funzioni integrate, quindi una CPU dual core, ma con clock più alto offrirà all’atto finale un tempo di calcolo inferiore rispetto ad un octacore con un clock inferiore durante l’export di un file video.

Un buon benchmark per il processore è CineBench, usato anche da molte testate giornalistiche importanti per testare le performance dei computer, esso utilizza il core del motore di rendering 3d Maxon Cinema 4D, motore che testa sia l’openGl che la cpu, single core e multicore. Diventa semplice verificare tramite lo score quanto sia potente la CPU in uso singolo o combinato col Multithreading.

La cosa divertente è che usando un processore antico (Q3-2013) come un Intel i7 4930k ottengo uno score di 927. Guardando le prestazioni dei processori moderni… potrei avere qualche delusione… come potete vedere sotto la media dei processori di oggi offrono o le stesse performance o meno ancora… altrimenti si deve investire in modo consistente, e qui si vedono solo i prezzi dei processori.

  • Intel core i5 7640k euro 154, score 716
  • Intel core i7 4790k  euro 290, score 836
  • Intel core i7 7700k euro 300, score 960
  • Intel core i7 7740k euro 356, score 999
  • Intel core i7 8700k euro 326, score 1230
  • AMD 2700X euro 267, score 1964
  • Intel XEON W-2150B euro 750, score 2350
  • Intel core i9 7900x euro 850, score 2355
  • AMD 1920X euro 440, score 2428
  • Intel core i9 7940X euro 1,100, score 2929
  • AMD 1950X euro 790, score 3334
  • Intel core i9 7980XE euro 2,100, score 3920


Ti esporto il file originale… magari in raw

In un mondo dove tutto viene definito “liquido” perché di moda, e non perché la musica, i video, i generi sessuali siano diventati dei fluidi semplici o newtoniani (questa battuta la possono capire in pochi, dovete essere geek o nerd like me, o amare TheBigBangTheory), ho pensato di scrivere due righe sulla superficialità moderna dei passaggi di dati.

Lo spunto di questo articolo nasce da una telefonata sfogo di un amico, che mi raccontava di come un cliente abbia pensato di scavalcarlo, usando una preview di WhatsApp facendola convertire in DCP per il cinema e asserendo che si vede bene, pur di risparmiare la spesa della conversione dal master non compresso… ora se il cliente non vede la differenza, mi spiace per il mio amico, ma sono contento che lo perda come cliente, perché non è in grado né di apprezzare il lavoro del mio amico, professionista da quasi un paio di decenni per il video, né comprende il valore di ciò che gli veniva offerto da questa persona (specialista nel colore e vincitore di un David di Donatello per la CC).

Per chi è del mestiere quello che ho scritto qui sopra fa venire i brividi, ma troppe persone, anche persone di un certo calibro, non sono in grado di percepire e distinguere la qualità, il lavoro che sta dietro a ciò che fruiscono, il concetto moderno è :”purché si veda” purché si senta”.

Un file video ha delle caratteristiche di risoluzione in pixel, di informazioni colore, numero di colori disponibili, uno spazio colore nel quale viene riprodotta l’immagine, un audio con caratteristiche specifiche di campionamento, dettaglio del suono, dinamica etc.

Ogni elaborazione può o non può conservare tali informazioni, se non trattate in modo adeguato ci sono dei decadimenti più o meno evidenti delle informazioni, ci sono perdite non apprezzabili dalla maggior parte delle persone, perdite relative a differenze di colore, di gamma dinamica, di sfumature sonore, mentre altri tipi di decadimenti sono più evidenti. La cosa impressionante è che nel tempo la sensibilità a determinati difetti è decaduta, in funzione dell’esposizione a immagini o musica di basso livello, mentre si è alzata la sensibilità a vecchi difetti dei nastri, che prima erano scontati e quindi ignorati dal cervello, mentre oggi sembrano difetti inaccettabili.

per alcune persone questa immagine da nastro con definizione scarsa con sfuocatura orizzontale è inaccettabile, ma sono abituati a vedere un altro tipo di immagini difettose da download illegale o streaming difettoso e non se ne lamentano. Tutto questo perchè il digitale terrestre, con la sua mancanza di una cache da 5cent comporta difetti, freeze frame e blocking assurdi, lo streaming e il download selvaggio hanno abituato le persone alla bassa qualità, quindi l’abitudine comporta una accettazione del livello qualitativo e l’incapacità di distinguere una buona immagine da una immagine di scarsa qualità.

Di recente sono usciti dei bellissimi Bluray4k da dare in pasto a splendidi televisori 4k, peccato che ad una veloce analisi su IMDB, il riferimento ufficiale del cinema, tutti questi film quando andava bene sono stati ripresi in 2,7k con Alexa, e masterizzati in 2K per il cinema, quindi dubito fortemente che abbiano rifatto i master, i compositing e i rendering 3d solo per dei bluray4k che nessuno sta comprando… e anche se avessero fatto un mastering per il 4k, la sorgente non lo era, ma tanto nessuno lo potrà notare… il perchè l’ho spiegato in un altro articolo, ma questo discorso per iniziare a riflettere su come tutto sia relativo.

Parliamo della musica? gli amanti del vinile e dell’audio assoluto… ma loro hanno idea di come siano stati creati quei vinili? se sono prodotti vintage ok, ma se sono prodotti moderni sono stati immessi in sistemi che hanno tagliato le frequenze registrando in digitale con un campionamento medio alto, tanto chi ascolterà questo materiale lo farà passare per amplificatori che rielaborano il segnale, riempiendo i buchi, oppure più banalmente la fonte sarà un mp3 scaricato da youtube, ascoltato poi con cuffiette su cellulare, e quindi…

Ironicamente è inaccettabile per molte persone sentire il fruscio di un vecchio nastro, ma va bene un file compresso in cui sono state massacrate le frequenze, in cui mancano completamente determinate parti del segnale, nel caso di strumenti musicali sembrano assenti certi strumenti perchè tagliati fuori dalla compressione.


the Best of Sharpness, l’acutezza, la nitidezza e tutto il resto… o forse no

Nippon Kogaku 35mm 2.0 su sensore 4k

Oggi con la fisima della nitidezza e della definizione inoculata dal marketing, se non abbiamo un telefono che riprende in 8k (per mostrarlo sul display magari neanche fullhd, compresso), se non facciamo riprese panoramiche da 12k (combo di Newyork girato con 3 red 8k), non abbiamo immagini definite.

Dall’altra parte abbiamo persone che fanno studi scientifici sulla capacità visiva dell’occhio e confrontando in modo diretto le immagini delle diverse camere dimostrano che a parità di pixel non è detto che abbiamo realmente immagini più definite, anzi in certi casi diventa il contrario, motivo per cui Arriflex con la sua Alexa, 2,7k e 3.4k in openGate spesso offre immagini più nitide di quelle catturate con cineprese digitali 8k.

Senza fare il pixel peeper, lasciando queste seghe mentali ad altre persone, visto che il mio obiettivo primario è la narrazione per immagini, vediamo di capire brevemente quali sono i fattori che permettono di esprimere al meglio la nitidezza e l’acutezza di una ripresa (indipendentemente da fattori umani).

fattore 1 : la lente

 

La lente può (condizionale) determinare la qualità dell’immagine perchè è il sistema con cui si cattura la luce, la focalizza e la proietta sul piano focale (pellicola o sensore). La qualità delle lenti oggi è abbastanza lineare, per cui la differenza può essere la luminosità della lente, ma usata nel modo corretto (vedi il fattore 2), una lente media offre una buona definizione senza dare grandi limitazioni sulla nitidezza, a patto che :

  • la lente sia pulita e non abbia elementi estranei sopra
  • che non ci sia luce laterale (non protetta da paraluce e mattebox) che abbatte il contrasto
  • che non ci siano filtri di bassa qualità che riducono la definizione iniziale della lente, spesso si usano filtri neutri di qualità non ottimale, che riducendo la luce la diffondono togliendo nitidezza all’immagine originale.
  • che sia correttamente calibrata per proiettare sul sensore l’immagine (alcune lenti soffrono di problemi di pre/back focus, ovvero l’immagine viene proiettata poco prima o poco dopo il piano focale, quindi per centesimi di mm di tolleranza l’immagine è più morbida perchè non allineata col piano focale
  • che la lente sia perfettamente allineata (in alcuni casi le lenti possono essere leggermente angolate rispetto al piano focale causando una perdita di definizione su uno dei lati in alto, o in basso, o a destra, o a sinistra.

In un precedente articolo avevo fatto una disanima tra diverse lenti, da lenti vintage a lenti medie, e una lente di fascia più alta senza riscontrare una differenza di nitidezza percepibile nell’uso comparato: stesso diaframma, stessa situazione, stesso sensore, stesso soggetto.

fattore 2 : il diaframma

Quando si gestisce la ripresa troppe persone dimenticano che le regole di fotografia valgono sempre, indipendentemente dalla qualità dell’attrezzatura. Molti oggi sanno che il diaframma gestisce la luce in ingresso definendo se farne entrare tanta o poca, e di conseguenza alterando anche la profondità di campo. Ho spiegato in modo più esteso in un altro articolo sull’esposizione questo discorso, ma in molti non sanno come cambiando il diaframma si possa entrare in un campo di alterazione della luce che genera la DIFFRAZIONE e come possa essere il limite della propria ripresa.

In breve cosa è la diffrazione?

Quando si chiude il diaframma di un valore maggiore di X il dettaglio di luce proiettato sul diaframma non si concentra ma si diffonde, per cui un punto chiaro su una superficie scura non è più nitido ma sfuocato. Tradotto in soldoni c’è troppa luce e chiudo il diaframma pensando di ridurla, ma man mano che chiudo il diaframma perdo nitidezza, quindi a diaframma 22 la stessa immagine sarà sfuocata rispetto a diaframma 11 come se avessimo applicato un filtro di diffusione o di blur.

Come si gestisce la diffrazione?

Dato che la diffrazione appare da un certo diaframma in poi si tratta di scoprire quale sia il diaframma limite della propria lente, in funzione del proprio sensore. Un semplice e comodo calcolatore di diffrazione lo potete trovare in questo interessante articolo sulle lenti e le loro caratteristiche.

Comunque per semplificare la vita a molti di noi, una semplice tabella per avere un riferimento, poi da lente a lente può esserci più tolleranza.
Risoluzione vs Dimensione

Risoluzione Sensore Sensore 4/3 Sensore s35 Sensore 24×36
FULL HD f/18 f/26 f/32
4k f/9.9 f/12 f/18
4.6k (UMP) f/11
5.7k (eva1) f/8.8
8k (Red Helium) f/9.4

Come si può notare non si parla di diaframmi particolarmente chiusi, se non alle basse risoluzioni, il che diventa particolarmente divertente notare come con l’aumentare della risoluzione si abbassa la possibilità di chiudere il diaframma, altrimenti si crea diffrazione, catturando una immagine progressivamente più sfuocata pur aumentando il numero di pixel catturati. Attenzione che per risoluzione si intende la risoluzione del sensore, non della cattura del filmato, perchè la dimensione dei fotodiodi o dell’elemento che cattura la luce influenza in modo diretto la nitidezza delle immagini.

Per questa ragione quando si lavora con le cineprese digitali il filtro neutro è un elemento fondamentale e indispensabile per preservare la nitidezza originale, e contrariamente a quello che credono molte persone, le dslr non sono così comode avendo un gran numero di pixel da cui ricavare un formato fhd, perchè se usiamo una fotocamera che registra in fhd ma il sensore è un 24mpx, quello è il limite da usare per scegliere il diaframma di ripresa e mantenere il massimo della nitidezza possibile, a questo proposito la mirrorless ottimale per il video è quella creata da sony nella serie A7s perchè pur usando un sensore fullframe ha una risoluzione di ripresa corrispondente all’output, ovvero 4k, e quindi meno sensibile alla diffrazione di una A7r che con 36 e 54 mpx tenderà ad avere il triplo e il quintuplo dei problemi.

fattore 3: il sensore

 

Il sensore, la sua tipologia, la sua risoluzione possono influenzare la nitidezza catturata, quindi ovviamente se il sensore è a misura della risoluzione di uscita il risultato sarà migliore. La maggior parte dei sensori sono strutturati da una matrice detta Bayer, nella quale si cattura un segnale monocromatico e poi filtrandolo si ricavano i colori, per cui abbiamo il verde che rappresenta la luminanza che possiede buona parte delle informazioni, mentre gli altri due colori sono ricavati ecatturati parzialmente, per cui si dice che comunque un sensore xK abbia una reale risoluzione di 2/3 dei K originali e poi venga fatto l’upsampling effettivo dei pixel. Il che tecnicamente è vero, ma non è un reale problema. Esistono sensori fatti come wafer dei tre sensori (uno per colore) che catturano separatamente le componenti colore RGB che spesso offrono immagini di ottima nitidezza. Esiste poi la scuola di pensiero del downsampling, ovvero catturiamo con un sensore di dimensioni maggiori, ad esempio 4.6k, 5,7k e poi da questo ricaviamo alla fine un segnale in 4k o 2k o fhd, in modo da sovracampionare le informazioni e avere una maggior precisione e dettaglio. La semplice prova di forza o applicazione muscolare degli X k non è fonte sicura di qualità o di dettaglio, inoltre con l’aumentare della risoluzione e non delle dimensioni del sensore incontriamo il problema della Diffrazione (come abbiamo visto prima), e il problema della sensibilità, perchè la stessa lente deve distribuire la stessa luce su un numero maggiore di fotorecettori, quindi ogni elemento riceve meno luce o con meno intensità.

A livello teorico maggior numero di pixel correttamente gestiti nella cattura può corrispondere ad un maggior numero di dettagli, a patto che utilizzi la risoluzione reale del sensore, cioè i pixel catturati siano esattamente la matrice del sensore.
Le eventuali elaborazione del segnale prima della registrazione (raw o sviluppata) possono inficiare la nitidezza del segnale. Esistono diversi tipi di amplificazione del segnale e durante quella fase (analogica o digitale) si può alterare la percezione di nitidezza.

fattore 4: la compressione

Una volta catturate le informazioni, queste devono essere in qualche modo registrate, e pur partendo da sensori con un’alta capacità di cattura di dettaglio, o d’informazioni (spesso 16bit lineari) poi la registrazione delle informazioni viene ridotta a 14-12bit raw o 10bit compressi con algoritmi varii che per ridurre il peso dei file andrà a alterare in modo più o meno significativo le nitidezza delle immagini. Ogni camera ha i suoi algoritmi di compressione, molti nelle cineprese si basano sul concetto della compressione wavelet, che sia raw o no, per impedire la formazione di blocchi di tipologia più “digitale” come la compressione mpeg che genera blocchi di dati a matrici quadrate, questo ottimo tipo di trasformata nel momento in cui si comprimono i dati tende man mano che si aumenta la compressione a rendere più morbido il filmato. Naturalmente quando si parla di morbidezza parliamo di finezze, non certo di avere immagini sfuocate. Molti Dop quando usano le camere Red scelgono di usare compressioni più o meno spinte in alternativa all’uso di alcuni filtri diffusori per rendere più piacevoli le immagini.

Quindi facendo una ripresa o una fotografia, non possiamo strizzare i dati in poco spazio e pretendere di avere il massimo delle informazioni, del dettaglio, della definizione. La scelta dei formati di compressione è molto importante e conoscere le differenze tra i diversi formati di compressione e le loro tecnologie applicate alle diverse camere è importante per poter gestire correttamente la qualità di partenza iniziale. Alcuni formati a compressione maggiore (h264/5) generano artefatti a blocchi, mentre le gestioni dei formati wavelet possono ridurre la nitidezza dell’immagine man mano che si aumenta la compressione, ma in modo molto leggero, tanto che molte compressioni wavelet vengono definite visually lossless

fattore 5: la lavorazione

Le lavorazioni dei file possono alterare la percezione della nitidezza se vengono create più generazioni dei file originali non utilizzando formati DI di qualità per lo scambio e l’esportazione dei materiali. L’applicazione di effetti o lavorazioni con sistemi non professionali può causare ricompressioni non volute, downscaling e downsampling colore che possono influenzare la nitidezza originale. Inoltre ci sono fasi molto delicate come il denoise che in certi casi può essere troppo forte o troppo aggressivo e come tale tende a mangiare non solo il rumore, ma anche il dettaglio fine.

fattore 6: il delivery

Un fattore poco conosciuto è la scalatura dinamica dei flussi video, soprattutto quando si guardano i film in streaming legale. Il file alla fonte ha una risoluzione e una compressione, ma durante la trasmissione se ci sono problemi di segnale, rallentamenti, problematiche varie il segnale viene istantaneamente scalato per impedire che il filmato vada a scatti o in qualche modo possa influire sulla visione generale, quindi da una scena all’altra potrebbero esserci delle variazioni consistenti della qualità e i sistemi di contrasto dinamico andrebbero ad amplificare ulteriormente i bassi dettagli. Se abbiamo un prodotto stabile e lineare come un bluray o un bluray 4k abbiamo la certezza che la qualità sarà sempre costante, mentre se usiamo una distribuzione differente delle perdite di qualità potrebbero essere causate dalla trasmissione variabile.

fattore 7: la fruizione

Un fattore che tanti sottovalutano, spesso causa del danno finale, sono i metodi di fruizione del materiale video. A partire dal dispositivo di visione, che spesso altera in modo più meno significativo l’immagine, vedi l’articolo sui televisori da telenovelas, al metodo di gestione delle informazioni. Quando vediamo una immagine non sappiano se il pannello è a misura per l’immagine che stiamo vedendo, il che può essere causa di alterazione di vario tipo, perchè dovrà essere scalata in realtime con diversi algoritmi più o meno efficienti nel mantenere il dettaglio o perderlo. Spesso abbiamo televisori 4k che mostrano materiale fhd (1/4 delle informazioni) o peggio sd (1/16 delle informazioni). Il danno però nasce dal fatto che tutti questi televisori applicano le funzioni di oversampling anche quando una immagine ha realmente la dimensione del pannello, quindi anche se apparentemente sembrano ancora più nitide, in realtà gli effetti dei vari algoritmi di sharpening tendono a creare nuovi “FINTI” dettagli che sovrascrivono e cancellano i dettagli originali.

Spesso ci sono tanti parametri attivati a nostra insaputa, o peggio abbiamo la difficoltà di disabilitarli, perchè solo in determinate combinazioni di visione sono modificabili. Ci sono prodotti di fascia alta che è possibile disabilitare le maschere di contrasto e i vari algoritmi di contrasto solo con i segnali in ingresso HDMI, non per i segnali interni o da stream internet interno… il che è può essere imbarazzante con i segnali 4k da Netflix che sono ottimi e non richiedono ulteriori process, anzi…

 


Il caldo il nostro nemico numero 1

Siamo all’inizio dell’estate e i telegiornali si riempono di consigli su come combattere il caldo e i problemi che causa al nostro corpo, ma spesso si sottovaluta l’azione del calore sulle varie apparecchiature che utilizziamo, faccio due chiacchiere sui problemi del caldo su cineprese, lenti, hard disk, computer etc…

Quando stiamo lavorando all’aperto è facile che siamo sotto il sole, o anche se siamo sotto una tenda per proteggere le attrezzature dal sole, la temperatura sarà alta, e il rischio che le attrezzature lavorino meno bene è alquanto alta. Cerchiamo di capire quali possono essere le problematiche che possiamo incontrare.

Molti video maker sottovalutano il surriscaldamento del sensore e gli effetti di tale situazione sulla qualità delle immagini.

Partiamo dal discorso più ovvio e banale, se la camera si surriscalda troppo tende a bloccarsi o spegnersi per evitare danni all’elettronica, come tale ci impedisce di lavorare o peggiorerà la qualità delle immagini. Più il sensore è sensibile come gamma dinamica e più la camera tenderà a generare calore, non a caso molto dslr fullframe si spengono dopo x minuti di utilizzo o bloccano la registrazione per evitare danni (e non solo per il limite burocratico dei 29 minuti 59 secondi altrimenti viene messa in categoria cinepresa). Diverse telecamere tendono ad avere problemi con il surriscaldamento generando artefatti nella compressione o banalmente più rumore video se si alza la sensibilità.

E’ noto che esistono delle modifiche per le fotocamere ad uso astronomico per raffreddare in modo sensibile il sensore e ridurre la quantità di rumore generata sia nelle lunghe esposizioni che nelle riprese ad alti iso. Esistono diversi studi per molte camere dove aumentando il sistema di raffreddamento il rumore originale tende a ridursi in modo molto sensibile, pur lavorando nella stessa identica condizione.

Una cinepresa digitale ha il suo sistema di raffreddamento e più si va in alto con la categoria (Arriflex e Red) hanno sistemi di stabilizzazione della temperatura del sensore per cui l’oscillazione possibile è di frazioni di un grado per offrire il meglio delle immagini. La prossima volta che faremo una ripresa con una qualunque camera (escluse le suddette fasce alte), potrebbe essere utile scoprire quale sia la sua miglior temperatura di utilizzo per capire meglio le diverse risposte di resa del dettaglio e cromatica.

Quindi quando si legge che una camera lavora da -20 a +45 gradi, questo non si significa che funzionerà al meglio, ma semplicemente che può funzionare in quelle condizioni.

Qualcuno potrebbe aver notato che non tutte le lenti sono con la cover nera, soprattutto le lenti più “ingombranti” esistono in “bianco”. D’estate, sotto il sole una lente completamente nera attira il calore, e il calore significa dilatazione termica degli elementi. Con la dilatazione delle lenti, dei meccanismi interni, delle ghiere etc possono bloccarsi o danneggiarsi. éer questa ragione alcuni produttori realizzano una versione chiara per ridurre il surriscaldamento delle suddette lenti. Indipendentemente dalla “vestizione” le lenti fanno parte di quegli oggetti che non devono surriscaldarsi, e se prendono meno sole possibile fa solo bene alla vita e alla durata di questi prodotti.

Anche avvitare dei semplici filtri, se la filettatura si è surriscaldata, può diventare un’impresa perchè bastano pochi decimi di mm di dilatazione per non far funzionare la filettatura. Sotto il sole i filtri neutri o i filtri neutri graduali sono indispensabili per poter fare una ripresa esposta correttamente, per cui è importante proteggere le lenti dalle alte temperature, alle volte basta poco, una maglietta bianca o un fazzoletto posto sulla lente mentre non la usiamo per controllare il surriscaldamento.

I supporti sono robusti, le card reggono temperature molto estreme, reggono, non significa che funzionano a temperature molto estreme… quando si sottopongono le card SD e CF a temperature molto calde c’è il rischio che la dilatazione termica possa creare falsi contatti o problemi di contatti mentre state facendo la ripresa della vostra vita.

Lo stesso discorso può essere applicato anche ai dischi nel momento in cui dovrete praticare il backup e la copia dei materiali sui dischi esterni.

Tutti i dischi meccanici si basano sulla scrittura magnetica con puntine che stanno in prossimità della superficie del disco. Se sopponiamo un disco a temperature più alte, possiamo avere più punti deboli della catena di trasmissione e registrazione dei dati:

  • il disco magnetico se dilatato dall’alta temperatura potrebbe scrivere i dati con una leggera sfasatura di posizione rispetto alle indicazioni date dal firmware del disco, e quindi essere non leggibile in rilettura a temperatura di normale esercizio.
  • il surriscaldamento del meccanismo di spostamento dei bracci può creare degli scontri tra i bracci e gli elementi intorno a se (un vecchio modello wd che conservo come esempio di pessima progettazione…)
  • il surriscaldamento dei chipset di controllo del disco può corrompere i dati in scrittura, per cui è sempre importante fare copie dei dati con un software di verifica MD, in modo che durante la copia il software ricontrolla i dati scritti (se non avete o non sapete quale software scegliere, la versione free di DavinciResolve ha questa funzione sotto mac, win e linux).
  • Il box / la docking station del disco stesso surriscaldandosi potrebbe dare problemi di riconoscimento / lettura scrittura dei dati ad alte temperature. Ho usato diversi box per dischi, dischi di ogni tipo dai lacie a semplici maxtor, wd, fino a prodotti più professionali come G-Drive, ma le alte temperature possono mettere in difficoltà praticamente tutti questi prodotti sul set. Ho sperimentato dal docking station che ad alte temperature funziona con un connettore e non con un altro (usb 3.0 no thunderbolt), oppure che a surriscaldamento i dischi non vengono più riconosciuti dal raid, appena si raffreddano il sistema torna a funzionare. Il che potrebbe anche essere urtante per un sistema da quasi 2000 euro di dischi, ma gli ingegneri hanno pensato come mettere quasi cento tera dentro il box ma non un sistema di raffreddamento per gestire il surriscaldamento generato da tutti quei dischi fatti funzionare insieme al massimo della velocità.

Non dimentichiamo poi il nostro computer, ha due elementi che non solo generano calore, la CPU e la GPU, ma sono sensibili all’aumento della temperatura, raggiungendo determinati limiti il processore può ridurre le sue prestazioni, la scheda video si disabilita, oppure si arriva allo spegnimento completo del computer, impedendo il backup che stavamo facendo.

Tutto questo senza contare che il caldo darà problemi alla nostra salute, alza la pressione, ci disidrata, ogni oggetto diventa caldo da tenere in mano, e ci abbronziamo… a luglio 2017 durante una giornata di riprese sotto il sole ho cambiato letteralmente colore, oltre al fattore rischio ustioni c’erano ben altre problematiche legate alla salute fisica, quindi facciamo attenzione all’attrezzatura, ma attenzione prima di tutto alla propria salute.


Page 1 of 10

Powered by WordPress & Theme by Anders Norén

Translate »