Carlo Macchiavello

Tutto è possibile

Month: novembre 2015

Un pezzo della mia storia sulla qualità visiva.

Abbiamo abbastanza qualità per i nostri progetti?

Dopo aver cambiato tanti mezzi di ripresa sono approdato ad un prodotto che mi permetterà per qualche anno di lavorare tranquillo, anche ad alto livello. La cosa curiosa è proprio che mentre mi sono stabilizzato con questo mezzo, ho letto tutta una serie di articoli relativi ai vari camera’s peeper che nell’attesa della fantomatica nuova macchina, deprecano cosa possono avere per le mani, prodotti ottimi per raccontare una storia.

Esiste un termine in inglese coniato da Stu, Next camera disorder, che rappresenta bene il concetto : non posso lavorare con il mio attuale strumento, perchè quello che sta per uscire è meglio… non devo sprecare tempo ora con la mia camera/reflex/cinepresa, perchè otterrei risultati di qualità non sufficiente.

videoDifettiOggigiorno sembra che la prossima camera che si comprerà sarà sempre migliore, più risoluta [8k], più sensibile [Sony A7 series], Modulare quindi sarà la definitiva [Axiom], più professionale [cinepresa XXX scegliete voi], quindi si procrastina con la storia…

Ammetto che comprendo la perplessità di alcune persone, di fronte a mille offerte e ad un mercato in continua evoluzione, ma non comprendo la pigrizia… Si vogliono macchine sempre più automatiche e perfette, dove fanno tutto loro, e che costino poco poco, ma allora dove sta l’arte e l’abilità nell’usarle se fanno tutte le cineprese/telecamere/macchine fotografiche?
Non a caso si vedono un sacco di immagini patinate, tutte molto simili, con lo stesso movimento di slider, con gli stessi filtri di post, le stesse lut… le fanno le macchine, [mod provocazione On] quindi i creatori diventano intercambiabili e si possono pagare anche poco, tanto uno vale l’altro [mod provocazione Off].

Senza diventare noiosi, la prima camera che ho usato nel 1990 (si comincio ad essere un master) era una vhs spallare, e la risoluzione effettiva era di circa 200 linee, quindi se avessimo acquisito il materiale digitalmente al max della qualità l’effettiva risoluzione (interlacciata) è circa 320×200 pixel, poi l’acquisizione da vhs decente con tbc si può fare in pal, ma non vedreste nessuna differenza di qualità e nitidezza. Il montaggio si eseguiva facendo almeno un paio di copie [degrado analogico forte] durante il montaggio, e quello diventava il master, che poi veniva duplicato per mandarlo ai rari festival che accettavano vhs 25 anni fà… Eppure la gente con il vhs e 8mm (nastro digitale) girava comunque cortometraggi.

un esempio molto interessante è questo cortometraggio che ha lanciato Robert Rodriguez, e che gli ha permesso di essere conosciuto da molte persone, compreso Quentin Tarantino che vide la brutta copia della copia della copia di questo VHS.

Poi passai con un grande salto ad una MiniDv, dove la risoluzione era realmente 720×576 pixel, molto sporchi [sensibilità intorno ai 800 iso tirata max] e contrastati, e interlacciati. Ma comunque questo non ha impedito la realizzazione di storie, da li poi un salto all’HDV progressivo 1440×1080, e il full HD con le tre ccd e poi le mirrorless panasonic. Butto li qualche cifra di pixel pur sapendo che sono termini relativi, nel mio articolo relativo alle risoluzioni ho fatto una disamina più precisa su quale sia la differenza tra la risoluzione apparente e reale, e come il numero di pixel non sia il reale indicatore di qualità di un prodotto.

Con le mirrorless ho ritrovato il piacere di usare obiettivi a fuoco manuale, il controllo manuale e reale dei diaframmi della camera, lavorare con ottiche fisse, ho usato telecamere che avevano solo metà dei diaframmi dichiarati, mentre oltre una certa cifra i diaframmi erano emulati dall’uso di un filtro neutro che toglieva luce, non cambiando la profondità di campo (e spesso introduceva una dominante verde… mannaggia ai progettisti daltonici).

Oggi sono su una macchina che produce dal fullHD registrato con prores Proxy alla qualità più scarsa fino al 4k raw quando si ha bisogno del massimo della qualità e della flessibilità in post produzione, il tutto con qualche vincolo, perchè nascendo come cinema camera nasce è stata pensata per usi di un certo tipo, per persone che sanno come riprendere e postprodurre il materiale in un certo modo, ma è esattamente quello che cercavo, perchè mi offre il controllo che volevo e una qualità di gran lunga oltre quello che mi serve oggi (con la precedente camera ci hanno girato inquadrature di Madmax, diciamo che con questa si può anche fare di più).

Ognuno di noi ha una sua idea della qualità, poi però la pubblicità, le immagini luccicanti delle pubblicità ci possono far cambiare idea.. forse… o forse sono pensate per farci pensare che non abbiamo abbastanza.. una delle basi della cultura moderna del marketing, far credere di non aver abbastanza per far comprare il superfluo, sempre. Ho scritto una riflessione sul 4k oggi, proprio in funzione dell’inutilità di avere il 4k in tv, sui cellulari e sulle camerine amatoriali.

I miti della qualità

ora stacchiamoci dai sentimentalismi e cerchiamo di capire cos’è realmente la qualità, reale o percepita. quando si osserva una immagine noi percepiamo prima la luminosità e poi il colore, tramite la luminosità percepiamo il dettaglio, la profondità e le distanze tra gli elementi, poi il colore ci fornisce informazioni aggiuntive sugli elementi; questo principio non è digitale, ma analogico, perchè sono così che funzionano gli occhi dell’essere umano, coni per il colore e bastoncelli per catturare la luce, questi ultimi essendo più numerosi e attivi per catturare luce e movimento forniscono il vantaggio.

quindi analizzando una immagine in movimento cosa possiamo indicare come qualità?

  • la risoluzione dei dettagli fini, quindi poter vedere ogni elemento possibile.
  • la capacità di fornire dettagli e informazioni sia in ombra che in luce, come fa l’occhio umano che ha una gamma dinamica molto ampia
  • dei colori percebili NON troppo accesi, perchè se troppo accesi alterano la percezione delle sfumature, e comunque l’occhio umano percependo prima la luminosità e poi il colore, in una immagine troppo satura percepirebbe meno dettaglio, quindi la ritiene meno ricca.
  • riproduzione corretta del movimento veloce, quindi non troppo nitido altrimenti diventa stroboscopico, non troppo mosso, altrimenti diventa illeggibile.

beh in teoria questi sono elementi oggettivi per determinare la qualità, ma basta andare in un centro commerciale e vedere come le persone percepiscano come migliore quello che è l’esasperazione di questi elementi, colori accesi tanto da perdere tonalità perchè vanno in solarizzazione, contrasti e maschere di contrasto esasperati per mostrare una “incisione” di dettaglio che non esiste, ma creando una specie di finto basso rilievo danno l’illusione di tale elemento visto da lontano, funzioni infernali che tolgo e aggiungono la sfuocatura di movimento in funzione della follia dell’ingegnere che ha progettato quei circuiti, convinto che il “SUO” gusto visivo sia quello da imporre al resto del mondo, sicuramente nel 90% non disabilitabile, e così via… tanto da trasformare le immagini cinematografiche in specie di telenovelas brasiliane anni 90…

10 tacche di colorequalche dubbio? bene guardate bene questa PNG, dove ci sono tacche a stacchi di 10 toni tra un colore e l’altro e tra una luminosità e l’altra, a seconda del vostro monitor e della calibrazione applicata, appena voi andate a toccare la saturazione perdete i primi toni da sinistra, ovvero dal 30 al 40% delle sfumature colore della vostra immagine.

Stessa cosa vale per la luminosità dove le parti più scure vanno a perdersi.
Poi ci sono quelli che dicono, si va beh quando visualizzo una tabella di colori, di solito ho immagini ricche di colore…

osservate questa immagine, alzando la saturazione perdiamo due cose fondamentali, il dettaglio tra i pistilli, perchè tutte le sfumature minime diventano uguali e quindi si appiattiscono, e il colore vero, perchè in origine il fiore è tra il rosso e il lilla, ma alzando la saturazione, il blu è già al massimo, quindi alzandosi il rosso si perde l’equilibrio originale, trasformando un colore in un altro.
A dimostrazione che sbagliano quelli che dicono che alzando la saturazione, avendo colori più brillanti otteniamo colori più naturali, dato che accade esattamente il contrario.

saturazione

 

FpS oggi, che scelgo?

Nel mondo del video e del cinema esistono degli Standard, con la S maiuscola, nati su ragionamenti e necessità tecniche ben precise, ma naturalmente ci sono tutte le varianti che nascono per banali ragioni economiche, che comportano problemi e mal di testa a non finire per chi deve utilizzare le attrezzature video e cinema adattandonsi alle “varianti di standard”…

Partiamo dalle basi, quali sono i Frame Rate corretti?

Il cinema nasce più di cento anni fà e superata la fase a manovella, in cui la velocità di ripresa e proiezione era in funzione di chi girava manualmente una ruota, si è stabilizzato sulla velocità di 24 fotogrammi al secondo. Questo valore è nato dalla necessità di trovare il giusto medio tra percepire fluidamente una immagine, e non consumare troppa pellicola (oggi troppi giga) nel riprende, e nel gestire poi il prodotto finale.

24 fotogrammi al secondo proiettati con un proiettore con otturatore (dopo capiremo il perchè di questa puntualizzazione), sono sufficienti per fornire informazioni al cervello umano del movimento continuo, se catturati correttamente.

Quando naque la televisione di doveva trovare un sistema per riprodurre le immagini, utilizzando un “pennello eletronico” che disegnava riga per riga le immagini; si trovò un sistema sufficientemente dettagliato e corretto con la scansione interlacciata. I primi esperimenti di trasmissione di immagine per scansione risalgono ad Alexander Bain tra il 1843 e il 1846 (si parliamo del 1800…), mentre la prima immagine live si deve a Georges Rignoux e A. Fournier a Parigi nel 1909.

200px-John_Logie_Baird,_1st_Image25 Marzo 1925, John Logie Baird fece la prima dimostrazione pubblica di trasmissione di  silhouette in movimento nel departimento di  Selfridge. a Londra.

Per l’epoca la performance del ventriloquo e attore Stooky Bill che parlava e si muoveva fu un passo storico per la trasmissione delle immagini.

Ora facciamo un salto in avanti fino all’origine delle attuali tecniche di creazione dell’immagine, ovvero al 1941 per il segnale in formato americano a 525 linee e il 1944 per il segnale in formato Europeo a 625 linee in Unione Sovietica.

video_modes_progressive_examplePer ottimizzare la banda di trasmissione delle immagini, la televisione nasce con una modalità chiamata interlacciata, ovvero quando vengono catturate le immagini ogni fotogramma viene catturato in due tempi diversi, ovvero per ogni fotogramma prima si catturano solo le linee pari dell’immagine, poi nell’istante successivo si catturano le dispari, poi le pari del fotogramma successivo, e così via.InterlaceScanTV

Questo fa si che i fotogrammi effettivamente si fondono insieme dando una illusione di maggior fluidità, ma in pratica si ottimizza il flusso dati perchvideo_modes_interlaced_exampleè tranne il primo frame, che è fatto di due semiquadri completi, in pratica, i successivi essendo composti dai semiquadri uno ereditato dal precedente, e uno dell’attuale, si cattura e si trasmettono metà delle informazioni dei fotogrammi.

Per disegnare correttamente queste informazioni si deve sincronizzare le diverse attrezzature di ripresa e trasmissione e dato che non esistevano all’epoca dei sistemi di condivisione di certi tipi di dati ad alta velocità si fece la scelta di usare la frequenza della corrente elettrica; per questo motivo sono nati i due standard televisivi con le seguenti caratteristiche :

Pal per Europa, Australia e paesi con corrente a 50 hrz.
Ntsc per America e Giappone con corretne a 60 Hrz.

Queste due diverse scansioni ha fatto si che i due standard trasmettano in due modi diversi :
Pal 50 hrz = 25 fotogrammi interlacciati (50 semiquadri) a 625 linee
Ntsc 60 hrz = 30 fotogrammi interlacciati (60 semiquadri a 525 linee).

Il Pal parte con le Linee Pari (Lower), e l’NTSC parte con le linee Dispari (Upper). Quindi sono due standard molto diversi.

Anche passando all’Alta definizione, si sono mantenute le caratteristiche originali di frequenza di fotogrammi, di ordine dei campi invertito, pur uniformando almeno il numero di linee verticali e orizzontali a 720 e 1080i.

Il numero di fotogrammi è rimasto invariato anche oggi con il digitale perchè anche se non esiste più un pennello elettronico per disegnare le immagini, i televisori hanno comunque degli schermi / pannelli che ridisegnano/aggiornano i fotogrammi con la stessa frequenza, legata alla corrente elettrica perchè lo standard NON PUO’ cambiare, dato che per legge la televisione pubblica (e quindi anche quella privata) deve essere fruita e vista correttamente da chiunque sul territorio italiano, anche con vecchi apparecchi di 50 anni fà. Ed essendo troppo costoso fare una doppia trasmissione di segnale (antico e moderno) siamo ancora legati ad un concetto antiquato di quasi cento anni fà…

Come fare le riprese?

in tutti i modi, compatibili per quello che sarà l’output.

In sintesi :
24 fotogrammi progressivi = cinema
25 fotogrammi interlacciati = Televisione Europa e Asia
30 fotogrammi interlacciati = Televisione America e Giappone

Se mescoliamo qualcosa, vedremo o da una parte o dall’altre dei difetti :

  • frame rate differente tra ripresa e riproduzione = saltini sul video
  • uso di interlacciatura diversa (upper invece di lower) = immagini che sembrano andare avanti e indietro
  • visione di materiale su dispositivo sbagliato = X

perchè all’ultima voce di elenco ho scritto X?

La maggior parte dei televisori Europei supportano la riproduzione (non la ricezione) anche di segnali NTSC a 30 fotogrammi, quindi potremmo anche vedere del materiale realizzato nel modo non Standard per la nostra area geografica, quindi il fatto che vediamo correttamente un dvd o un file non significa che sia standard. Per un periodo è esistito anche uno standard chiamato Pal60, ovvero codifica colore del Pal, ma la frequenza dell’NTSC.

Molti televisori hanno software di lettura e interpretazione delle immagini in movimento che compensano i difetti e gli errori di riproduzione dei filmati quindi potrebbero (condizionale) aver corretto alcune differenze tra standard in modo invisibile.

Quindi se vedo una cosa sbagliata sul computer e giusta sulla Tv è la tv che mi corregge il tutto, e il mio file è sbagliato?

Non è detto. Bisogna sempre considerare che noi utenti pal siamo sfigati, ovvero viviamo in un mondo video pal, 50 hrz, con video a 50hrz, ma vediamo su telefoni, tablet, monitor da computer a 60hrz, quindi vedere un filmato in riproduzione a 25 fotogrammi al secondo su questi dispositivi sarà sempre con interpretazioen dei frame e potremmo vedere dei difetti di movimento che non sono presenti realmente nel filmato, ma creati dal player dei filmati…

Quindi se monto al computer come faccio a giudicare?

la risposta è semplice, come ogni montatore serio, l’unico modo per avere una risposta affidabile è vedere su un monitor VIDEO l’uscita del segnale, così che possiamo avere una risposta affidabile su un monitor Video che gira a 50 hrz, altrimenti ogni possibile errore di movimento può essere causato non dal filmato, ma dall’errato adattamento dei 25 fotogrammi al secondo con la scansione a 60 hrz del monitor.

Ma quando riprendo a X fotogrammi al secondo l’otturazione come deve cambiare ?

l’otturazione corretta è N fotogrammi al secondo x2.
Questo valore è nato da 100 anni di esperienza cinematografica dove si è compreso come una otturazione doppia rispetto alla velocità dei fotogrammi è il corretto valore per ottenere la scia di movimento (motion blur) sufficiente per dare l’illusione di continuità di movimento.
Un valore superiore crea un effetto stroboscopico, perchè annulla la sfuocatura di movimento, mentre un valore inferiore crea una sfuocatura di movimento troppo forte e quindi diventa tutta l’immagine troppo mossa.

Perchè allora posso cambiare l’otturazione nelle telecamere e nelle cineprese se devo usare questo valore fisso?

Nell’uso normale delle riprese, per una percezione corretta del movimento vige al regola del FpS x2, ma quando si devono fare effetti particolari, come fare i rallenty in postproduzione, si alza l’otturazione perchè altrimenti non è possibile ottenere determinati effetti o rese in postproduzione.
In casi particolari di riprese notturne con camera fissa, oppure in cui si ha bisogno di gestire movimenti molto veloci, si tende a scendere con l’otturatore, per sfuocare maggiormente e mantenere la fluidità di movimento pur veloce.

L’unica cosa a cui stare attenti sono le luci…. quando si lavora in un ambiente con corrente a frequenza X, le luci, i neon, i pannelli a led etc tendono a lavorare con la stessa frequenza, per cui se uso una frequenza diversa tra otturatore e corrente potrebbe apparire un fenomeno detto Flickering.

Ad esempio se giro in un ambiente 50 hz a 24p (tipico del cinema) c’è il rischio che si creino delle onde in ripresa, stessa cosa se giro a 30 in ambiente 50hz, per cui le diverse cineprese digitali hanno otturazioni speciali per quelle situazioni, mentre le dlsr e le telecamere più amatoriali non li hanno e quindi il risultato è un difetto visivo difficilmente eliminabile.

Se riprendo solo per il web cosa devo scegliere?

il web, lo streaming direttamente sui vari dispositivi lavora tutto con frequenza a 60hrz, quindi in quel caso si rompe la regola del pal e si gira a 30 fotogrammi al secondo PROGRESSIVI, perchè tutti questi dispositivi visualizzano i fotogrammi interi e non divisi per semiquadri e in questo particolare caso è FONDAMENTALE rispettare la regola del fps x 2, perchè ogni tipo di movimento troppo veloce se l’otturatore è più alto sarà scattoso e poco piacevole da vedere. Unica eccezione è relativa alle luci artificiali.

Non premere rec finchè…

pergamena con elencoIn un mondo dove tutto va in velocità altissime è bene in certi momenti fare un salto a piè pari e fermarsi per controllare alcune cose, che dopo saranno un sacco di problemi, anche se spesso non ci si pensa.

In un mondo perfetto c’è un direttore di fotografia, un mondo di persone attente a tutto quello che succede, nel mondo normale, no, e se anche ci sono in mezzo a quel casino si possono commettere degli errori, anche pesanti.

Ho pensato che condividere l’elenco dei passi da controllare può essere utile a tante persone per cui…

Prima di premere rec è utile una specie di rito per essere tranquilli che poi si può correre senza troppi dubbi.

Carletto’s List
  1. tutti i dadi sono stretti?
    in un rig classico sono tanti i dadi (manopole) che si stringono ma si possono allentare, magari ripresa dopo ripresa, e rischiare di veder cadere parte dell’attrezzatura è una gran brutta esperienza
  2. i cavi sono connessi bene e legati col velcro?
    un cavo che si stacca, che balla facendo rumore e/o difetti, che slegandosi fa inciampare o impedisce un movimento è una gran brutta cosa.
  3. i parametri di ripresa sono corretti?
    FPS, Shutter, formato di ripresa, Iso, diaframma
  4. Le lenti e il sensore sono puliti?
    un puntino di polvere sul sensore diventa un’ombra scura a diaframmi più chiusi, su una lente con la luce contro diventa un punto chiaro, che da correggere in post diventano un costo non trascurabile
  5. La batteria è carica?
    Tra varie riprese, magari basse temperature, il rischio che proprio durante una ripresa la batteria ci abbandoni esiste, ed è meglio evitare di perdere il più bel ciak della nostra vita.
  6. C’è abbastanza spazio di registrazione sul supporto?
    come per la batteria, dopo un po’ di riprese verificate sempre di avere spazio operativo.
  7. L’audio è a posto ? Microfoni, connessioni, cavi relativi, DeadCat se serve? Abbiamo sentito in passante il segnale audio per essere sicuri che non ci siano ritorni o difetti di qualche tipo?
    a posteriori rifare l’audio o correggerlo è un costo molto alto rispetto a fare una prova prima.
  8. Abbiamo controllato l’inquadratura bene?
    Se ci sono elementi che spuntano da dietro gli attori che disturbano, se ci sono oggetti fuori luogo da cancellare in post, ombre di persone del set, riflessi strani che non dovrebbero esserci, negli oggetti riflettenti per caso si vede troupe o attrezzature?
    Quel tipo di post per cancellare o aggiustare le immagini ha un costo di tempo e denaro non trascurabile, per cui è importante evitarla ove possibile
  9. i cellulari sono spenti?
    anche se silenziati molti smartphone creano disturbi nei radiomicrofoni e/o in camera, magari può sembrare eccessivo, ma ho visto troppi ciak buttati per uno squillo di troppo… soprattutto dalle notifiche di facebook.

so che possono essere magari suggerimenti banali, ma avendo dovuto risolvere clip girate alle velocità sbagliate, con troppo rumore perchè l’operatore non guardava le impostazioni della camera e pur avendo luce ha alzato gli iso perchè non ha notato il diaframma troppo chiuso per riprese precedenti, o shot in cui ho dovuto ricreare il motion blur naturale perchè invece di chiudere il diaframma o mettere un filtro ND ha alzato lo shutter, senza vedere che lo ha alzato veramente troppo.

insomma, se faccio il danno mea culpa, ma se lo faccio perchè non sono stato attento…

e succede quindi fate una veloce check list di cosa controllare e risparmierete tanto tempo dopo in edit e post

Powered by WordPress & Theme by Anders Norén