Carlo Macchiavello

Tutto è possibile

Che mi serve per…. Iniziare a fare riprese?



Una domanda che capita spesso nei forum, e non solo … Cosa mi serve per cominciare, e cosa devo comprare? Difficile dare una sola risposta.

Diciamo che si può pensare di partire dal basso, e poi man mano che si lavora, che si hanno più possibilità economiche e/o esperienza nell’usare i prodotti, si può cambiare la propria attrezzatura, o fare un “upgrade”. Da buon genovese sono dell’idea che sia buona pratica investire sul lungo termine, per cui ci sono spese che nel tempo anche se più alte di altre, durano, per cui alcuni prodotti come le lenti me le porto dietro da anni, perché se trattate bene … beh ho lenti più vecchie di me… direi che con questo si può già fare un discorso serio sulla durata di alcuni componenti dell’attrezzatura.

Scegliere le componenti del proprio kit di lavoro è difficile e spesso ci si può far abbagliare da mille e più attrezzi e strumenti di lavoro, quindi diventa importante scegliere nel modo corretto gli strumenti in funzione anche del tipo di lavoro che si fa, ad esempio se normalmente si è un one man band, comprare mille attrezzature che fisicamente non si possono trasportare con noi, è poco utile nella prima fase, oppure se lavoriamo prettamente in Run&Gun avere 10 lenti è meno utile di avere uno zoom di buon livello.

L’idea di questo post è quella di buttar giù due righe su un kit base per una camera media (la black magic production camera 4K) che ha una serie di necessità molto simili a quelle di una video reflex, quindi diventa abbastanza flessibile per aiutare anche chi scegliendo una reflex deve fare delle scelte pratico economiche.

Per ogni Kit sotto l’elenco spiego il perchè della scelta di quei componenti, in modo che ognuno possa trarre le proprie conclusioni e quindi creare il proprio setup in funzione delle proprie necessità.

Kit 101 base o l’indispensabile
  1. Camera (BlackMagic Production Camera 4K  o fotocamera)
  2. Lente 18-55 55-250 Canon (kit di due lenti tutto fare)
  3. Filtro ND variabile + Cokin sfumati
  4. Batteria semplice
  5. Cavalletto base
  6. Microfono rec tipo zoom o tascam base
  7. Monitor hdmi / convertitore sdi hdmi
  8. Ssd + lettore portatile, SD/CF + lettore portatile
  9. Panno microfibra per lenti
Il primo kit  è la base con cui siamo sicuri di poter compiere un lavoro, senza spendere follie, ma senza rischiare di essere in difficoltà.
1) Sulla scelta della camera non mi esprimo, ognuno ha le proprie preferenze e fa le proprie scelte.
2) suggerisco il classico kit dei due zoom economici, ma efficienti, che coprono da 18 a 250 mm con diaframmi variabili stabilizzati, qualitativamente sono sufficientemente nitidi per supportare anche il 4k, e possedendo lo stabilizzatore sono una ottima coppia di lenti per il video. Ho indicato il marchio per il semplice fatto che la BMD offre maggior supporto e compatibilità per controllo diaframmi, stabilizatore alle lenti Canon che alle compatibili. In realtà il mio unico interesse è relativo allo stabilizzatore delle lenti, perchè il fuoco in video si fa prevalentemente a mano, per controllare meglio la resa.
Personalmente a livello di gusto preferisco le focali fisse luminose, ma per una questione di praticità / costo / startup avere un paio di zoom ci permette di partire coprendo le diverse focali senza fare una spesa folle. Per una disamina maggiore fate riferimento al post relativo alla scelta delle lenti e dell’acquisto delle lenti.
3) Filtri ND variabile è fondamentale per controllare quando la luce è troppa forte, anche se molti tendono a sottovalutare questo fattore, è molto importante per non avere problemi di velocità di shutter, che crea immagini stroboscopiche.
4) Ogni camera tende a consumare molta corrente durante le riprese, per cui si deve usare una batteria esterna o batterie aggiuntive, spesso un semplice powerbank con il voltaggio giusto può essere una soluzione economica ed efficace, o nel caso di una reflex un battery pack. Alcune camere come le blackmagic Cinema Camera RICHIEDONO la batteria esterna, quella interna è solo come batteria tampone di passaggio tra una batteria esterna e l’altra, solo con la batteria interna, per risparmiare nei consumi non attivano lo stabilizzatore delle lenti.
5) Senza doversi svenare è importante fare una buona scelta per il cavalletto, perchè la stabilità delle riprese dipende dalle gambe del cavalletto, la fluidità delle panoramiche e dei movimenti dipendono dalla morbidezza della testa fluida.
Un buon cavalletto deve avere come caratteristiche di base la cosidetta testa fluida o testa video, pensata per movimenti fluidi, altrimenti non potremo muoverci in modo corretto, e una capacità di carico proporzionale ad almeno il doppio della nostra attrezzatura, altrimenti se portato al limite non sarà mai fluido o comodo nei movimenti.
In alcuni casi è comodo scegliere separatamente gambe e testa, perchè si possono trovare occasioni più interessanti e allo stesso tempo più economiche che il prodotto completo.
6) nella maggior parte dei casi le camere / fotocamere non hanno un buon reparto microfonico, quindi è importante aggiungere un microfono e spesso un recorder al set. Per partire l’investimento potrebbe essere la coppia dei due, ad esempio uno Zoom H1 o un tascam DR-05V2 su budget di un centinaio di euro offrono registratore e microfono di buona qualità, entrambi hanno la filettatura per poterli montare o sulla camera o su cavalletto o su asta microfonica per prendere più da vicino l’audio e quindi avere una resa migliore.
7) la maggior parte delle camere non hanno un buon monitor / efv per poter giudicare il fuoco, ma sono solo dei sistemi di controllo dei parametri, quindi può essere necessario investire su un monitor che ci aiuti a giudicare il fuoco.
In un primo step diventa utile avere un monitor HDMI per poter gestire la messa a fuoco, se si lavora con diaframmi più chiusi potrebbe non essere indispensabile, ma il prodotto nel tempo diventa molto utile. Oggi ci sono diverse soluzioni, addirittura dei monitor che nascono per espandere i monitor dei portatili e si alimentano via Usb a 5v, quindi con un power banc completamente portatili e anche di grandi dimensioni, dare un suggerimento è difficile perchè sul mercato ce ne sono diversi e a prezzi variabili da un paio di centinaia di euro in su. Personalmente ho imparato che risparmiare su questo prodotto significa avere monitor non risoluti, quindi inutili per il fuoco, quindi tanto vale usare il monitor della camera, ben protetto. Meglio se non si ha un grande budget cercare nell’usato o un Atomos ninja o un Blackmagic Video assist che almeno offrono un fullHD, altrimenti se si lavora con monitor grande, ma la risoluzione reale è 480p è inutile allo scopo del fuoco. In questo ambito il costo deriva da due caratteristiche : tipo di ingressi, per cui se abbiamo un monitor con ingresso SDI tutto costerà molto di più; risoluzione reale del monitor, che essendo un pannello più costoso avrà un innalzamento di costo. Il fattore recorder, che alcuni lo sono, non sempre innalza il costo in modo significativo.
8) Il supporto su cui scrivere (ssd per la blackmagic, SD o CF per molte altre camere e uno strumento per leggere tali supporti. In generale è fondamentale avere un supporto di alta qualità perchè quando si lavora tutto il lavoro se non è su un supporto serio e professionale, si rischia di perdere tutto per aver risparmiato pochi euro su un supporto di scarsa qualità. Non fidatevi delle specifiche ma testate sempre i supporti con la vostra camera, formattate direttamente in camera e non con il computer e testate registrando sequenze molto lunghe in modo da essere tranquilli sulla registrazione.
Un buon lettore è utile per ottimizzare tempi e avere la certezza che nella copia non si perdano dati durante la copia perchè molti non sanno che ci sono rischi nel corrompere i dati durante la copia, quindi usare prodotti di qualità è importante.
9) un prodotto semplice, banale, ma che molti dimenticano, un panno in microfibra per la pulizia delle lenti, ne esistono di specifici, e catturando la polvere evitano di graffiare le lenti quando si puliscono da polvere o altro. Togliere la polvere è un attimo prima di riprendere mentre dopo…

Riflessioni pre acquisti

Volendo ottimizzare gli investimenti nel tempo, ci sono delle scelte da fare quando si fanno gli acquisti, ci sono delle scelte che richiedono un poco di investimento in più inizialmente, ma poi si possono riutilizzare nel tempo.

Filtri : durante l’acquisto di un filtro o più filtri c’è da fare più di una valutazione, se si vuole un buon filtro si deve spendere, perchè la qualità si paga; una buona abitudine è quella di scegliere un filtro per la dimensione maggiore delle lenti possedute o che si vuol possedere, e poi usare degli anelli riduttori, in modo che invece di prendere 3-4 filtri di media qualità, se ne prende uno di ottima qualità e poi con gli anelli riduttori lo si adatta a tutte le lenti.

Filtri a lastra : una soluzione economica per adattare più lenti allo stesso filtro è quello di usare dei filtri a lastra, in modo che spostando il portafiltri si usa lo stesso filtro su più lenti differenti.

Cosa scegliere per fare video tra telecamera e macchina fotografica?

Telecamera o macchina fotografica per il video?

Questa domanda nasce spesso, dare una risposta non è semplice, perché si tratta di due prodotti completamente diversi, ognuno con vantaggi e svantaggi, per cui è importante capire perché scegliere uno o l’altro.

Dal 2008 è nata la moda delle video dslr, ovvero usare le macchine fotografiche come telecamere, per la loro gamma dinamica più ampia, lenti intercambiabili, hanno sensori più grandi così si può sfocare più facilmente…

insomma la manna dal cielo, se non fosse che…
Le dslr non sono MAI delle telecamere, per cui ci sono dei dettagli che a molti sfuggono, ma si devono tener conto nel caso di un eventuale acquisto.

Zacuto setupMolti possono pensare ai problemi di grip, di come maneggiarle, dell’audio, della qualità di registrazione ridotta, ma quelli sono solo dettagli, ci sono mille e più modi di gestire quelle limitazioni…

il primo e unico vero problema non risolvibile con accessori è come i loro sensori catturano le immagini in movimento

Un sensore fotografico, per quanto sia nato per catturare immagini, nasce per catturare immagini statiche, non in movimento, e per quando sia veloce la cattura, lavorerà sempre (ad oggi giugno 2017) con la modalità dello scan line, ovvero una riga alla volta, creando il fenomeno del rolling shutter, ovvero una distorsione più o meno evidente degli oggetti in movimento circolare e orizzontale.

Se i movimenti sono lenti non si vedono difetti di alcun sorta, ma quando ci sono panoramiche o oggetti rotatori, la distorsione diventa evidente, con le fullframe ogni oggetto in movimento veloce si contrae e si restringe creange degli effetti jello poco piacevoli.

So che quello che sto scrivendo genera nella maggior parte dei videomaker un moto di protesta, che si può contenere, che non sono effetti così evidenti, che il pubblico non vede quei difetti, etc etc etc… ma queste sono affermazioni tecniche oggettive, non si può nascondere la realtà: più è grande il sensore, più si deve stare attenti ai movimenti orizzontali e rotatori.

Visto che mi piace andare controcorrente, invece dei soliti filmati delle canon metto i link quelli di una FF sony e di una m4/3 come la gh4, qui si può vedere come una ripresa di panoramica mediamente veloce comporti una inclinazione laterale decisamente evidente.

mentre sui movimenti rotatori, che non deve essere per forza la ripresa di un ventilatore, ma le ruote di un’auto, le braccia di due persone che corrono, etc etc

Questo tipo di distorsioni rendono evidenti i limiti della gestione del sensore in rolling shutter, tecnica di cattura delle immagini presente ANCHE in molte telecamere, ma avendo sensori molto più piccoli, o spesso semplicemente con una scansione più veloce il fenomeno è minimizzato rispetto alle DSLR che dovendo poi scalare i dati dai xx megapixel ai 2 mpx del Fhd, o gli 8.9 mpx del 4k, il fenomeno rimane accentuato.

Perchè si usa il Rolling shutter nel video quando per lo scatto fotografico si usa il Global shutter?

Semplice! è più economico per la gestione dei dati video, come processo di cattura delle informazioni, etc etc
Quando si cattura una riga di dati la si può processare subito, o al max con la seconda riga creando matrici di pixel 4×4 su cui applicare già vari algoritmi di compressione, e registrare solo i dati derivati, mentre se si lavora in Global shutter si deve catturare un intero fotogramma, quindi elaborarlo, e salvarlo, mentre ne stanno arrivando almeno altri 23 nello stesso secondo.

L’approccio Global Shutter offre una miglior cattura e gestione dell’immagine in movimento, della sfuocatura di movimento, dei vettori di movimento, ma richiede :

  • buffer molto più veloci e capienti
  • processori video immagine molto più potenti e veloci
  • data managment su sd/ssd/cf molto più veloci per scrivere più dati
  • un sistema globale più responsivo.

L’approccio del Rolling shutter spesso viene usato per catturare una dinamica luminosa maggiore, sulle cineprese digitali accade questo, ma dato che la fotocamera già è in grado di fare quella cattura con quella dinamica in global shutter (scatto fotografico) si può supporre che sia la soluzione più economico per il produttore delle macchine fotografiche, tanto lui produce macchine fotografiche, non telecamere … il fatto che poi si siano messi a produrre macchine fotografiche con uscite pulite HDMI, timecode, profili log etc è solo un caso…
infatti continuano a mettere nel comparto video la priorità di diaframmi, lasciando oscillare lo shutter… roba che neanche un filmaker anni 90 avrebbe accettato (io sono uno di quelli…).
La informazione che a molti manca è il fatto che il Rolling Shutter potrebbe non essere un problema, visto che la Alexa, cinepresa Arriflex standard per il 90% della produzione cinema, usa la tecnologia rolling shutter, ma con una latenza di 3ms quindi non si genera il problema dell’effetto Jellow, mentre nelle fotocamere spesso abbiamo tempi più lunghi di latenza e quindi si genera il problema.

Rolling shutter, non mi disturba

Ora diciamo che possiamo passare sopra a tale limitazione, ma cerchiamo di capire quando dobbiamo scegliere tra telecamera e macchina fotografica cosa cambia e come, perché spesso si danno per scontate delle cose, che poi diventano sorprese amare da gestire, o da comprare per ulteriori spese.

Punti di forza della telecamera
  • Nasce per fare riprese quindi è tutto il sistema è pensato per il video
  • Il sensore è su misura per fare video, non si generano aliasing e moires nel downscaling come nelle macchine fotografiche.
  • Ottimizzazione dei codec e dei sistemi di compressione del video e delle matrici di compressione
    Tradotto :  lo stesso video compresso con gli stessi mbits avrà una qualità migliore di quelli compressi dalla maggior parte delle telecamere.
  • L’autofocus è pensato per seguire e gestire soggetti in movimento
  • Praticamente tutte le telecamere a lente fissa hanno lo stabilizzatore o elettronico o fisico per gestire al meglio le riprese in movimento.
  • Sono fornite già un buon microfono di base, e hanno più di un ingresso e canali multipli per la registrazione dell’audio
  • Hanno uno zoom motorizzato con velocità variabile
  • Hanno porte di uscita video registrabili di qualità
  • Nasce con un mirino o un monitor articolato per gestire al meglio le riprese da angolazioni particolari senza difficoltà operative.
  • La telecamera è più adatta al run and gun, esce dalla scatola “finita” con tutto quello che serve per catturare audio e video
  • Le telecamere hanno spesso bottoni e controlli fisici per gestire le impostazioni della camera senza staccare la ripresa o lo sguardo dal soggetto.
Punti di forza delle macchine fotografiche
  • Nasce per catturare una gamma dinamica ampia e spesso maggiore delle telecamere
  • Il sensore più grande permette spesso di catturare più luce e sfuocare meglio i soggetti (anche se dipende da camera a camera).
  • La maggior parte ha obiettivo intercambiabile, il che le rende interessanti.
  • Stanno uscendo camere mirrorless con sensore stabilizzato per poter mettere davanti lenti di ogni tipo e avere la stabilizzazione.
  • Se si devono fare riprese in modo poco appariscente, è più anonima della telecamera.
Punti deboli delle telecamere
  • Spesso i sensori piccoli causano fatica nella gestione della luce
  • I sensori più piccoli tendono a creare complicazioni nella gestione della focale traendo in inganno l’utilizzatore nella scelta delle focali.
  • Il sensore piccolo tende a ridurre la sfuocatura di campo e quindi diventa più complesso sfuocare le immagini n determinate situazioni.
  • La gamma dinamica spesso è inferiore a quella delle macchine fotografiche di pari prezzo (dipende da prodotto a prodotto)
Punti deboli delle macchine fotografiche
  • Nasce per fare fotografie, quindi non tutte le funzioni fotografiche sono attive sempre nel video
  • Il sensore è più grande della risoluzione del video, la gestione della scalatura spesso crea problemi di aliasing moires oppure nitidezza rispetto al segnale potenzialmente catturabile dal sensore in modalità fotografica (dipende dal marchio come scala i dati, se con line skipping come canon o pixel binning come sony e panasonic.)
  • L’autofocus sulla maggior parte delle camere è solo per la partenza della ripresa, poi non segue i soggetti
  • La maggior parte delle lenti prime non hanno lo stabilizzatore, poche mirrorless hanno il sensore stabilizzato (fascia alta di prezzo) il resto hanno lo stabilizzatore d’immagine solo zoom di un certo tipo .
  • Consumano un sacco di corrente nella ripresa video e spesso ci si deve attrezzare con più batterie
  • Molte fotocamere (canon e sony) si surriscaldano durante la ripresa video e c’è il rischio che si interrompa la ripresa dopo x minuti di lavoro (nelle condizioni peggiori).
  • Le fotocamere vendute in Europa non possono fare riprese più lunghe di 29 minuti e 59 secondi, altrimenti sarebbero tassate come videocamere, e quindi più costose; per questa ragione i produttori mettono un blocco di durata massima alle fotocamere.  Non è possibile la ripresa di uno spettacolo teatrale, ad esempio, senza modifiche non ufficiali dei firmware, oppure si deve acquistare il prodotto fuori dall’Europa.
  • Si deve aggiungere un microfono esterno alla camera, perchè di serie le macchine fotografiche non hanno mai un sistema decente di registrazione dell’audio. Inoltre non tutte le fotocamere posseggono l’ingresso microfonico, o hanno un buon amplificatore di segnale audio, quindi spesso è necessario acquistare oltre che il microfono anche un registratore digitale.
  • Quasi nessuna fotocamera possiede obiettivi zoom motorizzati e i pochi obiettivi motorizzati (Panasonic) hanno motore lineare, cioè non si può dosare la velocità di zoomata.
  • La maggior parte delle fotocamere ha porte di out video in formato mini o micro HDMI, molto fragili, e l’uscita video spesso è castrata dal produttore per evitare la registrazione esterna del segnale.
  • Molte fotocamere non hanno dei buoni schermi di visione, per fare il fuoco o giudicare l’inquadratura, e spesso sono saldati al corpo macchina.
    Poche sono le camere con monitor articolati per poter riprendere da angolazioni particolari, per le altre sono necessari monitor esterni.
  • Spesso la disposizione dei bottoni e dei controlli per modificare le proprietà di ripresa sono nei menù interni, costringendo a stoppare spesso le riprese per gestire il tutto da menù.
I costi nascosti delle macchine fotografiche…

spesso si guarda un prezzo e non ci si rende conto di come si debba accessoriare una camera fotografica per utilizzarla in modo comodo e profiquo per il video.

Qui sotto ho fatto una tabella sugli elementi, per capire cosa può essere utile con i due prodotti.

Telecamera Macchina fotografica
Card SD o CF per il girato indispensabile indispensabile Supporto per registrare il video
Batteria aggiuntiva opzionale indispensabile Per registrazione su lunghe durate
Microfono esterno opzionale indispensabile per audio lontani o direzionali per isolare voce da ambiente
Cage opzionale indispensabile La cage serve ad avere una presa più comoda, una maniglia e fori filettati su cui montare gli accessori
Cavalletto opzionale opzionale Per riprese lunghe, per riprese stabili etc
Filtro ND indispensabile indispensabile quando c’è troppa luce per dosarla
Monitor esterno opzionale indispensabile sia come visione più precisa, che ausilio quando si hanno limiti di angolo o visione sulla camera stessa
Lenti aggiuntive opzionale
(se intercambiabile)
opzionale
(se intercambiabile)
per avere una maggior flessibilità narrativa operativa
 Follow focus  opzionale  indispensabile  le lenti fotografiche non essendo pensate per la ripresa video spesso non sono in grado di cambiare il fuoco in modo fluido durante la ripresa se non utilizzando un ausilio, il follow focus, per evitare di toccare la lente, ma agire direttamente in parallelo con essa.

Le buone abitudini sui Supporti di Memoria



Questo articolo mi è stato ispirato da una recente chiacchierata con un amico che non capiva la mia abitudine di formattare le schede DALLA CAMERA prima di usarle, di non lasciare i video all’interno di schede etc, di non cancellare i file direttamente dalla scheda.

Comprendo che chi non è abituato a macinare video e materiali di ripresa sia una abitudine poco comprensibile, ho pensato che sia un ottimo argomento per un articolo sulle buone abitudini prima di una ripresa, per evitare a tutti esperienze negative derivate da questo fattore.

  1. la formattazione controlla la scheda in caso di danni alle celle.
  2. la formattazione elimina la frammentazione della scheda.
  3. la formattazione evita il rischio di fallire una ripresa, perchè è piena.
  4. avere solo i dati nuovi sulla scheda permette backup veloci e sicuri.
  5. avere solo i dati nuovi permette controlli rapidi e senza errore.
  6. si evitano rischi di perdita dati preziosi.
  7. si evita il furto di tutto il girato ma solo dell’ultimo materiale.
  8. si eliminano i file che i sistemi operativi scrivono sui supporti.

I supporti digitali per quanto siano di qualità possono avere problemi, rischi derivati dall’inserimento ed estrazione, variazioni di temperatura etc, per cui è importante gestire i nostri preziosi dati nel modo più “error proof” possibile.

Vediamo in dettaglio ognuna di queste motivazioni :

  1. Controllo struttura del supporto
    La formattazione di un supporto comporta anche la verifica delle diverse celle, e quindi ci assicura che i dati saranno scritti su celle stabili.
    Ogni supporto può avere difetti dati dalla fabbricazione, dalla lettura scrittura, dal sistema operativo che ha letto i dati della scheda.
  2. Frammentazione del supporto
    Nella maggior parte dei casi le schede vengono scritte con dati a velocità medio bassa, quindi comunque anche una lieve frammentazione del supporto data da cancellazioni e scritture dei file non ha un impatto particolare sull’affidabilità del supporto, però… salendo con le caratteristiche del prodotto, la frammentazione diventa un nemico per la scrittura continua dei filmati, portando a perdite di frame o problematiche nella chiusura del filmato.
  3. Scheda piena di vecchio materiale
    Spesso vedo schede con materiale di diverse giornate, magari parzialmente cancellato, che occupa prezioso spazio, oltre che poter dare problematiche nella scrittura dei dati, causa la frammentazione, quindi per questa pigrizia si potrebbe perdere la sequenza della vostra vita perchè la scheda è piena, di vecchi filmati. E cancellare dalle camere, quando lo permettono (quelle professionali non lo permettono) porta via un sacco di tempo e frammenta la scheda.
  4. Backup semplice e rapido
    Se la scheda contiene solo materiale nuovo il backup si può eseguire rapidamente e con sicurezza, basta fare il backup di tutto il contenuto della scheda, senza rischio di creare copie inutile di altro materiale, senza rischio di sprecare spazio o tempo. Inoltre usando programmi per la produzione dei giornalieri avere nelle schede materiale di più riprese già acquisito è uno spreco enorme di risorse.
  5. Verifica Rapida del backup
    Avendo solo quei file sulla scheda, anche lanciare le procedure di verifica del backup è questione di pochi secondi, mentre avendo materiale di più giornate non si potranno usare le procedure automatiche e quindi ci sarà un tedioso e lento processo manuale, che può comportare diversi errori.
  6. Evitare perdita di dati
    In caso di danneggiamento della scheda la perdita è relativa solo ai dati recenti e non a tutti i dati contenuti nella scheda. La maggior parte delle persone non immaginano che le schede possano danneggiarsi, soprattutto se messe su GoPro immerse in acqua, portate in aria su Droni a centinaia di metri, o semplicemente perdendo uno di questi oggetti durante le riprese.
  7. Evitare il furto dei dati e la relativa diffusione
    Le camere, i droni, sono tutti elementi appetibili dai ladri, e le card spesso restano dentro, “al sicuro” con l’oggetto mentre viene rubato…
    Preoccuparsi di fare il backup e svuotare le schede evita sia la perdita globale dei dati (vedi punto 6) sia la diffusione di dati sensibili (dalle riprese ad altro materiale).
  8. Eliminazione dei file aggiunti dai sistemi operativi
    Sia utilizzando MacOsX che Windows i sistemi operativi se trovano un supporto atto alla scrittura iniziano a scrivere diversi dati, cartelle nascoste e alterano la struttura del supporto. MacOsX scrive dei file nascosti per il resourceFork dei dati che legge, diversi file .nomedelfile, se per errore mettere un supporto capiente prova a scriverci le basi per timemachine e altro. Windows inizia scrivendoci le cartelle per il cestino, se cancellate dei file prima li mette li e poi li elimina, altre volte se trova file system come exFat o Fat32 analizza la struttura e se per qualche ragione non gli garba la struttura, la “corregge” se non lo fermate entro 30 secondi (una specie di bomba a tempo) e nella maggior parte dei casi non accade nulla di grave, ma qualche caso sfigato danneggia la struttura dell’MBR causando apparente perdita di dati, che si può ripristinare senza subire un infarto. Comunque tali scritture posso inficiare la gestione della scheda da parte del dispositivo, per cui la formattazione da parte del dispositivo garantisce che sia strutturato e formattato per quello che serve ad esso senza spazzatura al suo interno.

Come si espone correttamente? Cos’è l’esposizione ETTR?

Esposizione corretta

Spesso quando si parla di corretta esposizione sembra che si parli di magia, di pareri, opinioni … mentre sono semplici dati tecnici da leggere e applicare in ripresa e poi eventualmente in post.

Ogni mezzo (sensore o pellicola) ha una sua sensibilità nativa (Iso o Asa a seconda della scala), la giusta esposizione è quando si studia e si espone per il corretto valore del media, al di sotto facilmente si ottiene grana / rumore, al di sopra si tende a appiattire e poi bruciare le informazioni. La tolleranza alle oscillazioni di valore dipende dalla tipologia di pellicola o dalla tipologia di sensore, motivo per cui non basta usare un esposimetro per esporre una camera analogica o digitale, ma si devono fare prove e farsi esperienza per estrapolare il meglio dal sensore o dall’emulsione.

Decidere invece come usare l’esposizione e le luci invece è una questione estetica, artistica e si declina nel gusto, nelle necessità della scena, della fotografia, dell’ambiente e del sistema di cattura della luce che stiamo usando.

Per controllare l’esposizione dell’immagine abbiamo più elementi da tener conto, qui vediamo i diversi valori che ci permettono di avere un controllo totale dell’esposizione dell’immagine.

Il diaframma

Il primo valore che determina la quantità di luce catturata e registrata dalla macchina è l’obiettivo stesso, la capacità dell’obiettivo di aprire e chiudere il diaframma. Il valore del diaframma viene espresso in numeri, quelli più bassi indicano il diaframma più aperto, mentre quello più alto è la chiusura massima che si può ottenere.

Il diaframma della lente aprendosi e chiudendosi ci permette di decidere quanta luce possiamo portare al sensore; quando il diaframma si chiude può avere valori molto alti come 16 o addirittura alcuni obiettivi hanno valore 32, mentre quando si apre possiamo avere lenti che hanno un valore 1.4 o 1.2.

Quando apro e chiudo il diaframma non influenzo solo la luce in ingresso, ma anche la profondità di campo, ovvero la capacità di avere una zona più o meno ampia nitida, quindi quando voglio dare maggiore importanza al soggetto in primo piano posso aprire diaframma per sfocare maggiormente l’immagine dietro di esso. Naturalmente devo compensare la maggiore o minor luce in ingresso.

In sintesi :

il diaframma più è alto il numero, più è chiuso, più profondità di campo; più è basso e più è ristretta la profondità di campo.

Quando si devono scegliere i diaframmi da usare, si tende a non usare i diaframmi estremi, anzi si tende ad escludere il diaframma più basso, perché potrebbe non esprimere il massimo della nitidezza; si tende ad escludere gli ultimi due diaframmi più chiusi, perché a seconda delle lenti si rischia la diffrazione, fenomeno che causa una perdita di nitidezza.

Iso o Asa

Un altro elemento da tenere in considerazione quando andiamo a gestire la luce è la sensibilità ISO o ASA, a seconda delle macchine potremmo trovare una delle due sigle che indicano la sensibilità del sensore alla luce, ovvero la sua capacità di catturare la luce.

Una volta con la pellicola la sensibilità era gestita in modo diretto, ovvero si caricava una pellicola a 80, 160, 320, 640, quindi si esponeva di conseguenza.

Nel momento in cui si è passati al digitale apparentemente le macchine sono in grado di cambiare quello che sono gli Iso/Asa, ovvero sono in grado di abbassare o alzare questo valore per semplificare la fase di ripresa. Dico apparentemente perché in realtà questo tipo di valore anche col digitale è fisso, tranne un paio di camere di alta gamma Varicam della Panasonic.

Nel mondo reale abbiamo un valore che è quello detto sensibilità nativa, la capacità nativa del sensore di catturare quella data quantità di luce, poi quello che sono le sensibilità inferiori o superiori sono elaborazioni o a livello analogico del segnale elettrico catturato da sensore o a livello digitale sulle successive informazioni convertite in digitale.

Tradotto in parole povere significa che ogni macchina che noi andiamo a prendere telecamera e macchina fotografica cinepresa ha una sua sensibilità nativa, quando non utilizziamo la sua sensibilità nativa, apparentemente vedremo immagini più chiare e più scure ma in realtà dato che vengono create queste informazioni per elaborazione analogico – digitale la qualità non sarà come avere un sensore più sensibile o meno sensibile ma sono sempre elaborazioni del segnale originale.

Conoscere la sensibilità nativa di una camera è molto importante perché è la sensibilità nel quale la telecamera, la macchina fotografica, la cinepresa esprimono la loro capacità massima di catturare l’immagine, nella sua luminosità, nella capacità di leggere il contrasto massimo tra luce e ombra.

Quando noi abbiamo una macchina ad esempio prendiamo una macchina fotografica che nasce a 160 ISO e impostiamo un valore di Iso superiore ad esempio mettiamo 1600 o 3200iso perché c’è veramente poca luce nell’ambiente, potremo notare come aumenti una sorta di rumore video, un disturbo, una granulosità che appare sull’immagine perché l’immagine originale viene amplificata quindi fisicamente non è sensore che legge 3200 iso, ma è una elaborazione digitale o analogica.

Molte macchine (telecamere e macchine fotografiche) hanno un sistema di riduzione rumore direttamente in camera, altre (cineprese) per evitare di danneggiare l’immagine o perdere dei dettagli importanti riservano questa fase di riduzione del rumore alla fase della post produzione.

Quindi a seconda della macchina che utilizziamo, possiamo avere una sensibilità iso/asa nativa e un certo range, una gamma di sensibilità aggiuntive che possiamo selezionare per catturare più o meno luce in funzione della luce ambiente e della qualità che mi può esprimere.

Quanti e quali iso/asa possiamo usare di una camera è un qualcosa che dobbiamo verificare, perché ogni macchina offre intervalli di sensibilità più o meno usabili a seconda della quantità di luce che noi abbiamo nell’ambiente di ripresa. Quindi non è possibile dare un’indicazione generica di una sensibilità Iso da utilizzare, ma bisogna scoprire qual è la sensibilità nativa e poi vedere quanto ci possiamo spingere oltre; se parliamo di telecamere normalmente è abbastanza facile perché noi troveremo la macchina con la sua sensibilità di base e poi troveremo un parametro normalmente chiamato Gain o guadagno; il guadagno è quanto stiamo amplificando il segnale elettronicamente, senza guadagno è la sensibilità nativa della macchina.

Con le macchine fotografiche la sensibilità nativa è il valore Iso più basso della macchina, quindi molte macchine hanno ad esempio 160 ISO o 200 Iso; tutte le sensibilità Iso superiori sono elaborazioni, sta poi a noi verificare quali sono usabili quali diventano eccessivamente artefatte per essere utilizzate.

Sulle cineprese nella parte del manuale delle istruzioni è indicato qual è il valore nativo della sensibilità Iso e quali sono gli altri valori che noi possiamo utilizzare come sensibilità pari di xxx.

Quando noi cambiamo la sensibilità Iso e abbassiamo il valore rispetto al valore nativo il risultato è che la sensibilità si abbassa perché la macchina campiona meno informazioni luminose e non abbiamo particolari problematiche, quando noi alziamo la sensibilità Iso, dato che stiamo amplificando un segnale con poche informazioni, poca luce, il possibile deperimento dell’immagine è evidenziato da l’aumento di granulosità o elementi di disturbo video in movimento, l’aumento del contrasto dell’immagine.

L’aumento di contrasto diventa più evidente quanto meno luce è presente; perché se ci sono poche informazioni luminose per rendere più luminosa l’immagine l’aumento degli Iso sposta nelle due direzioni la parte più luminosa e la parte più scura aumentando il contrasto generale dell’immagine.

È molto importante quando si lavora con una camera capire qual è il livello di Iso utilizzabile, entro quale livello possiamo alzare la sensibilità senza avere un deterioramento troppo vistoso dell’immagine.

Per poter gestire l’immagine anche in condizioni di basse luci la soluzione ottimale di gestione dell’Iso è quella di utilizzare iso nativo, e gestire la luce con uno degli altri parametri, ma naturalmente non sempre è possibile farlo e quindi il parametro Iso è uno strumento utile per gestire la quantità di luce che viene catturata per ottenere la corretta esposizione.

Otturazione

Quando eseguiamo una ripresa l’altro fattore che influenza l’esposizione si chiama tempo di otturazione, detto anche shutter molte macchine.

Il tempo di otturazione è l’istante, la frazione di tempo che viene utilizzata per catturare il singolo fotogramma, quindi con un tempo di otturazione più alto o più basso catturiamo più o meno luce. In fotografia si utilizza il tempo di otturazione per modificare anche la quantità di luce che entra all’interno una camera, quando si cattura un filmato il tempo di otturazione non va mai utilizzato per controllare la quantità di luce in ingresso, perché nel momento in cui alteriamo il tempo di otturazione stiamo alterando l’immagine viene catturata da sensore, non è solo una questione di luce, ma è anche una questione di percezione del movimento.

L’impostazione corretta del tempo di otturazione è sempre un valore ben preciso, legato ai fotogrammi al secondo, esistono solo due eccezioni in casi speciali che andremo a elencare più avanti.

Il valore di otturazione corretto per ottenere la cattura di un movimento in maniera fluida è uguale a uno fratto il valore doppio dei fotogrammi al secondo, significa che se io lavoro a 24 fotogrammi al secondo per il cinema, utilizzerò 1/48 di otturazione standard, se io lavoro per la televisione per il video in ambito europeo o australiano dove abbiamo il sistema standard denominato PAL siamo a 25 fotogrammi al secondo, quindi utilizzo una otturazione di 1/50 di secondo, se lavoro per Stati Uniti e Giappone quindi lo standard NTSC, oppure se devo visualizzare il filmato prettamente su computer, tablet e cellulari allora utilizzo di 30 fotogrammi al secondo, quindi il tempo di otturazione sarà 1/60.

Questa semplice formula nacque al tempo del cinema quasi 100 anni fa, la particolare proporzione tra la velocità di otturazione e la cattura di fotogrammi ci offre la corretta scia di movimento sugli oggetti veloci, per far sì che quando noi vediamo filmato lo percepiamo come un movimento continuo.

Utilizzare una velocità / tempo di otturazione differente significa alterare la percezione del movimento catturato, se io voglio ottenere un movimento più mosso allora utilizzo un valore più basso di otturazione ad esempio se io utilizzo valore di otturazione di 1/25 invece di 1/50 l’immagine in movimento sarà più mossa, quindi diventerà più faticoso leggere i dettagli, perché i movimenti si fondono tra di loro, questo tipo d’impostazione si può utilizzare se dobbiamo fare una panoramica a schiaffi molto veloce e non vogliamo vedere gli elementi ma vogliamo vedere una fusione totale di ciò che noi riprendiamo nella panoramica a schiaffo; possiamo utilizzare il trucco di abbassare il tempo di otturazione quando abbiamo veramente poca luce, una camera statica, non abbiamo movimenti veloci nella scena; con una otturazione di durata doppia abbiamo la possibilità di catturare il doppio della luce a parità di scena e diaframmi e iso.

Utilizzare un tempo di otturazione più alto del normale rende invece movimento stroboscopico, quando il tempo di otturazione è più alto del normale oltre a catturare meno luce congela il movimento in ogni istante, in maniera più netta, quindi se ci sono dei movimenti veloci diventano stroboscopici perché i vari fotogrammi non si fondono uno con l’altro per il cervello, ma il cervello percepisce in modo diverso e più fastidioso l’immagine, quel tipo di impostazione si utilizza esclusivamente se in produzione si vuole una ripresa al rallentatore e quindi sia bisogno di immagini nitide e molto dettagliate sintesi l’otturatore va impostato sempre a uno fratto il doppio dei fotogrammi al secondo.

Le uniche eccezioni su questo tipo di situazione sono legate alla creazione di effetti speciali, rallenty, oppure per necessità di catturare più luce possibile nella scena, altrimenti il movimento catturato sarà pieno di artefatti nel movimento cioè non sarà naturale

In sintesi

Otturazione sempre 1/fotogrammi al secondo x 2

Manipolazione esterna alla camera della luminosità

Quindi se vogliamo riassumere i parametri, noi sappiamo che iso dovrà essere impostato preferibilmente nel valore nativo e non dovremmo cambiarlo, il tempo di otturazione andrebbe impostato sempre uno fratto fotogrammi al secondo per due, quindi se dobbiamo controllare la luce da quello che abbiamo detto fino ad ora l’unico parametro che possiamo cambiare è il diaframma, ma abbiamo visto che comporta una variazione non solo della luce in ingresso ma anche della profondità di campo.

Quando noi vogliamo impostare determinati valori diaframma / otturazione / iso, per controllare correttamente l’esposizione dobbiamo quindi agire esternamente alla nostra camera, quindi se abbiamo poca luce dovremo in qualche modo aumentare la quantità di luce disponibile nella scena tramite pannelli riflettenti, tramite luci aggiuntive, eccetera o se invece la luce è troppa possiamo utilizzare pannelli riflettenti neri o bandiere per ridurre la quantità di luce che raggiunge i soggetti, oppure possiamo utilizzare davanti alla lente della camera quello che si chiama un filtro neutro, il filtro neutro è un filtro più o meno scuro che riduce la quantità di luce che colpisce la lente dell’obiettivo.

Riducendo la quantità di luce col filtro ND (neutro) possiamo controllare la esposizione dell’immagine. In questo modo noi siamo in grado di controllare completamente la quantità di luce in ingresso nell’immagine senza toccare i parametri che influenzano gli altri tre parametri : otturazione iso e diaframma.

I filtri neutri esistono in tre incarnazioni ovvero ci sono i filtri neutri digitali introdotti da Sony, che elaborano l’immagine per permetterci di lavorare più comodamente senza dover introdurre elementi davanti alla lente della camera davanti alla lente della camera.

I filtri neutri variabili ovvero un filtro che noi avvitiamo sulla lente della camera e girando in senso orario o antiorario possiamo far passare più o meno luce.

Il filtro neutro variabile è uno strumento molto comodo molto flessibile perché ci permette di controllare in maniera raffinata e precisa la quantità di luce che passa; esso ha due possibili inconvenienti :

  • il primo inconveniente è relativo alla qualità del filtro, se non è un filtro di alta qualità potrebbe influenzare la luminosità e soprattutto la nitidezza dell’immagine stessa quindi è molto importante investire una buona cifra sul filtro neutro per poter avere un’ottima qualità di resa ottica;
  • il secondo fattore che potrebbe (uso sempre il condizionale perché dipende dalla situazione situazione) influenzare la qualità dell’immagine è legato alla natura stessa del filtro neutro variabile, esso è formato da una coppia di polarizzatore che incrociandosi riducono la quantità di luce che passa.

Dato che si parla di filtri polarizzatori, c’è il rischio che qualche tipo di riflesso che io voglia disegnare su una superficie, su un attore vada sparire perché viene polarizzato dal filtro neutro stesso, questo tipo di problematica relativa dipende da situazione a situazione, esiste una semplice soluzione ovvero montare un filtro variabile su un’altra ghiera, che ci permette di girare dopo aver deciso la quantità di luce in entrata, quindi orientare il polarizzatore per quello che ci serve.

Il terzo tipo sono i filtri a lastra ovvero la modalità di sottrazione della luce è unica perchè abbiamo un oggetto che in modo lineare filtra una parte della luce.

Il filtro a lastra normalmente è di qualità superiore ai due precedenti tipi di filtri, ma ha lo svantaggio che a seconda di quanta luce c’è dobbiamo sostituire un filtro rispetto all’altro, richiede un investimento maggiore rispetto al filtro variabile e digitale, richiede avere un porta filtri dove mettere il filtro, ed essendo un elemento che rimane distante rispetto al classico filtro della lente c’è il rischio che possa raccogliere qualche riflesso di luce

La soluzione ottimale è il filtro lastra a livello di qualità di immagine, a livello di praticità il filtro variabile è molto più comodo ed efficiente, quindi a seconda del tipo di lavoro che uno fa, in funzione dei tempi e dei budget a propria disposizione. Il meglio sarebbe poter possedere entrambi, in caso di scelta pratica economica il filtro variabile di qualità dovrebbe essere sempre la prima scelta per una questione di convenienza unita alla praticità di poter avere diverse scale diaframmi che possiamo sottrarre immagine

Esposizione ETTR questa misteriosa…

da qualche tempo si parla di esposizione ETTR in elettronica, ma spesso non è chiaro il perchè di tale scelta, perchè guardando le immagini sembra esserci un errore di esposizione.

L’esposizione detta ETTR Expose To The Right è un metodo di esposizione che tende a sovraesporre in modo più o meno significativo le immagini per ottenere in postproduzione una maggior pulizia delle ombre e/o minor rumore generale.

Questo metodo deriva dal principio dell’esposizione in pellicola, dove una maggior quantità di luce rende il negativo più denso e quindi con un numero maggiore di informazioni rispetto ad un negativo sottoesposto che riceve meno informazioni.

Nell’ambito del digitale dipende da sensore a sensore e come viene usato, perchè ogni sensore ha una sua gamma dinamica di lettura, ma non significa che la si possa sempre salvare, ad esempio le video reflex hanno una gamma dinamica più estesa rispetto alle classiche telecamere, se fanno fotografie, ma quando registrano il video comprimono questa gamma dinamica in uno spazio molto più ridotto : 8 bit contro i 14 bit della cattura fotografica, quindi anche se le informazioni di partenza hanno una certa qualità, queste informazioni vengono compresse in uno spazio più ridotto.

Il nome è nato dal tipo di istogramma che si può leggere dalle immagini ETTR, dove l’esposizione sposta l’istogramma dalle informazioni dei medi alle alte luci.

Il concetto nasce da più motivazioni :

  • immagini più chiare vuol dire ombre più ricche di dettagli, e si può a posteriori abbassare l’esposizione ma avere dettagli anche nelle ombre.
  • immagini più chiare vuol dire compressioni migliori, perchè i codec di compressione a perdita riducono e comprimono molto di più le aree scure delle chiare
  • immagini più luminose normalmente vuol dire avere più informazioni nei medi e nelle alte luci, quindi immagini che percettivamente sono molto più interessanti.
  • ombre più chiare vuol dire meno rumore nelle stesse e quindi immagini più pulite

Quanto e quando si usa l’ettr dipende da diversi fattori, non è una tecnica lineare, ma si può applicare SOLO facendo esperimenti con le proprie attrezzature e si deve capire quale sia il limite delle stesse.

  • Ogni sensore ha il suo limite in alto e in basso come sensibilità, si tratta di testare quali sono i limiti, normalmente le macchine che registrano a 10bit il video, o meglio ancora in raw reggono molto di più delle camere tradizionali l’applicazione dell’ettr, perchè hanno più spazio di azione per recuperare le alte luci.
    Per capire i limiti si deve esaminare e scoprire come l’istogramma della camera (o dal monitor di controllo) vi fornisce i dati su luci e ombre.
    Alcune camere forniscono l’istogramma in relazione al sensore, altre alla capacità di registrazione. E’ importante verificare come funziona tale strumento per evitare di bruciare le immagini.
    Ad esempio le camere Blackmagic Design forniscono un istogramma e la zebra in relazione al sensore, quindi SOLO al salvataggio in raw, mentre se si lavora in prores si deve essere più conservativi, impostando la zebra al 95%, altrimenti le aree si bruciano.
  • Ogni sistema di registrazione interno o esterno può fornire una maggior capacità di registrazione delle informazioni lette dal sensore, dipende da come la camera gestirà la cosa, per cui va verificato, ad esempio nelle videoreflex poche hanno uscite video di qualità, oltre 8 bit 4:2:0, per cui un recorder esterno di qualità potrebbe essere uno spreco di soldi, dipende dall’uso che ne farete.
  • Ogni lente può reggere in modo diverso alla sovra esposizione, ad esempio la maggior parte delle lenti presenta un “purple fringing” ovvero un’area viola attorno alle parti sovraesposte, per cui si può recuperare le aree sovraesposte, ma rimangono aloni colorati che non si possono recuperare facilmente, a livello fotografico dentro Adobe Camera Raw c’è una funzione apposita, ma nei filmati non è così scontato.
  • A seconda dello spazio colore usato rec709 o log si hanno spazi diversi di recupero delle informazioni luminose, e considerato che molte macchine hanno metodi diversi di registrazione del log, se l’immagine non ha un grande contrasto il rischio di usare la tecnica dell’ettr in modo spinto comporta un appiattimento troppo forte delle immagini per poi ricostruire le informazioni che servono per generare l’immagine finale

Come gestirlo in ripresa

Dato che la maggior parte dei monitor interni ed esterni delle camere sono limitati sia come gamma dinamica che capacità di riproduzione del colore e della luminosità, va evitato il loro uso per gestire l’esposizione in ETTR, vanno usati gli strumenti per leggere e capire la vera luminosità delle diverse aree.

Istogramma

Zebra

Falsi colori come funzionano e come leggerli.

Questi strumenti, usati correttamente aiutano a capire quanto possiamo andare a destra con i dati, naturalmente dipende sempre dalla capacità di cattura del sensore e dai vari fattori di gestione della luce. Non va usato sempre e comunque, soprattutto a seconda delle situazioni e del contrasto globale dell’immagine.

Nota Tecnica :

ho preferito lasciare la spiegazione più tecnica alla fine, perchè non a tutti interessano le spiegazioni tecniche dietro alla pratica.
I sensori moderni tendono a lavorare con un principio di esposizione legato a come funziona la sensibilità “digitale” alla luce : quando il sensore quando riceve la luce la differenza di un valore intero di stop (tempo/diaframma) si traduce nel raddoppiare o dimezzare la luce catturata; le tonalità di un’immagine rappresentano la quantità di luce registrata, quindi lo schema di gestione delle informazioni è strutturato allo stesso modo. Immaginiamo un sensore in grado di catturare 16.384 tonalità differenti (14 bit RAW), la metà di queste informazioni 8.192 saranno devolute allo stop più luminoso (l’area a destra dell’istogramma), poi gli stop inferiori avranno rispetticamente ognuno la metà delle informazioni del precedente, quindi rapidamente scendendo verso le ombre le informazioni caleranno in modo drastico.
gradientGuardando questo schema si può notare come già usando una registrazione raw a 14 bit (altissima qualità) il numero maggiore di informazioni viene registrato nella parte alta delle luci, ma se si lavora con la classica registrazione dei sensori a 8 bit diventa FONDAMENTALE tenerci alti con l’esposizione perchè fisicamente il numero di dettagli registrabili cade velocemente, per cui anche avendo tante informazioni nelle ombre, la distribuzione delle informazioni è fondamentale per registrare più informazioni possibili e spostarli nella parte alta è fondamentale, ragione per cui si usa lo spazio log di registrazione che spostando verso il centro le informazioni si cerca di conservare più informazioni possibili dai sensori.

 

Workflow per la stopmotion

Workflow… una parola spesso osteggiata, perchè implica un certo tipo di lavoro, di processo e spesso se non se ne comprendono i vantaggi potrebbe essere depracato in favore di processi più semplici, già provati e vissuti.

Personalmente sono un maniaco del controllo, della gestione di tutto, dai file alle immagini, fino al video e agli elementi 3d,e quindi in ogni tipo di lavoro posso inizialmente giocare per prendere confidenza con gli elementi, ma quando si tratta poi di lavorare seriamente, studio tutto il possibile per trovare il workflow migliore, che mi permetta di rendere al meglio i miei sforzi.

Alle volte dò per scontato troppe cose, dopo una semplice chiaccherata con una persona, ho capito che forse era utile buttar giù due righe su come gestire facilmente sequenze di file raw, in particolare quelli derivati da sequenze fotografiche, che potrebbero essere semplicemente un timelapse, oppure più importante, una animazione stopmotion, dove sudore e sangue sono stati spesi durante le ore per costruire fotogramma dopo fotogramma la magia dell’animazione.

Cos’è una sequenza di frame?

Un insieme di fotogrammi separati che devono essere gestiti come gruppo, ma vengono visti come singoli elementi. A seconda dei programmi potranno essere visti come un unico elemento (Resolve, Premiere, AfterEffects per esempio) o come tante fotografie separate (Photoshop o Lightroom).

Perchè scattare in raw invece che in jpeg?

Nella stopmotion da diversi anni si utilizzano le Dslr per lo scatto singolo, più comode, più semplici, più potenti della classica cinepresa da stopmotion, e con le nuove funzionalità digitali si possono usare tanti aiuti digitali come i programmi per la stopmotion, uno tra questi è DragonFrame, che permette di vedere, previsualizzare l’animazione mentre si lavora, disegnare curve di animazione, gestire più facilmente il reshooting e molto altro.

Quando si scatta con una DSLR ci sono più opzioni di salvataggio delle fotografie, il classico jpeg a due o tre livelli di compressione, alcune camere salvano in tiff, mentre il meglio si ottiene salvando nel formato detto RAW.

Il raw in realtà non è un vero e proprio formato, ma un metodo di salvataggio dei dati grezzi del sensore della camera prima che siano elaborati dalla stessa; ogni camera ha un chip di process dell’immagine che elabora i colori, la luminosità, etc per poi salvare le immagini come tif o jpeg, ma la maggior parte delle camere potendo salvare i dati grezzi come raw offrono la opzione di salvare al volo più o meno tutto quello che il sensore è in grado di catturare, poi dopo con calma elaborare i dati.

Ogni brand ha il suo formato raw, che viene poi gestito all’interno delle diverse applicazioni in più modi e con metodi diversi, per gestire questo tipo di file ci sono diversi metodi di lavoro.

Utilizzare il raw offre un controllo sull’immagine, sulla qualità, sulle correzioni veramente unico, inoltre basta poco a livello pratico per migliorare una immagine perchè banalmente… un jpeg classico è un file a 8bit, mentre un raw quando è scarso è a 12bit, vuol dire che se in un jpg posso registrare al massimo 16 milioni di sfumature, nel raw peggiore che possiamo registrare ne abbiamo almeno quasi 69 MILIARDI, cioè 4294 volte più ricco del jpeg…

Workflow rapido

ovviamente un file raw ha un peso maggiore di un jpeg, anche se non sempre tanto alto proporzionalmente alla qualità estesa, per cui spesso girare scattare in raw per eventi come i timelapse e l’animazione stop motion è conveniente e richiede poco lavoro in più, in cui in realtà quasi tutto è automatico, ma consente di avere una qualità maggiore a livello globale, maggior flessibilità operativa, e in caso di problemi avere più di quattromila volte lo spazio di azione in post. Inoltre in caso di recupero di immagini sovra o sottoesposte, non essendo danneggiate dalla compressione jpeg, si possono recuperare agilmente diversi stop senza problema.

Il workflow più efficiente per ottimizzare tempi e qualità può essere il seguente:

  1. Scatto raw
  2. Utilizzando Lightroom eseguire la divisione per cartelle per ogni scena e/o sequenza per ottimizzare l’organizzazione globale, usando il nome delle cartelle/file relativi alla scena per semplificare ricerca e organizzazione.
  3. Archiviazione dei DNG per future possibili lavorazioni
  4. Uso di MediaEncoder per la creazione dei file h264 per l’editing
  5. Terminato editing, post etc, prima del rendering sostituzione dei file di lavorazione con le clip DNG correttamente leggibili dai prodotti Adobe.

Questi passaggi potrebbero spaventare, ma in realtà sono molto semplici e possono essere gestiti in automatico, con l’ausilio di Adobe Lightroom per la gestione del raw semplificato.

Fase 1

Durante la fase di scatto sarebbe utile dividere in qualche modo le cartelle, diverse dslr prevedono la possibilità di nominare e dividere le cartelle delle card usate direttamente dalla camera, di seguito trovate per i principali brand il metodo di creazione, altrimenti fare riferimento al manuale d’istruzioni della camera.

per Canon si fanno i seguenti step :
– entrare nel Menu –> Impostazione con chiave inglese–> seleziona cartella –> Crea cartella
– entrare nel Menu –> Impostazione con chiave inglese–> seleziona cartella (e si sceglie la nuova)

per Nikon si fanno i seguenti step :
– entrare nel Menu –> Menù di ripresa –> Cartella di memorizzazione –>
seleziona cartella per numero –> Cambiare numero
 – entrare nel Menu –> Menù di ripresa –> Cartella di memorizzazione –> seleziona cartella da elenco

per Sony si fanno i seguenti step :
– entrare nel Menu –> Impostazione –> Nuova cartella
– entrare nel Menu –> Impostazione –> Selez. cartella REG

se non possibile la soluzione più agile è quella di usare un semplice blocknotes con il nome della scena prima del resto, questo fa si che sia più semplice dividere le fotografie rivedendo le foto con un qualunque browser fotografico, dal semplice finder o gestione risorse fino al potente ma gratuito Adobe Bridge.

Fase 2

La gestione della divisione in cartelle e nominazione può essere eseguita da diversi software, lo stesso Lightroom prevede di leggere senza copiare direttamente le cartelle, selezionare le fotografie relative alla scena, file/esporta e esportare i file in una cartella personalizzata (nome scena), rinominando le fotografie esportate, convertendole in Dng, formato più agile e comodo da gestire dentro i prodotti Adobe e non solo.

In questa fase possiamo organizzare le diverse fotografie, organizzarle per scene, correggere e ottimizzare le fotografie, prepararle per la fase dell’editing eseguendo correzioni del colore, stabilizzare eventuali differenze di luminosità, ottimizzare la qualità delle fotografie originali.

Fase 3

Il sistema più efficiente per archiviare i Dng è quello di creare una copia su un HD esterno al computer, sono da evitare dvd e bluray che nel tempo possono corrompersi e/o degradarsi facendo perdere la copia di sicurezza.

Fase 4

Adobe Media Encoder, se si apre il suo Browser multimediale, è in grado di vedere una cartella contenente una sequenza di DNG come una sequenza video, quindi è semplice trasportare la sequenza su un preset, e trasformarla da un’agile H264 per l’editing a file meno compressi e di maggior qualità.

Fase 5

Completato l’editing, è possibile sganciare i video creati con mediaencoder e agganciare i file Dng originali con una semplice operazione, selezionando tutte le clip, click destro mettendo offline le clip, poi successivamente, click destro collega oggetto multimediale per collegare direttamente i file DNG e avere tutta la qualità possibile da essi.

Da queste poche indicazioni diventa evidente come sia semplice da Lightroom eseguire delle regolazioni sulle immagini, copiarle da una foto a tutte le altre, e dopo aver esportato le dng usare file più leggeri di lavoro.

Collegarsi saldamente al presente…. QBM una scelta comoda.

Chi segue il mio sito sa come sia appassionato di lenti Vintage, spesso si trascura il passato dove si possono trovare delle lenti molto interessanti e dalla qualità eccezionale per i problemi di adattamento con le baionette moderne. Alcuni marchi come Nikon hanno solo evoluto aggiungendo contatti e altre opzioni allo stesso tipo di baionetta creata dalla Nippon Kogaku degli anni 40, quindi tranne per i primissimi obiettivi che avevano una levella che scontrerebbe contro lo specchio delle macchine moderne (eliminabile con una operazione di bricolage di un paio di minuti) è possibile utilizzare le lenti del passato sui corpi moderni. Altri marchi come Canon, Minolta, Pentax etc hanno fatto modifiche alle baionette, spesso cambiando il tiraggio (distanza sensore/pellicola/piano focale a proiezione della lente) per cui diventa complesso se non impossibile convertire le lenti per le baionette moderne; in alcuni casi diventa molto costosa l’operazione e quindi se la lente non ha un valore storico, qualitativo, affettivo, non ha senso eseguire tale operazione.

Come ho spiegato nell’articolo introduttivo all’adattamento delle lenti, alcuni tipi di baionetta sono adattabili aggiungendo un anello tra la vecchia baionetta e la nuova, ma questa operazione, per quanto si operi o con anelli economici di produzione cinese o si preferiscano anelli di qualità, avviene sempre una sorta di gioco tra le due baionette che spesso inficia la qualità, pochi centesimi di mm e il fuoco si sposta, o se la tornitura non è perfetta un lato può essere meno nitido di un altro; anche quando non si ha gioco, durante la rotazione per la messa a fuoco la presenza dell’anello aggiunge una sorta di frizione aggiuntiva nel movimento, e col tempo il gioco tra i due elementi si crea proprio perchè si sforza sulla rotazione un elemento agganciato. La soluzione migliore è sempre la sostituzione della baionetta perchè crea un corpo unico con la lente, avvitato con il corpo principale e quindi durevole nel tempo, maggior precisione, zero gioco alla torsione, e spesso con cifre più che oneste. A seconda dei mount esistono più o meno baionette adattatrici, ci sono quelle di produzione semplice, come quelle sviluppate da Leitax.com che colmano il gap dei diversi tiraggi e sono di ottima qualità, oppure quelle sviluppate su misura per i singoli obiettivi come quelle di EdMika che disassembla e rende utilizzabili anche lenti CanonFD e Minolta che non sarebbero utilizzabili come tiraggio sulle camere moderne, creando kit su misura per le singole lenti.

Nel mondo delle lenti di produzione tedesca, di cui molti conoscono le mitiche Zeiss, esiste un altro marchio storico, VoigtLander, fondata nel 1756 a Vienna e deputata alla progettazione prima di lenti per binocoli e poi dal 1849 per fotografia di alto livello, alla fine degli anni 50 venne acquistata da Zeiss, cambiando il nome in Zeiss Ikon Voigtlander, poi venduta nel 73 a Rolley, questo particolare storico è il lato che ci interessa, perchè grazie a questo “gemellaggio” furono prodotte una serie di ottiche molto interessanti in quel periodo su schema ottico Zeiss e con elementi prodotti e/o assemblati in Germania da Voigtlander e in Giappone da Mamiya, molte di queste con il mount Rolley chiamato QBM, un mount molto semplice ed economico da sostituire, rendendo moderne come utilizzo lenti di quasi 50anni fà.

In questa semplice descrizione mostro come sia facile sostituire il mount Rolley e inserire un Mount Eos EF per utilizzarlo su camere come Blackmagic Design il mount EF.
In questo caso andiamo a lavorare su un Ultron 55mm 1.4 AR, serie creata su schema e formula Zeiss, la stessa del Planar 55mm 1.4.

In 5 passi si passa da una lente inutilizzabile su Reflex moderne a una lente saldamente attaccata ad un Mount Moderno EF.

1) svitare facendo attenzione le 3 viti posteriori, non sforzare, e usare un cacciavite a misura corretta per non graffiare le viti, ma importante per non rischiare di scivolare sulla lente.
Nel caso non si svitassero per colpa dell’età un trucco è quello di prendere un cotton fiock, bagnarlo con acetone industriale e appoggiarlo gentilmente sulla vite che non si svita per un paio di secondi, l’acetone industriale scioglie l’eventuale sedimento o colla usata da alcune aziende nel fissaggio delle viti. Se sentite ancora una forte resistenza, si può provare a girare la vite in senso orario di poco e poi antiorario per svitare, spesso le viti bloccate è più facile forzare prima nel senso di avvitamento e poi svitare.
2) prima di estrarre la baionetta, utiizzare una punta o altro elemento per bloccare il perno di autoapertura del diaframma, perchè se esce con la baionetta poi diventa complesso gestire il rimontaggio. In questo caso era già stato bloccato dal precedente proprietario, quindi non è stato difficile estrarre la baionetta e lasciare l’elemento al suo posto.
3) allineare la nuova baionetta al posto della vecchia curando che coincidano le viti, ma soprattutto che la parte di blocco dell’elemento sia allineata alla presenza del perno.
4) inserire leggermente le viti avvitandole con le dita, per verificare che tutto sia allineato perfettamente, evitando in questa fase sforzi o altro che possano minare la sede della filettatura.

5) Concludere stringendo le tre viti nella sede, in modo da legare saldamente la nuova baionetta con il corpo lente.

Il gioco è fatto…

A questo punto abbiamo una splendida lente, che concorre in qualità con il Planar Zeiss 55mm 1.4 degli anni 70, ma ad una frazione del suo prezzo, e rispetto a molti modelli con anche una nitidezza laterale a tutta apertura superiore al Planar stesso.

Scambiamoci i file… sappiamo come fare?

Negli ultimi 20 anni, si ho scritto venti, ma uso i computer da più di 34 anni, e sono meno vecchio di quanto pensiate, ho scambiato milioni di file, e più passa il tempo e più mi rendo conto che ci sia IGNORANZA COMPLETA su cosa vuol dire fornire i file originali.

Pur essendo un regista, ho sviluppato una buona competenza (in inglese “quite good knowledge” in americano “i’m a god”) nel montaggio e postproduzione video e cinema, dal postprocessing al digital compositing, color grading e 3d animation.

Il problema più grande quando si lavora con le altre persone è l’ignoranza e la superficialità con cui molte persone trattano i file, causando danni con compressioni inutili, e/o conversioni mal fatte che degradano i materiali.

Se non sapete cosa state facendo (90% delle persone) NON TOCCATE NULLA.

In questo post ho deciso di elencare tutte le regole/consigli per importare e/o scambiare i materiali tra progetti e/o programmi e ottenere i migliori risultati. Prima di fare questo sfatiamo qualche mito, perchè prima di metterci a lavorare sul tavolo è meglio pulirlo :

Mito 1 Il peso del file determina la qualità!

Vero, entro certi termini, nel senso che un file molto pesante teoricamente può contenere molte più informazioni, ma anche un file leggero, se ben codificato può contente molte informazioni, per cui il peso da una informazione relativa della qualità generale, ma non è l’elemento definitivo di giudizio.

Mito 2 Un file compresso è più leggero!

Non è vero, è più leggero solo come peso sulla card, ma a livello di calcolo e quindi di utilizzo è più pesante.
Quando si registra un file con una telecamera, videoreflex lo scopo medio di queste macchine è permettere di portare a casa file che abbiano un equilibrio tra peso e qualità, quindi i file hanno codifiche che ottimizzano il peso del file, usando un codec (ieri mpg2, oggi H264 e h265) che usando la codifica hardware (un chip sulla camera) registra le informazioni dei diversi frame in modo da occupare meno spazio, ma tale scelta comporta che non si registrino tutte le informazioni, usando algoritmi che ottimizzano le informazioni.

Nel momento in cui si apre questo file in un programma di montaggio o di post il file, evidentemente nato per rec e play, richiederà un maggior sforzo e quindi prestazioni dal computer per essere Editato, infatti spesso nel campo professionale i diversi programmi di NLE hanno i loro codec DI (Digital Intermediate) nei quali convertono i girati, in modo che tutte le informazioni siano accessibili in modo veloce e rapido. Avid ha DNxHD, Edius ha il suo GV, Adobe ha cineform (di serie da cc2014), Finalcut il ProRes, tutti codec nati per essere usati nel montaggio, che hanno spazio colore ampio, velocità di accesso ai dati, ottimizzati anche per rendering a cascata con perdite ridotte.

Mito 3 Se converto perdo sempre qualcosa!

non è esatto, la conversione può far perdere la qualità  solo se si converte verso il basso, ovvero in un formato più compresso, con meno spazio di codifica colore, o con un bitrate più svantaggioso.
Esistono dei codec di qualità verso i quali convertire può essere conveniente sia per lavorare i video che editarli semplicemente. Se si parte con un file a bassa qualità la conversione verso un formato più ricco non lo potrà migliorare (al max un upsampling del rosso per evitare degradi in post spinta), ma almeno eviterà perdite di qualità durante la manipolazione dello stesso file.

Mito 4 Tanto è digitale quindi è buono

l’idea che l’origine offra una garanzia di qualità è talmente banale, che non vedo perchè debba essere confutata…
quindi dato che acquisisco un vhs in 4k digitale avrò un file di ottima qualità, oppure se ho un prodotto in pellicola 70mm non è di ottima qualità perchè è un mezzo analogico di registrazione dei dati.

Mito 5 Se lo vedo bene in camera va bene per tutto

Dipende la camera come mostra le immagini… la prima accezione che si può fare è che la maggior parte delle camere non hanno monitor della stessa risoluzione di ripresa e/o di dimensioni corrette per giudicare la qualità del materiale girato. Inoltre molti scambiano la visione del materiale live con la registrazione, il fatto di vedere bene le immagini durante la ripresa non significa che il materiale sia registrato in quel modo. Ad esempio la mia vecchia HDV30 aveva un sensore FullHD, un monitor che era sotto la risoluzione SD, la registrazione in HDV 1440×1080, ma l’uscita da HDMI FullHD pulita che registrata esternamente offre una qualità che non sarà mai apprezzabile intermente dalla camera.

Spesso con chi fa questo discorso il rischio è anche un altro, che modifichi i parametri della camera in funzione del monitor, comprese quelle impostazioni come lo sharpness che non è giudicabile se non in zoom al 100% su monitor esterno e in grande, altrimenti si creano difetti e artefatti che non saranno eliminabili in post.

Mito 6 Ti ho dato un file FullHd è materiale buono

il fatto che il formato di salvataggio sia FullHD non significa che contenga una matrice vera di punti di 1920×1080, ma semplicemente che hanno riempito un file di quel formato con delle informazioni… lo scetticismo nasce dal fatto che negli ultimi 20 anni sono esistite tante macchine che salvavano diversi formati HD fullHD partendo da sensori che non contenevano abbastanza pixel per formare una matrice fullHD, comprese diverse cineprese digitali che usavano trucchi diversi dal Pixel shifting all’upsampling di alcuni canali fino a telecamere che mentivano direttamente sulle loro caratteristiche indicando direttamente i formati di uscita, ma non che avevano sensori molto piccoli, e parlo del numero di pixel e non della dimensione del sensore.

Negli anni sono state fatte camere che avevano sensori 960×540, ma traslando il canale del verde, spacciavano la risoluzione reale in uscita in 1920×1080; sensori fullHD che registravano in HDV 1440×1080 con pixel rettangolari, sensori 1280×720 che registrano file 1920×1080 con upsampling, e si nota dalla minor nitidezza salvando alla risoluzione massima (che dovrebbe offrire al contrario una maggior nitidezza).

Inoltre una camera che gira in FullHD e registra in FullHD potrebbe comunque offrire un pessimo file, se troppo compresso, se mal gestito nel campionamento colore, etc potrebbe rovinare il materiale catturato bene dal sensore.

Anche i cellulari catturano in FullHD e 4K, ma tra la compressione, e se manca la luce il risultato può essere di basso livello. Uso il condizionale perchè ho personalmente catturato da cellulari (di fascia alta) filmati di qualità buona e utilizzabili in diverse situazioni video. La differenza oltre alle condizioni di luce lo fanno l’app di cattura e i settaggi di ripresa.

Mito 7 Ti ho esportato i file originali

se li esportiamo non sono più i file originali…
esistono solo poche eccezionali combinazioni tra codec e NLE in grado di esportare i file originali facendo un taglia e incolla del flusso originale, tranne per i punti di transizione, ma solitamente chi dice di aver esportato i file originali non conosce i sistemi di direct to strem nei programmi di NLE quindi probabilmente avranno fatto danni.

Negli altri casi ogni tipo di esportazione avrà rielaborato i file originali, la maggior parte degli NLE non lavorano in uno spazio colore a 32bit, quindi le probabilità di alterazione dei filmati sarà del 99,99%.

Se anche così non fosse l’esportazione consta di un gigantico file senza stacchi complicato e scomodo da usare per la postproduzione, mentre esportare un file XML con collegati i file originali (tutti gli NLE hanno un sistema di collect, content managment, raggruppamento dei file utilizzati nel progetto).

Ogni scambio di materiale per la lavorazione video la soluzione migliore sarebbe che ci sia un Dit che segue e controlla la procedura, ma in assenza di esso, il miglior modo di evitare perdite di qualità è che si fornisca una copia del girato originale per evitare perdite legate ai diversi passaggi di materiale da parte di persone non addette ai lavori.
Insieme al materiale un file di edit in formato XML FinalCut che è apribile da ogni NLE e programma di Post serio. Una copia Lavoro del filmato per ricontrollare che il materiale esportato corrisponda al materiale creato.

Mito 8 Lavoriamo in interlacciato che è più fluido

no comment… chiunque faccia questo discorso ha un solo alibi, se lavora per filmati che andranno messi in onda, altrimenti la ripresa interlacciata e la ripresa progressiva offrono la stessa fluidità a parità di corrette impostazioni di ripresa di shutter.

Il vantaggio effettivo dell’interlacciatura è che separando al cattura dei campi, i due semiquadri sono sfasati e quindi come tali offrono la percezione di maggior sfuocatura di movimento rispetto alla ripresa classica.

Spesso chi fa la ripresa preferisce l’interlacciatura al progressivo perchè spesso il progressivo è catturato a shutter troppo alti e quindi come tali risultano stroboscopici, per cui la soluzione migliore è la scelta della corretta otturazione, ho dedicato un articolo relativo proprio a questo tipo di problematiche e come agire correttamente.

Di Digital intermediate un must per i corretti workflow di editing e post

Storia dei software di editing

Fin dalla preistoria dei programmi di montaggio c’è sempre stato il problema di gestire il flusso video, in primis per questioni di performance, perché i dati di una pellicola non erano gestibili in tempo reale dai computer degli anni 80, e quindi si lavorava con il concetto dell’Offline, ovvero si creava una copia in bassa qualità del girato, si montava la bassa qualità, poi veniva generata una lista di tagli, e una persona dedicata tagliava e rimontava la pellicola alla vecchia maniera, in moviola con scotch e taglierina. Nel caso del video lo stesso discorso avveniva esportando una EDL (edit decision List) compatibile con le centraline dell’epoca e il video veniva nuovamente montato da zero ripartendo dai nastri.

I primi sistemi di montaggio software utilizzavano il nastro come sistema di archiviazione dati, poi negli anni 80 apparve una evoluzione chiamata EditDroid, fatta creare da un tizio barbuto per montare le sue produzioncine, dato che non era soddisfatto della bassa qualità dell’offline su nastro, Edit Droid era un sistema che utilizzava il Laserdisk come supporto, per cui il computer in realtime leggeva e saltava da un laserdisk all’altro (c’erano più lettori in linea) in modo rapido e con una buona qualità rispetto al nastro, con la soddisfazione del personaggio in questione e il suo amico che girava sempre con il cappello da baseball calcato sulla testa, i due strani personaggi che insistevano tanto sulla qualità e sul portare il montaggio ad un livello maggiore erano Lucas e Spielberg, che erano sicuri della rivoluzione in corso.

Negli anni 90 nacque Avid, il primo sistema di massa per il montaggio Offline, dove anche se si montava materiale in bassa qualità, una finestra da 320*200 pixel, con una compressione molto alta, era un modo rivoluzionario rispetto ai precedenti sistemi perché non richiedeva tutto lo spazio per i lettori dei laserdisk stile EditDroid, aveva una compressione variabile (in un’epoca in cui 120 MEGA di hard disk costavano quanto 5.000 euro di oggi, quindi era fondamentale ottimizzare lo spazio), permetteva di lavorare con strumenti più evoluti rispetto ai precedenti.

Fin dalla sua nascita Avid basò il suo flusso di lavoro su il codec DI Avid, ovvero il materiale originale era convertito in un formato più adatto a lavorare il video, pur mantenendo le informazioni come codici di tempo per il montaggio finale da centraline, codici pellicola per un taglio preciso, strumenti più vicini a quella che era la mentalità dell’epoca di montatori video e cinema.

Con il passare del tempo questo codec di lavorazione si è evoluto fino all’attuale DnxHR che supporta una risoluzione spaziale virtualmente infinita, e può essere codificato in qualità 4:4:4 per essere non solo un codec off-line a codec on-line.

Facciamo un salto in avanti di qualche anno, nascono diversi software di montaggio video e ogni marchio svilupperà il proprio codec di lavoro, che nel tempo si sono evoluti, da codec offline, quindi di bassa qualità, ma alta compressione al principio opposto ovvero un codec DI, Digital Intermediate.

Cos’è il codec DI?

Un codec DI, Digital intermediate è un codec di lavorazione che nasce per essere il modo migliore di gestire il materiale audio video che abbiamo realizzato, un Di nasce per essere :

  • un codec di altissima qualità e livello visivo
  • leggero da usare, leggere e scrivere su qualunque programma
  • supportare profondità colore anche maggiore del file di partenza per agevolare la correzione colore e preservare ogni tipo di informazione.
  • permettere ricompressioni (generazioni multiple) senza perdite apparenti

Anche se la maggior parte dei programmi di montaggio moderni prevedono la possibilità di usare i file nativi, in molte situazioni è molto più efficiente come velocità e qualità convertire i file in un codec DI per gestire meglio il materiale video.

Perchè usare un codec DI

per quanto il nostro sistema di editing sia potente, veloce, ottimizzato, arriveremo sempre al suo limite, o per quantità di tracce, effetti, o per filmati a crescente risoluzione e profondità colore (4k HDR), quindi è importante sapere che possiamo ottimizzare le capacità e potenzialità dei nostri computer sfruttando questo tipo di codec alternativo ai codec originali.
Una buona ragione per usare un codec DI?

  1. possibilità di editare e riprodurre correttamente video pesanti che la macchina non sarebbe in grado neanche di riprodurre
  2. possibilità di editare e manipolare in modo più rapido il video
  3. esportare in un formato non a perdita, ma che conservi la qualità originale senza occupare tutto lo spazio del non compresso
  4. poter usare un codec che non venga INTERPRETATO ma letto direttamente per evitare le strane problematiche che possono nascere con codec h264/5, Mpg di vario tipo etc etc
  5. usare un codec universalmente riconosciuto da ogni programma che acceda ai codec di sistema sui due principali sistemi operativi (MacOsX e Windows), senza doversi legare ad un programma o a un sistema, che in passato ha creato problematiche e incompatibilità di vario genere.

I miti sui DI

  1. Ma se converto in perdo qualità….
    la perdita di qualità è relativa alla conversione in formati a perdita, non con i DI che nascono esattamente per preservare e mantenere la qualità orginale.
    La conversione va fatta con software dedicati, mentre spesso la perdita di qualità si nota nell’uso di utility di dubbie origini e/o per uso amatoriale, che per convertire rapidamente usano scorciatoie di vario tipo per accelerare le lavorazioni e quindi scartano informazioni secondo loro non utili.
  2. Ma se converto con il codec DI xxx è più pesante…
    verissimo per il peso sul disco, al contrario sulla CPU, perchè un codec DI converte i frame da GOP (group of picture) in frame completi, per cui occuperà un maggior spazio sul disco, ma il processore sarà sollevato dai compiti di estrazione dei singoli frame ogni volta che si farà play, avanti, indietro, etc e quindi potrà dedicare i processi alla elaborazione e non alla semplice estrazione dei frame.
  3. Perdo tempo a convertire invece che usare direttamente…
    questo è il mito più ridicolo… le persone spesso vedono come tempo perso il tempo di copia e conversione in DI, ma non si accorgono di tutti i rallentamenti che avvengono quando si deve attendere le preview, il calcolo degli effetti, i tempi di analisi durante il montaggio. Usare un DI accelera tutti i processi di rendering e analisi, quindi il tempo di conversione si fa una volta, tutti i tempi di elaborazione durante il progetto vengono sollevati grazie al codec DI.
  4. Ma se poi non posso più leggere il codec XX su un’altra macchina?
    i codec DI nascono per la compatibilità, per cui TUTTI sono installabili GRATIS su ogni macchina windows e MacOsX, e spesso sono già integrati sulle suite dei maggiori prodotti di Editing e Post.
    Ad esempio Adobe e Blackmagic Design hanno acquisito i diritti per fornire di serie con i loro prodotti encoder e decoder per leggere senza installazioni aggiuntive Prores, Cineform, Avid dnxHD/HR, e per quanto riguarda BMD anche i codec GrassValley.
    Se per una qualunque ragione vogliamo visualizzare i file su una piattaforma che non ha questi software è possibile scaricare i codec free per vedere e codificare TUTTI questi codec sui software che leggono dal sistema le librerie dei codec sia sotto MacOsX che Windows.
  5. Se il mio cliente non può installare codec?
    partiamo dal principio che di serie senza codec praticamente si può leggere poco o niente su qualunque sistema operativo, perchè persino l’mpg2 senza un lettore dvd software installato non si può leggere sotto windows perchè non hanno acquistato i diritti, stessa cosa sotto MacOsX che legge i dvd, ma non gli mpeg2 dai software se non ha lui stesso i codec, viene letto giusto l’h264 e poco più.
    Comunque il cliente mica deve vedere i file originali, e/o consegnare il master al cliente, il cliente riceverà il prodotto finito, che sarà un file compresso, non un DI.
    Se il cliente pretende di avere un master o il girato, dovrà anche avere i mezzi per leggerli correttamente… il concetto che non può installare codec non può riguardare la visione il materiale intermedio, e comunque potrà chiedere al reparto IT di installare i codec relativi dato che nessuno di essi offre problemi di compatibilità o rischi di sicurezza (la bufala del quicktime risale ad una versione di quasi 10 anni fà, del 2008, che Apple chiuse ai tempi, l’ultima release del QT per windows non ha nessun rischio di sicurezza).
  6. Qualcuno mi ha detto che è meglio lavorare con i file nativi
    quel qualcuno probabilmente intendeva non comprimere i dati ulteriormente convertendoli in formati a perdita, oppure quando si parla di file raw per la parte del montaggio, ma quando si lavora con quel tipo di dati o si ha un DiT che gestirà il workflow o si saprà bene cosa fare e quindi tutto questo discorso e questa domanda non sarà posta.

 

Come scegliere la lente per la ripresa, perchè sceglierla…

Due chiacchiere con una amica regista mi ha dato uno spunto per un articolo sulle lenti e sulle focali, su come andrebbero usate, e in questo caso il condizionale d’obbligo, perchè ci sono regole stilistiche, ma ci sono anche necessità pratiche, per cui … non amando le regole, preferisco fare una disanima più ampia, in modo da capire cosa succede quando si fanno le diverse scelte e quindi quale saranno le conseguenze sulle immagini.

Esistono tanti miti, tante regole, hanno riempito libri su libri su come si usano le lenti e le focali in fotografia e/o in cinematografia, ma spesso si tende a spargere le informazioni in troppe centinaia di pagine, e spesso le persone non sono interessate alla teoria, ma al risultato pratico.

Focale fissa o Zoom?

La prima scelta che di solito si deve affrontare è se prendere delle focali fisse o degli zoom, e le motivazioni sono molto semplici nella scelta.

La focale fissa offre i seguenti vantaggi:

  • maggior qualità ottica.
  • minor breathing durante il cambio di fuoco (ingresso di aria e leggero spostamento della lente durante il cambio di fuoco).
  • maggior luminosità a parità di fascia di prezzo degli zoom.
  • maggior robustezza in caso di maltrattamento delle lenti.
  • minor numero di lenti per comporre l’obiettivo quindi meno riflessi interni e meno problematiche di riflessi interiori.
  • maggior possibilità di essere tropicalizzato.

Offre un paio di svantaggi

  • essendo una focale fissa costringe l’acquisto di più lenti per coprire un certo range di ripresa.
  • cambiando le diverse lenti è possibile introdurre polvere e detriti all’interno della lente o sul sensore.
  • difficilmente posseggono sistemi di stabilizzazione per la ripresa video.
  • essendo a focale fissa, costringe a muovere la camera per cambiare inquadratura (il che non è necessariamente un difetto).

Gli zoom contenendo più focali al loro interno offrono diversi vantaggi :

  • cambiare la focale non richiede un cambio lente.
  • spesso hanno un buon livello di stabilizzazione per le riprese video.
  • nelle riprese più “run and gun” offrono il vantaggio di poter essere più versatili senza rischiare di far entrare polvere sul sensore.

Di contro ci possono essere degli svantaggi

  • gli zoom spesso offrono meno luminosità degli equivalenti fissi.
  • un buon zoom luminoso diventa molto costoso, anche 10 volte uno zoom normale.
  • spesso gli zoom se non sono cine, non sono parafocali (vedi fondo articolo).
  • gli zoom sono molto più pesanti degli equivalenti fissi.

La scelta dipende dalle proprie necessità e dal proprio budget.

La scelta delle lenti in funzione dell’angolo focale

L’angolo focale è l’angolo visivo che una certa lente è in grado di catturare, questo valore a parità di focale può cambiare, perchè a seconda che la lente sia calibrata dal sensore o no, può esserci il fattore di crop che altera l’angolo focale riducendolo.

Raramente ha senso ragionare con l’angolo focale, perchè comunque si inizierà a leggere equivalenze varie, che alterano la capacità visiva di catturare elementi della lente, ma non conosco nessuno che a occhio sappia dirmi l’angolo focale che gli serve, quindi… è una sega mentale pensare all’angolo focale nella scelta di una lente, mentre è molto più importante pensare alla lunghezza focale, soprattutto perchè nelle equivalenze delle pubblicità non vi dicono a quale serie di errori vi stanno portando.

La scelta delle lenti in funzione della lunghezza focale

La lunghezza focale esprime la distorsione prospettica di una lente in funzione della sua lunghezza, quindi se noi partiamo da un elemento neutro come 50mm, che viene chiamato normale perchè offre la distorsione prospettica dell’occhio umano, possiamo poi scendere o salire per dare maggior spazio o comprimere lo spazio ripreso.

In questa gif animata potete comprendere bene come il cambio di focale cambi completamente la percezione dello spazio, e col salire della focale lo sfondo sembri avvicinarsi al soggetto.
Qui sotto ho riassunto l’effetto delle focali base, poi in realtà a seconda che si usi uno zoom o altri fissi tutti i valori intermedi sono proporzionali come resa tra una focale e l’altra.

L’effetto delle diverse focali si divide in tre componenti :

La resa tridimensionale avviene sia in caso di ripresa statica, che in movimento.
Il movimento camera viene alterato dalla lunghezza focale, più è bassa la lunghezza focale, maggiore è la velocità percepita; maggiore è la lunghezza focale, minore è la velocità percepita nel movimento.
La profondità di campo è influenzata in modo inversamente proporzionale dalla lunghezza focale, minore è la lunghezza focale, maggiore è la profondità di campo, maggiore è la focale minore è la profondità di campo.

  • 14mm supergrandangolo che deforma lo spazio, accelera ogni movimento laterale, se usato per soggettive o piani sequenza offre una resa molto forte del movimento laterale.
  • 24mm grandangolo che offre maggior spazio e una deformazione della prospettiva.
  • 35mm angolo di ripresa maggiore ma non ci sono deformazioni apprezzabili.
  • 50/55mm normale stessa resa dell’occhio umano.
  • 85mm leggero schiacciamento delle profondità e i piani tendono a sembrare più vicini, ma grazie alla sfuocatura di campo permettono un distacco maggiore tra soggetto in pp e lo sfondo.
  • 100mm tele aumenta lo schiacciamento dei piani e lo stacco tra soggetto e primo piano.
  • 200mm tele più spinto, amplifica lo schiacciamento tra i piani, utile per dettagli o riprese che si capisca della ripresa da distanza.

Un 17 mm offre una distorsione doppia rispetto ad un 35mm, quindi andrebbe usato in funzione di un maggior spazio di azione, altrimenti l’ambiente e gli elementi tenderanno a distorcersi in modo vistoso, ma se abbiamo la necessità di catturare un angolo maggiore visivo saremo costretti a scegliere una lente in funzione dell’angolo invece che della resa prospettica.

Ci sono autori che amano il grandangolo, per la sua capacità di rendere grottesche le forme e distorcere la realtà, uno di questi è l’ex Monthy Python Terry Gilliam.

Un’altro amante della deformazione grottesca è il francese Jean-Pierre Jeunet, che ama le sue distorsioni portando molto vicina la camera ai soggetti distorcendo geometrie, visi, amplificando nella distorsione le emozioni degli attori.

Il recente premio Oscar Emmanuel Lubezki è un altro amante dei grandangolari spinti, in favore della maggior dinamicità che offrono, e contrariamente ai due precedenti autori che amano la distorsione, lui tende ad usarlo in ampi spazi per esaltare e amplificare lo spazio, dando una maggior sensazione di ariosità alle scene d’azione.

Altri autori, come Hitchcock, amano usare la terna classica dei fissi 35-50-85mm per raccontare le loro storie, ma zio Alfred non disdegnava gli zoom per lavorare più rapidamente (forte della sua lunga esperienza di produzione televisiva) e per ottenere effetti particolari come l’effetto Vertigo, che naque su sua richiesta.

Personalmente sono un pragmatico, conosco la resa di queste focali, aggiungo alla terna classica altre focali, scelgo focali sotto il 35mm solo in situazioni particolari, per necessità di ripresa, mentre mi piacciono le focali lunghe per schiacciare le prospettive, per catturare dettagli, o ottenere effetti particolari. Ma se ci troviamo in uno spazio ristretto e la storia richiede di raccontare nell’inquadratura più elementi si deve trovare il modo, o con giochi di specchi (Orson Welles insegna) oppure useremo una lente con una focale più corta del solito, per raccogliere ogni briciolo di elemento nell’inquadratura.

Lenti e zoom fotografici o Cine, quali sono le differenze?

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

Con l’avvento delle video dslr sono nate tante dicerie, miti e leggende su cosa sia meglio o peggio, il tutto mescolato da quel calderone che è il web 2.0.
Le lenti fotografiche sono nate per la fotografia, quindi con necessità di un certo tipo, anche se usate per il video non offrono esattamente lo stesso tipo di performance.

Le lenti fotografiche offrono un’ottima qualità di ripresa, ma non essendo nate per la ripresa continua spesso mancano delle seguenti caratteristiche :

  • breathing, le lenti fotografiche nella maggioranza soffrono di questo fenomeno che per lo spostamento delle lenti interne si dice che “respirino” ovvero entra aria all’interno delle lenti con l’aspirazione di eventuale polvere, ma soprattutto nei cambi di fuoco comporta un leggero movimento, che spesso è fastidioso nelle immagini. Nel caso di lenti fotografiche tropicalizzate il fenomeno è ridotto, ma non annullato, perchè lo spostamento lenti esiste comunque e quindi si evita solo l’ingresso della polvere.
  • diaframma cliccato, ovvero il diaframma può essere aperto e chiuso solo in passi ben precisi, mentre una lente cine prevede una manipolazione del diaframma continua, quindi possiamo impostare qualunque frazione di diaframma per trovare la corretta esposizione.
  • Parafocale, quando si lavora con gli zoom nella maggior parte delle lenti fotografiche cambiando la focale si deve correggere la messa a fuoco, quindi non si può fare una zoomata e mantenere il fuoco, mentre uno zoom cinematografico sarà parafocale, quindi una volta stabilito il fuoco, rimarrà su tutta la lunghezza focale dello zoom.
    (gli zoom broadcast delle telecamere sono normalmente parafocali e fanno parte di una categoria a parte)
  • robustezza, anche se prodotte con le migliori intenzioni, le lenti fotografiche nascono per scatto singolo e soprattutto essere trasportate con la macchina, quindi la leggerezza è un punto fondamentale, contro la robustezza. L’attacco PL cinema è un aggancio notevolmente più robusto rispetto a quello fotografico, per cui diventa evidente come la lente diventi un tutt’uno con il corpo macchina, in favore di cambi di fuoco e il resto.

Da questa breve disamina diventa evidente come lenti fotografiche e cinema abbiamo criteri di costruzione differenti, per destinazioni differenti.
Questo non significa che non si possano usare lenti fotografiche al posto di quelle cinema, considerato il diverso costo sia di acquisto che di noleggio, è il motivo per cui l’attacco EF (attacco canon fotografico) sia diffuso anche tra diverse cineprese digitali, la cosa importante è conoscere i limiti delle lenti fotografiche usandole in ripresa, e quindi aggirarli o lavorare entro i limiti e sfruttarne tutti i punti positivi.

Quale marchio è migliore?

questa è la domanda più semplice a cui rispondere: nessuno…

Ogni dop ha le sue preferenze, ogni lavoro può richiedere lenti diverse e risultati diversi, ogni regista ha un gusto particolare e quindi può richiedere lenti più “cliniche” o più “morbide”, con più o meno “carattere”, che diano atmosfera o sappiano catturare particolari sfumature di luce. Ci sono amanti delle Zeiss per la loro resa di contrasto mentre altri preferiscono le Cook, più morbide e meno asettiche, altri ancora lenti speciali come le Voitlander, e molte altre ancora, ognuno ha le sue preferenze e condivido le scelte.

La scelta è molto vasta, e oggi ancor di più si differenzia più di ieri, infatti molti produttori di lenti stanno “tornando indietro”, come Cooke che ha deciso di produrre le sue lenti anche senza il coating superficiale per proteggere le lenti dai flare delle luci e ottenere una resa più vician a quella della produzione delle Cook degli anni 60-70, perchè si sta tornando ad un certo gusto ottico visivo relativo a come la luce veniva massaggiata dalle lenti senza coating.

Ultron Voitlander 55mm 1.4 AR lente radioattiva degli anni 70 su sensore 4k moderno.

Io stesso a seconda delle situazioni ho preferenze diverse, sono amante delle lenti vintage, ma sono conscio dei loro limiti, quindi ho anche lenti moderne; mi piacciono i fissi, ma ho una coppia di zoom molto luminosi per la loro versatilità. In un mondo digitale dove teoricamente tutto è riproducibile, tornare al concetto che si possa gradire l’uso di un tipo di lente contro un’altro per puro gusto visivo personale ci permette di avere una certa libertà…
Se poi, come un certo Stanley volessimo crearci il nostro parco ottiche, perchè gradiamo quella particolare luce di quella lente prodotta nel piccolo stabilimento tedesco, su progetto di xxx con componenti tedeschi e giapponesi… beh… è il bello del mondo moderno, un giro su uno store moderno, un occhio ai mercatini di ebay su tutto il mondo e la nostra luce potrà essere… unica.

Esporre con i falsi colori

Quando si lavora in esterni, ma anche in interni, non sempre è facile giudicare l’esposizione dai monitor, un buon Dop userà un esposimetro per controllare l’esposizione, ma spesso può essere utile usare anche degli strumenti digitali per misurare la luce catturata dal sensore, strumenti come la zebra e l’istogramma aiutano a capire come è distribuita la luce nell’inquadratura, ma non sembra aiutano ad esporre.

Esistono diverse ragioni per usare i falsi colori con l’esposimetro, la prima è una questione di consistenza di esposizione tra una inquadratura e l’altra, per semplificare il montaggio e allo stesso tempo mantenere coerenza per post e color correction.
Un buon esposimetro aiuta a capire la differenza di luminosità tra luce e ombra, avere dei colori che indicano le differenze di esposizione nell’immagine, soprattutto potendo fare il play dell’inquadratura precedente e quindi fare il confronto, è un ottimo ausilio al lavoro corretto. Se ne può fare a meno, ma è molto molto comodo.

Registrando in Log e in Raw la curve di cattura delle informazioni è differente rispetto al segnale in 709, per questa ragione è molto importante usare questa tecnica di analisi dell’immagine, in modo da esporre nel modo corretto e sfruttare allo stesso tempo tutta la gamma dinamica disponibile. Quando si lavora con i falsi colori è fondamentale visualizzare in Log, ed eventualmente usare una LUT per visualizzare l’immagine nel monitor corretta.

Da diverso tempo le camere e molti monitor offrono la mappatura con falsi colori per capire come sono esposte le diverse aeree dell’immagine, dove la luminosità viene mappata su colori differenti e quindi abilitandola è facile capire se stiamo esponendo in modo corretto o no.

In questa immagine è possibile vedere la gamma dei colori dal buio a sinistra fino alla luce piena a destra. Da una rapida analisi possiamo vedere come una buona immagine dovrebbe apparire tra il grigio scuro e il giallo appena accennato, per evitare ombre troppo profonde da generare troppo rumore, e il rosso del bianco completamente clippato.

Questo esempio mostra due esposizioni diverse, che a prima vista sono poco differenti a monitor, ma con i falsi colori è semplice capire cosa è sottoesposto.
L’immagine di sinistra mostra il blu nelle foglie, il che evidenzia che è al di sotto dell’ombra scura, ma è sottoesposta, mentre il grigio scuro è ancora in un range più che utilizzabile, e le parti verdi indicano che abbiamo un buon dettaglio (18% di grigio), sulle alte luci abbiamo un giallo miscelato con il grigio chiaro, quindi sono alte luci perfettamente recuperabile e piene di dettaglio.
L’immagine di destra mostra la scatola colorata, le foglie tra rosa – grigio e verde, quindi abbiamo una esposizione corretta sulle foglie, sull’immagine in generale. Ma la finestra che è tra il giallo (limite delle alte luci) e il rosso, quindi le alte luci sono bruciate.

Ora come è semplice dedurre, la immagine perfetta oscilla tra il grigio scuro e il grigio chiaro, quando vediamo blu stiamo perdendo nelle ombre, quando vediamo giallo stiamo perdendo sulle alte luci, se abbiamo viola abbiamo ombre chiuse a nero, se abbiamo rosso abbiamo bruciato le alte luci. Naturalmente dipende dall’immagine, perchè se stiamo realizzando una immagine noir è normale avere una parte dell’immagine viola perchè completamente nera, ma useremo le altre tonalità per illuminare correttamente le parti in luce.

Se vogliamo illuminare in modo bilanciato una scena, basterà guardare attraverso il monitor e compensare illuminando quello che è blu, o proteggendo quello che diventa giallo.

Perchè è importante isolare correttamente le aree da illuminare? Perchè sottoesponendo una parte che dovrebbe essere in luce andiamo a generare noise, e alle volte più di quanto si possa immaginare. Esporre l’area in verde o in grigio scuro da questa differenza che vedete sotto (a sinistra grigio scuro, a destra verde). la differenza a livello di immagini è tra lo stop e 3/4 di stop che spesso si potrebbe non vedere, ma in realtà quando si osserva con i falsi colori si vede la differenza, e alla fine dello shooting, la differenza si sente.

Page 1 of 8

Powered by WordPress & Theme by Anders Norén