Carlo Macchiavello

Tutto è possibile

Category: Tecnica (Page 1 of 5)

Workflow per la stopmotion

Workflow… una parola spesso osteggiata, perchè implica un certo tipo di lavoro, di processo e spesso se non se ne comprendono i vantaggi potrebbe essere depracato in favore di processi più semplici, già provati e vissuti.

Personalmente sono un maniaco del controllo, della gestione di tutto, dai file alle immagini, fino al video e agli elementi 3d,e quindi in ogni tipo di lavoro posso inizialmente giocare per prendere confidenza con gli elementi, ma quando si tratta poi di lavorare seriamente, studio tutto il possibile per trovare il workflow migliore, che mi permetta di rendere al meglio i miei sforzi.

Alle volte dò per scontato troppe cose, dopo una semplice chiaccherata con una persona, ho capito che forse era utile buttar giù due righe su come gestire facilmente sequenze di file raw, in particolare quelli derivati da sequenze fotografiche, che potrebbero essere semplicemente un timelapse, oppure più importante, una animazione stopmotion, dove sudore e sangue sono stati spesi durante le ore per costruire fotogramma dopo fotogramma la magia dell’animazione.

Cos’è una sequenza di frame?

Un insieme di fotogrammi separati che devono essere gestiti come gruppo, ma vengono visti come singoli elementi. A seconda dei programmi potranno essere visti come un unico elemento (Resolve, Premiere, AfterEffects per esempio) o come tante fotografie separate (Photoshop o Lightroom).

Perchè scattare in raw invece che in jpeg?

Nella stopmotion da diversi anni si utilizzano le Dslr per lo scatto singolo, più comode, più semplici, più potenti della classica cinepresa da stopmotion, e con le nuove funzionalità digitali si possono usare tanti aiuti digitali come i programmi per la stopmotion, uno tra questi è DragonFrame, che permette di vedere, previsualizzare l’animazione mentre si lavora, disegnare curve di animazione, gestire più facilmente il reshooting e molto altro.

Quando si scatta con una DSLR ci sono più opzioni di salvataggio delle fotografie, il classico jpeg a due o tre livelli di compressione, alcune camere salvano in tiff, mentre il meglio si ottiene salvando nel formato detto RAW.

Il raw in realtà non è un vero e proprio formato, ma un metodo di salvataggio dei dati grezzi del sensore della camera prima che siano elaborati dalla stessa; ogni camera ha un chip di process dell’immagine che elabora i colori, la luminosità, etc per poi salvare le immagini come tif o jpeg, ma la maggior parte delle camere potendo salvare i dati grezzi come raw offrono la opzione di salvare al volo più o meno tutto quello che il sensore è in grado di catturare, poi dopo con calma elaborare i dati.

Ogni brand ha il suo formato raw, che viene poi gestito all’interno delle diverse applicazioni in più modi e con metodi diversi, per gestire questo tipo di file ci sono diversi metodi di lavoro.

Utilizzare il raw offre un controllo sull’immagine, sulla qualità, sulle correzioni veramente unico, inoltre basta poco a livello pratico per migliorare una immagine perchè banalmente… un jpeg classico è un file a 8bit, mentre un raw quando è scarso è a 12bit, vuol dire che se in un jpg posso registrare al massimo 16 milioni di sfumature, nel raw peggiore che possiamo registrare ne abbiamo almeno quasi 69 MILIARDI, cioè 4294 volte più ricco del jpeg…

Workflow rapido

ovviamente un file raw ha un peso maggiore di un jpeg, anche se non sempre tanto alto proporzionalmente alla qualità estesa, per cui spesso girare scattare in raw per eventi come i timelapse e l’animazione stop motion è conveniente e richiede poco lavoro in più, in cui in realtà quasi tutto è automatico, ma consente di avere una qualità maggiore a livello globale, maggior flessibilità operativa, e in caso di problemi avere più di quattromila volte lo spazio di azione in post. Inoltre in caso di recupero di immagini sovra o sottoesposte, non essendo danneggiate dalla compressione jpeg, si possono recuperare agilmente diversi stop senza problema.

Il workflow più efficiente per ottimizzare tempi e qualità può essere il seguente:

  1. Scatto raw
  2. Utilizzando Lightroom eseguire la divisione per cartelle per ogni scena e/o sequenza per ottimizzare l’organizzazione globale, usando il nome delle cartelle/file relativi alla scena per semplificare ricerca e organizzazione.
  3. Archiviazione dei DNG per future possibili lavorazioni
  4. Uso di MediaEncoder per la creazione dei file h264 per l’editing
  5. Terminato editing, post etc, prima del rendering sostituzione dei file di lavorazione con le clip DNG correttamente leggibili dai prodotti Adobe.

Questi passaggi potrebbero spaventare, ma in realtà sono molto semplici e possono essere gestiti in automatico, con l’ausilio di Adobe Lightroom per la gestione del raw semplificato.

Fase 1

Durante la fase di scatto sarebbe utile dividere in qualche modo le cartelle, diverse dslr prevedono la possibilità di nominare e dividere le cartelle delle card usate direttamente dalla camera, di seguito trovate per i principali brand il metodo di creazione, altrimenti fare riferimento al manuale d’istruzioni della camera.

per Canon si fanno i seguenti step :
– entrare nel Menu –> Impostazione con chiave inglese–> seleziona cartella –> Crea cartella
– entrare nel Menu –> Impostazione con chiave inglese–> seleziona cartella (e si sceglie la nuova)

per Nikon si fanno i seguenti step :
– entrare nel Menu –> Menù di ripresa –> Cartella di memorizzazione –>
seleziona cartella per numero –> Cambiare numero
 – entrare nel Menu –> Menù di ripresa –> Cartella di memorizzazione –> seleziona cartella da elenco

per Sony si fanno i seguenti step :
– entrare nel Menu –> Impostazione –> Nuova cartella
– entrare nel Menu –> Impostazione –> Selez. cartella REG

se non possibile la soluzione più agile è quella di usare un semplice blocknotes con il nome della scena prima del resto, questo fa si che sia più semplice dividere le fotografie rivedendo le foto con un qualunque browser fotografico, dal semplice finder o gestione risorse fino al potente ma gratuito Adobe Bridge.

Fase 2

La gestione della divisione in cartelle e nominazione può essere eseguita da diversi software, lo stesso Lightroom prevede di leggere senza copiare direttamente le cartelle, selezionare le fotografie relative alla scena, file/esporta e esportare i file in una cartella personalizzata (nome scena), rinominando le fotografie esportate, convertendole in Dng, formato più agile e comodo da gestire dentro i prodotti Adobe e non solo.

In questa fase possiamo organizzare le diverse fotografie, organizzarle per scene, correggere e ottimizzare le fotografie, prepararle per la fase dell’editing eseguendo correzioni del colore, stabilizzare eventuali differenze di luminosità, ottimizzare la qualità delle fotografie originali.

Fase 3

Il sistema più efficiente per archiviare i Dng è quello di creare una copia su un HD esterno al computer, sono da evitare dvd e bluray che nel tempo possono corrompersi e/o degradarsi facendo perdere la copia di sicurezza.

Fase 4

Adobe Media Encoder, se si apre il suo Browser multimediale, è in grado di vedere una cartella contenente una sequenza di DNG come una sequenza video, quindi è semplice trasportare la sequenza su un preset, e trasformarla da un’agile H264 per l’editing a file meno compressi e di maggior qualità.

Fase 5

Completato l’editing, è possibile sganciare i video creati con mediaencoder e agganciare i file Dng originali con una semplice operazione, selezionando tutte le clip, click destro mettendo offline le clip, poi successivamente, click destro collega oggetto multimediale per collegare direttamente i file DNG e avere tutta la qualità possibile da essi.

Da queste poche indicazioni diventa evidente come sia semplice da Lightroom eseguire delle regolazioni sulle immagini, copiarle da una foto a tutte le altre, e dopo aver esportato le dng usare file più leggeri di lavoro.

Collegarsi saldamente al presente…. QBM una scelta comoda.

Chi segue il mio sito sa come sia appassionato di lenti Vintage, spesso si trascura il passato dove si possono trovare delle lenti molto interessanti e dalla qualità eccezionale per i problemi di adattamento con le baionette moderne. Alcuni marchi come Nikon hanno solo evoluto aggiungendo contatti e altre opzioni allo stesso tipo di baionetta creata dalla Nippon Kogaku degli anni 40, quindi tranne per i primissimi obiettivi che avevano una levella che scontrerebbe contro lo specchio delle macchine moderne (eliminabile con una operazione di bricolage di un paio di minuti) è possibile utilizzare le lenti del passato sui corpi moderni. Altri marchi come Canon, Minolta, Pentax etc hanno fatto modifiche alle baionette, spesso cambiando il tiraggio (distanza sensore/pellicola/piano focale a proiezione della lente) per cui diventa complesso se non impossibile convertire le lenti per le baionette moderne; in alcuni casi diventa molto costosa l’operazione e quindi se la lente non ha un valore storico, qualitativo, affettivo, non ha senso eseguire tale operazione.

Come ho spiegato nell’articolo introduttivo all’adattamento delle lenti, alcuni tipi di baionetta sono adattabili aggiungendo un anello tra la vecchia baionetta e la nuova, ma questa operazione, per quanto si operi o con anelli economici di produzione cinese o si preferiscano anelli di qualità, avviene sempre una sorta di gioco tra le due baionette che spesso inficia la qualità, pochi centesimi di mm e il fuoco si sposta, o se la tornitura non è perfetta un lato può essere meno nitido di un altro; anche quando non si ha gioco, durante la rotazione per la messa a fuoco la presenza dell’anello aggiunge una sorta di frizione aggiuntiva nel movimento, e col tempo il gioco tra i due elementi si crea proprio perchè si sforza sulla rotazione un elemento agganciato. La soluzione migliore è sempre la sostituzione della baionetta perchè crea un corpo unico con la lente, avvitato con il corpo principale e quindi durevole nel tempo, maggior precisione, zero gioco alla torsione, e spesso con cifre più che oneste. A seconda dei mount esistono più o meno baionette adattatrici, ci sono quelle di produzione semplice, come quelle sviluppate da Leitax.com che colmano il gap dei diversi tiraggi e sono di ottima qualità, oppure quelle sviluppate su misura per i singoli obiettivi come quelle di EdMika che disassembla e rende utilizzabili anche lenti CanonFD e Minolta che non sarebbero utilizzabili come tiraggio sulle camere moderne, creando kit su misura per le singole lenti.

Nel mondo delle lenti di produzione tedesca, di cui molti conoscono le mitiche Zeiss, esiste un altro marchio storico, VoigtLander, fondata nel 1756 a Vienna e deputata alla progettazione prima di lenti per binocoli e poi dal 1849 per fotografia di alto livello, alla fine degli anni 50 venne acquistata da Zeiss, cambiando il nome in Zeiss Ikon Voigtlander, poi venduta nel 73 a Rolley, questo particolare storico è il lato che ci interessa, perchè grazie a questo “gemellaggio” furono prodotte una serie di ottiche molto interessanti in quel periodo su schema ottico Zeiss e con elementi prodotti e/o assemblati in Germania da Voigtlander e in Giappone da Mamiya, molte di queste con il mount Rolley chiamato QBM, un mount molto semplice ed economico da sostituire, rendendo moderne come utilizzo lenti di quasi 50anni fà.

In questa semplice descrizione mostro come sia facile sostituire il mount Rolley e inserire un Mount Eos EF per utilizzarlo su camere come Blackmagic Design il mount EF.
In questo caso andiamo a lavorare su un Ultron 55mm 1.4 AR, serie creata su schema e formula Zeiss, la stessa del Planar 55mm 1.4.

In 5 passi si passa da una lente inutilizzabile su Reflex moderne a una lente saldamente attaccata ad un Mount Moderno EF.

1) svitare facendo attenzione le 3 viti posteriori, non sforzare, e usare un cacciavite a misura corretta per non graffiare le viti, ma importante per non rischiare di scivolare sulla lente.
Nel caso non si svitassero per colpa dell’età un trucco è quello di prendere un cotton fiock, bagnarlo con acetone industriale e appoggiarlo gentilmente sulla vite che non si svita per un paio di secondi, l’acetone industriale scioglie l’eventuale sedimento o colla usata da alcune aziende nel fissaggio delle viti. Se sentite ancora una forte resistenza, si può provare a girare la vite in senso orario di poco e poi antiorario per svitare, spesso le viti bloccate è più facile forzare prima nel senso di avvitamento e poi svitare.
2) prima di estrarre la baionetta, utiizzare una punta o altro elemento per bloccare il perno di autoapertura del diaframma, perchè se esce con la baionetta poi diventa complesso gestire il rimontaggio. In questo caso era già stato bloccato dal precedente proprietario, quindi non è stato difficile estrarre la baionetta e lasciare l’elemento al suo posto.
3) allineare la nuova baionetta al posto della vecchia curando che coincidano le viti, ma soprattutto che la parte di blocco dell’elemento sia allineata alla presenza del perno.
4) inserire leggermente le viti avvitandole con le dita, per verificare che tutto sia allineato perfettamente, evitando in questa fase sforzi o altro che possano minare la sede della filettatura.

5) Concludere stringendo le tre viti nella sede, in modo da legare saldamente la nuova baionetta con il corpo lente.

Il gioco è fatto…

A questo punto abbiamo una splendida lente, che concorre in qualità con il Planar Zeiss 55mm 1.4 degli anni 70, ma ad una frazione del suo prezzo, e rispetto a molti modelli con anche una nitidezza laterale a tutta apertura superiore al Planar stesso.

Scambiamoci i file… sappiamo come fare?

Negli ultimi 20 anni, si ho scritto venti, ma uso i computer da più di 34 anni, e sono meno vecchio di quanto pensiate, ho scambiato milioni di file, e più passa il tempo e più mi rendo conto che ci sia IGNORANZA COMPLETA su cosa vuol dire fornire i file originali.

Pur essendo un regista, ho sviluppato una buona competenza (in inglese “quite good knowledge” in americano “i’m a god”) nel montaggio e postproduzione video e cinema, dal postprocessing al digital compositing, color grading e 3d animation.

Il problema più grande quando si lavora con le altre persone è l’ignoranza e la superficialità con cui molte persone trattano i file, causando danni con compressioni inutili, e/o conversioni mal fatte che degradano i materiali.

Se non sapete cosa state facendo (90% delle persone) NON TOCCATE NULLA.

In questo post ho deciso di elencare tutte le regole/consigli per importare e/o scambiare i materiali tra progetti e/o programmi e ottenere i migliori risultati. Prima di fare questo sfatiamo qualche mito, perchè prima di metterci a lavorare sul tavolo è meglio pulirlo :

Mito 1 Il peso del file determina la qualità!

Vero, entro certi termini, nel senso che un file molto pesante teoricamente può contenere molte più informazioni, ma anche un file leggero, se ben codificato può contente molte informazioni, per cui il peso da una informazione relativa della qualità generale, ma non è l’elemento definitivo di giudizio.

Mito 2 Un file compresso è più leggero!

Non è vero, è più leggero solo come peso sulla card, ma a livello di calcolo e quindi di utilizzo è più pesante.
Quando si registra un file con una telecamera, videoreflex lo scopo medio di queste macchine è permettere di portare a casa file che abbiano un equilibrio tra peso e qualità, quindi i file hanno codifiche che ottimizzano il peso del file, usando un codec (ieri mpg2, oggi H264 e h265) che usando la codifica hardware (un chip sulla camera) registra le informazioni dei diversi frame in modo da occupare meno spazio, ma tale scelta comporta che non si registrino tutte le informazioni, usando algoritmi che ottimizzano le informazioni.

Nel momento in cui si apre questo file in un programma di montaggio o di post il file, evidentemente nato per rec e play, richiederà un maggior sforzo e quindi prestazioni dal computer per essere Editato, infatti spesso nel campo professionale i diversi programmi di NLE hanno i loro codec DI (Digital Intermediate) nei quali convertono i girati, in modo che tutte le informazioni siano accessibili in modo veloce e rapido. Avid ha DNxHD, Edius ha il suo GV, Adobe ha cineform (di serie da cc2014), Finalcut il ProRes, tutti codec nati per essere usati nel montaggio, che hanno spazio colore ampio, velocità di accesso ai dati, ottimizzati anche per rendering a cascata con perdite ridotte.

Mito 3 Se converto perdo sempre qualcosa!

non è esatto, la conversione può far perdere la qualità  solo se si converte verso il basso, ovvero in un formato più compresso, con meno spazio di codifica colore, o con un bitrate più svantaggioso.
Esistono dei codec di qualità verso i quali convertire può essere conveniente sia per lavorare i video che editarli semplicemente. Se si parte con un file a bassa qualità la conversione verso un formato più ricco non lo potrà migliorare (al max un upsampling del rosso per evitare degradi in post spinta), ma almeno eviterà perdite di qualità durante la manipolazione dello stesso file.

Mito 4 Tanto è digitale quindi è buono

l’idea che l’origine offra una garanzia di qualità è talmente banale, che non vedo perchè debba essere confutata…
quindi dato che acquisisco un vhs in 4k digitale avrò un file di ottima qualità, oppure se ho un prodotto in pellicola 70mm non è di ottima qualità perchè è un mezzo analogico di registrazione dei dati.

Mito 5 Se lo vedo bene in camera va bene per tutto

Dipende la camera come mostra le immagini… la prima accezione che si può fare è che la maggior parte delle camere non hanno monitor della stessa risoluzione di ripresa e/o di dimensioni corrette per giudicare la qualità del materiale girato. Inoltre molti scambiano la visione del materiale live con la registrazione, il fatto di vedere bene le immagini durante la ripresa non significa che il materiale sia registrato in quel modo. Ad esempio la mia vecchia HDV30 aveva un sensore FullHD, un monitor che era sotto la risoluzione SD, la registrazione in HDV 1440×1080, ma l’uscita da HDMI FullHD pulita che registrata esternamente offre una qualità che non sarà mai apprezzabile intermente dalla camera.

Spesso con chi fa questo discorso il rischio è anche un altro, che modifichi i parametri della camera in funzione del monitor, comprese quelle impostazioni come lo sharpness che non è giudicabile se non in zoom al 100% su monitor esterno e in grande, altrimenti si creano difetti e artefatti che non saranno eliminabili in post.

Mito 6 Ti ho dato un file FullHd è materiale buono

il fatto che il formato di salvataggio sia FullHD non significa che contenga una matrice vera di punti di 1920×1080, ma semplicemente che hanno riempito un file di quel formato con delle informazioni… lo scetticismo nasce dal fatto che negli ultimi 20 anni sono esistite tante macchine che salvavano diversi formati HD fullHD partendo da sensori che non contenevano abbastanza pixel per formare una matrice fullHD, comprese diverse cineprese digitali che usavano trucchi diversi dal Pixel shifting all’upsampling di alcuni canali fino a telecamere che mentivano direttamente sulle loro caratteristiche indicando direttamente i formati di uscita, ma non che avevano sensori molto piccoli, e parlo del numero di pixel e non della dimensione del sensore.

Negli anni sono state fatte camere che avevano sensori 960×540, ma traslando il canale del verde, spacciavano la risoluzione reale in uscita in 1920×1080; sensori fullHD che registravano in HDV 1440×1080 con pixel rettangolari, sensori 1280×720 che registrano file 1920×1080 con upsampling, e si nota dalla minor nitidezza salvando alla risoluzione massima (che dovrebbe offrire al contrario una maggior nitidezza).

Inoltre una camera che gira in FullHD e registra in FullHD potrebbe comunque offrire un pessimo file, se troppo compresso, se mal gestito nel campionamento colore, etc potrebbe rovinare il materiale catturato bene dal sensore.

Anche i cellulari catturano in FullHD e 4K, ma tra la compressione, e se manca la luce il risultato può essere di basso livello. Uso il condizionale perchè ho personalmente catturato da cellulari (di fascia alta) filmati di qualità buona e utilizzabili in diverse situazioni video. La differenza oltre alle condizioni di luce lo fanno l’app di cattura e i settaggi di ripresa.

Mito 7 Ti ho esportato i file originali

se li esportiamo non sono più i file originali…
esistono solo poche eccezionali combinazioni tra codec e NLE in grado di esportare i file originali facendo un taglia e incolla del flusso originale, tranne per i punti di transizione, ma solitamente chi dice di aver esportato i file originali non conosce i sistemi di direct to strem nei programmi di NLE quindi probabilmente avranno fatto danni.

Negli altri casi ogni tipo di esportazione avrà rielaborato i file originali, la maggior parte degli NLE non lavorano in uno spazio colore a 32bit, quindi le probabilità di alterazione dei filmati sarà del 99,99%.

Se anche così non fosse l’esportazione consta di un gigantico file senza stacchi complicato e scomodo da usare per la postproduzione, mentre esportare un file XML con collegati i file originali (tutti gli NLE hanno un sistema di collect, content managment, raggruppamento dei file utilizzati nel progetto).

Ogni scambio di materiale per la lavorazione video la soluzione migliore sarebbe che ci sia un Dit che segue e controlla la procedura, ma in assenza di esso, il miglior modo di evitare perdite di qualità è che si fornisca una copia del girato originale per evitare perdite legate ai diversi passaggi di materiale da parte di persone non addette ai lavori.
Insieme al materiale un file di edit in formato XML FinalCut che è apribile da ogni NLE e programma di Post serio. Una copia Lavoro del filmato per ricontrollare che il materiale esportato corrisponda al materiale creato.

Mito 8 Lavoriamo in interlacciato che è più fluido

no comment… chiunque faccia questo discorso ha un solo alibi, se lavora per filmati che andranno messi in onda, altrimenti la ripresa interlacciata e la ripresa progressiva offrono la stessa fluidità a parità di corrette impostazioni di ripresa di shutter.

Il vantaggio effettivo dell’interlacciatura è che separando al cattura dei campi, i due semiquadri sono sfasati e quindi come tali offrono la percezione di maggior sfuocatura di movimento rispetto alla ripresa classica.

Spesso chi fa la ripresa preferisce l’interlacciatura al progressivo perchè spesso il progressivo è catturato a shutter troppo alti e quindi come tali risultano stroboscopici, per cui la soluzione migliore è la scelta della corretta otturazione, ho dedicato un articolo relativo proprio a questo tipo di problematiche e come agire correttamente.

Di Digital intermediate un must per i corretti workflow di editing e post

Storia dei software di editing

Fin dalla preistoria dei programmi di montaggio c’è sempre stato il problema di gestire il flusso video, in primis per questioni di performance, perché i dati di una pellicola non erano gestibili in tempo reale dai computer degli anni 80, e quindi si lavorava con il concetto dell’Offline, ovvero si creava una copia in bassa qualità del girato, si montava la bassa qualità, poi veniva generata una lista di tagli, e una persona dedicata tagliava e rimontava la pellicola alla vecchia maniera, in moviola con scotch e taglierina. Nel caso del video lo stesso discorso avveniva esportando una EDL (edit decision List) compatibile con le centraline dell’epoca e il video veniva nuovamente montato da zero ripartendo dai nastri.

I primi sistemi di montaggio software utilizzavano il nastro come sistema di archiviazione dati, poi negli anni 80 apparve una evoluzione chiamata EditDroid, fatta creare da un tizio barbuto per montare le sue produzioncine, dato che non era soddisfatto della bassa qualità dell’offline su nastro, Edit Droid era un sistema che utilizzava il Laserdisk come supporto, per cui il computer in realtime leggeva e saltava da un laserdisk all’altro (c’erano più lettori in linea) in modo rapido e con una buona qualità rispetto al nastro, con la soddisfazione del personaggio in questione e il suo amico che girava sempre con il cappello da baseball calcato sulla testa, i due strani personaggi che insistevano tanto sulla qualità e sul portare il montaggio ad un livello maggiore erano Lucas e Spielberg, che erano sicuri della rivoluzione in corso.

Negli anni 90 nacque Avid, il primo sistema di massa per il montaggio Offline, dove anche se si montava materiale in bassa qualità, una finestra da 320*200 pixel, con una compressione molto alta, era un modo rivoluzionario rispetto ai precedenti sistemi perché non richiedeva tutto lo spazio per i lettori dei laserdisk stile EditDroid, aveva una compressione variabile (in un’epoca in cui 120 MEGA di hard disk costavano quanto 5.000 euro di oggi, quindi era fondamentale ottimizzare lo spazio), permetteva di lavorare con strumenti più evoluti rispetto ai precedenti.

Fin dalla sua nascita Avid basò il suo flusso di lavoro su il codec DI Avid, ovvero il materiale originale era convertito in un formato più adatto a lavorare il video, pur mantenendo le informazioni come codici di tempo per il montaggio finale da centraline, codici pellicola per un taglio preciso, strumenti più vicini a quella che era la mentalità dell’epoca di montatori video e cinema.

Con il passare del tempo questo codec di lavorazione si è evoluto fino all’attuale DnxHR che supporta una risoluzione spaziale virtualmente infinita, e può essere codificato in qualità 4:4:4 per essere non solo un codec off-line a codec on-line.

Facciamo un salto in avanti di qualche anno, nascono diversi software di montaggio video e ogni marchio svilupperà il proprio codec di lavoro, che nel tempo si sono evoluti, da codec offline, quindi di bassa qualità, ma alta compressione al principio opposto ovvero un codec DI, Digital Intermediate.

Cos’è il codec DI?

Un codec DI, Digital intermediate è un codec di lavorazione che nasce per essere il modo migliore di gestire il materiale audio video che abbiamo realizzato, un Di nasce per essere :

  • un codec di altissima qualità e livello visivo
  • leggero da usare, leggere e scrivere su qualunque programma
  • supportare profondità colore anche maggiore del file di partenza per agevolare la correzione colore e preservare ogni tipo di informazione.
  • permettere ricompressioni (generazioni multiple) senza perdite apparenti

Anche se la maggior parte dei programmi di montaggio moderni prevedono la possibilità di usare i file nativi, in molte situazioni è molto più efficiente come velocità e qualità convertire i file in un codec DI per gestire meglio il materiale video.

Perchè usare un codec DI

per quanto il nostro sistema di editing sia potente, veloce, ottimizzato, arriveremo sempre al suo limite, o per quantità di tracce, effetti, o per filmati a crescente risoluzione e profondità colore (4k HDR), quindi è importante sapere che possiamo ottimizzare le capacità e potenzialità dei nostri computer sfruttando questo tipo di codec alternativo ai codec originali.
Una buona ragione per usare un codec DI?

  1. possibilità di editare e riprodurre correttamente video pesanti che la macchina non sarebbe in grado neanche di riprodurre
  2. possibilità di editare e manipolare in modo più rapido il video
  3. esportare in un formato non a perdita, ma che conservi la qualità originale senza occupare tutto lo spazio del non compresso
  4. poter usare un codec che non venga INTERPRETATO ma letto direttamente per evitare le strane problematiche che possono nascere con codec h264/5, Mpg di vario tipo etc etc
  5. usare un codec universalmente riconosciuto da ogni programma che acceda ai codec di sistema sui due principali sistemi operativi (MacOsX e Windows), senza doversi legare ad un programma o a un sistema, che in passato ha creato problematiche e incompatibilità di vario genere.

I miti sui DI

  1. Ma se converto in perdo qualità….
    la perdita di qualità è relativa alla conversione in formati a perdita, non con i DI che nascono esattamente per preservare e mantenere la qualità orginale.
    La conversione va fatta con software dedicati, mentre spesso la perdita di qualità si nota nell’uso di utility di dubbie origini e/o per uso amatoriale, che per convertire rapidamente usano scorciatoie di vario tipo per accelerare le lavorazioni e quindi scartano informazioni secondo loro non utili.
  2. Ma se converto con il codec DI xxx è più pesante…
    verissimo per il peso sul disco, al contrario sulla CPU, perchè un codec DI converte i frame da GOP (group of picture) in frame completi, per cui occuperà un maggior spazio sul disco, ma il processore sarà sollevato dai compiti di estrazione dei singoli frame ogni volta che si farà play, avanti, indietro, etc e quindi potrà dedicare i processi alla elaborazione e non alla semplice estrazione dei frame.
  3. Perdo tempo a convertire invece che usare direttamente…
    questo è il mito più ridicolo… le persone spesso vedono come tempo perso il tempo di copia e conversione in DI, ma non si accorgono di tutti i rallentamenti che avvengono quando si deve attendere le preview, il calcolo degli effetti, i tempi di analisi durante il montaggio. Usare un DI accelera tutti i processi di rendering e analisi, quindi il tempo di conversione si fa una volta, tutti i tempi di elaborazione durante il progetto vengono sollevati grazie al codec DI.
  4. Ma se poi non posso più leggere il codec XX su un’altra macchina?
    i codec DI nascono per la compatibilità, per cui TUTTI sono installabili GRATIS su ogni macchina windows e MacOsX, e spesso sono già integrati sulle suite dei maggiori prodotti di Editing e Post.
    Ad esempio Adobe e Blackmagic Design hanno acquisito i diritti per fornire di serie con i loro prodotti encoder e decoder per leggere senza installazioni aggiuntive Prores, Cineform, Avid dnxHD/HR, e per quanto riguarda BMD anche i codec GrassValley.
    Se per una qualunque ragione vogliamo visualizzare i file su una piattaforma che non ha questi software è possibile scaricare i codec free per vedere e codificare TUTTI questi codec sui software che leggono dal sistema le librerie dei codec sia sotto MacOsX che Windows.
  5. Se il mio cliente non può installare codec?
    partiamo dal principio che di serie senza codec praticamente si può leggere poco o niente su qualunque sistema operativo, perchè persino l’mpg2 senza un lettore dvd software installato non si può leggere sotto windows perchè non hanno acquistato i diritti, stessa cosa sotto MacOsX che legge i dvd, ma non gli mpeg2 dai software se non ha lui stesso i codec, viene letto giusto l’h264 e poco più.
    Comunque il cliente mica deve vedere i file originali, e/o consegnare il master al cliente, il cliente riceverà il prodotto finito, che sarà un file compresso, non un DI.
    Se il cliente pretende di avere un master o il girato, dovrà anche avere i mezzi per leggerli correttamente… il concetto che non può installare codec non può riguardare la visione il materiale intermedio, e comunque potrà chiedere al reparto IT di installare i codec relativi dato che nessuno di essi offre problemi di compatibilità o rischi di sicurezza (la bufala del quicktime risale ad una versione di quasi 10 anni fà, del 2008, che Apple chiuse ai tempi, l’ultima release del QT per windows non ha nessun rischio di sicurezza).
  6. Qualcuno mi ha detto che è meglio lavorare con i file nativi
    quel qualcuno probabilmente intendeva non comprimere i dati ulteriormente convertendoli in formati a perdita, oppure quando si parla di file raw per la parte del montaggio, ma quando si lavora con quel tipo di dati o si ha un DiT che gestirà il workflow o si saprà bene cosa fare e quindi tutto questo discorso e questa domanda non sarà posta.

 

Come scegliere la lente per la ripresa, perchè sceglierla…

Due chiacchiere con una amica regista mi ha dato uno spunto per un articolo sulle lenti e sulle focali, su come andrebbero usate, e in questo caso il condizionale d’obbligo, perchè ci sono regole stilistiche, ma ci sono anche necessità pratiche, per cui … non amando le regole, preferisco fare una disanima più ampia, in modo da capire cosa succede quando si fanno le diverse scelte e quindi quale saranno le conseguenze sulle immagini.

Esistono tanti miti, tante regole, hanno riempito libri su libri su come si usano le lenti e le focali in fotografia e/o in cinematografia, ma spesso si tende a spargere le informazioni in troppe centinaia di pagine, e spesso le persone non sono interessate alla teoria, ma al risultato pratico.

Focale fissa o Zoom?

La prima scelta che di solito si deve affrontare è se prendere delle focali fisse o degli zoom, e le motivazioni sono molto semplici nella scelta.

La focale fissa offre i seguenti vantaggi:

  • maggior qualità ottica.
  • minor breathing durante il cambio di fuoco (ingresso di aria e leggero spostamento della lente durante il cambio di fuoco).
  • maggior luminosità a parità di fascia di prezzo degli zoom.
  • maggior robustezza in caso di maltrattamento delle lenti.
  • minor numero di lenti per comporre l’obiettivo quindi meno riflessi interni e meno problematiche di riflessi interiori.
  • maggior possibilità di essere tropicalizzato.

Offre un paio di svantaggi

  • essendo una focale fissa costringe l’acquisto di più lenti per coprire un certo range di ripresa.
  • cambiando le diverse lenti è possibile introdurre polvere e detriti all’interno della lente o sul sensore.
  • difficilmente posseggono sistemi di stabilizzazione per la ripresa video.
  • essendo a focale fissa, costringe a muovere la camera per cambiare inquadratura (il che non è necessariamente un difetto).

Gli zoom contenendo più focali al loro interno offrono diversi vantaggi :

  • cambiare la focale non richiede un cambio lente.
  • spesso hanno un buon livello di stabilizzazione per le riprese video.
  • nelle riprese più “run and gun” offrono il vantaggio di poter essere più versatili senza rischiare di far entrare polvere sul sensore.

Di contro ci possono essere degli svantaggi

  • gli zoom spesso offrono meno luminosità degli equivalenti fissi.
  • un buon zoom luminoso diventa molto costoso, anche 10 volte uno zoom normale.
  • spesso gli zoom se non sono cine, non sono parafocali (vedi fondo articolo).
  • gli zoom sono molto più pesanti degli equivalenti fissi.

La scelta dipende dalle proprie necessità e dal proprio budget.

La scelta delle lenti in funzione dell’angolo focale

L’angolo focale è l’angolo visivo che una certa lente è in grado di catturare, questo valore a parità di focale può cambiare, perchè a seconda che la lente sia calibrata dal sensore o no, può esserci il fattore di crop che altera l’angolo focale riducendolo.

Raramente ha senso ragionare con l’angolo focale, perchè comunque si inizierà a leggere equivalenze varie, che alterano la capacità visiva di catturare elementi della lente, ma non conosco nessuno che a occhio sappia dirmi l’angolo focale che gli serve, quindi… è una sega mentale pensare all’angolo focale nella scelta di una lente, mentre è molto più importante pensare alla lunghezza focale, soprattutto perchè nelle equivalenze delle pubblicità non vi dicono a quale serie di errori vi stanno portando.

La scelta delle lenti in funzione della lunghezza focale

La lunghezza focale esprime la distorsione prospettica di una lente in funzione della sua lunghezza, quindi se noi partiamo da un elemento neutro come 50mm, che viene chiamato normale perchè offre la distorsione prospettica dell’occhio umano, possiamo poi scendere o salire per dare maggior spazio o comprimere lo spazio ripreso.

In questa gif animata potete comprendere bene come il cambio di focale cambi completamente la percezione dello spazio, e col salire della focale lo sfondo sembri avvicinarsi al soggetto.
Qui sotto ho riassunto l’effetto delle focali base, poi in realtà a seconda che si usi uno zoom o altri fissi tutti i valori intermedi sono proporzionali come resa tra una focale e l’altra.

L’effetto delle diverse focali si divide in tre componenti :

La resa tridimensionale avviene sia in caso di ripresa statica, che in movimento.
Il movimento camera viene alterato dalla lunghezza focale, più è bassa la lunghezza focale, maggiore è la velocità percepita; maggiore è la lunghezza focale, minore è la velocità percepita nel movimento.
La profondità di campo è influenzata in modo inversamente proporzionale dalla lunghezza focale, minore è la lunghezza focale, maggiore è la profondità di campo, maggiore è la focale minore è la profondità di campo.

  • 14mm supergrandangolo che deforma lo spazio, accelera ogni movimento laterale, se usato per soggettive o piani sequenza offre una resa molto forte del movimento laterale.
  • 24mm grandangolo che offre maggior spazio e una deformazione della prospettiva.
  • 35mm angolo di ripresa maggiore ma non ci sono deformazioni apprezzabili.
  • 50/55mm normale stessa resa dell’occhio umano.
  • 85mm leggero schiacciamento delle profondità e i piani tendono a sembrare più vicini, ma grazie alla sfuocatura di campo permettono un distacco maggiore tra soggetto in pp e lo sfondo.
  • 100mm tele aumenta lo schiacciamento dei piani e lo stacco tra soggetto e primo piano.
  • 200mm tele più spinto, amplifica lo schiacciamento tra i piani, utile per dettagli o riprese che si capisca della ripresa da distanza.

Un 17 mm offre una distorsione doppia rispetto ad un 35mm, quindi andrebbe usato in funzione di un maggior spazio di azione, altrimenti l’ambiente e gli elementi tenderanno a distorcersi in modo vistoso, ma se abbiamo la necessità di catturare un angolo maggiore visivo saremo costretti a scegliere una lente in funzione dell’angolo invece che della resa prospettica.

Ci sono autori che amano il grandangolo, per la sua capacità di rendere grottesche le forme e distorcere la realtà, uno di questi è l’ex Monthy Python Terry Gilliam.

Un’altro amante della deformazione grottesca è il francese Jean-Pierre Jeunet, che ama le sue distorsioni portando molto vicina la camera ai soggetti distorcendo geometrie, visi, amplificando nella distorsione le emozioni degli attori.

Il recente premio Oscar Emmanuel Lubezki è un altro amante dei grandangolari spinti, in favore della maggior dinamicità che offrono, e contrariamente ai due precedenti autori che amano la distorsione, lui tende ad usarlo in ampi spazi per esaltare e amplificare lo spazio, dando una maggior sensazione di ariosità alle scene d’azione.

Altri autori, come Hitchcock, amano usare la terna classica dei fissi 35-50-85mm per raccontare le loro storie, ma zio Alfred non disdegnava gli zoom per lavorare più rapidamente (forte della sua lunga esperienza di produzione televisiva) e per ottenere effetti particolari come l’effetto Vertigo, che naque su sua richiesta.

Personalmente sono un pragmatico, conosco la resa di queste focali, aggiungo alla terna classica altre focali, scelgo focali sotto il 35mm solo in situazioni particolari, per necessità di ripresa, mentre mi piacciono le focali lunghe per schiacciare le prospettive, per catturare dettagli, o ottenere effetti particolari. Ma se ci troviamo in uno spazio ristretto e la storia richiede di raccontare nell’inquadratura più elementi si deve trovare il modo, o con giochi di specchi (Orson Welles insegna) oppure useremo una lente con una focale più corta del solito, per raccogliere ogni briciolo di elemento nell’inquadratura.

Lenti e zoom fotografici o Cine, quali sono le differenze?

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

Con l’avvento delle video dslr sono nate tante dicerie, miti e leggende su cosa sia meglio o peggio, il tutto mescolato da quel calderone che è il web 2.0.
Le lenti fotografiche sono nate per la fotografia, quindi con necessità di un certo tipo, anche se usate per il video non offrono esattamente lo stesso tipo di performance.

Le lenti fotografiche offrono un’ottima qualità di ripresa, ma non essendo nate per la ripresa continua spesso mancano delle seguenti caratteristiche :

  • breathing, le lenti fotografiche nella maggioranza soffrono di questo fenomeno che per lo spostamento delle lenti interne si dice che “respirino” ovvero entra aria all’interno delle lenti con l’aspirazione di eventuale polvere, ma soprattutto nei cambi di fuoco comporta un leggero movimento, che spesso è fastidioso nelle immagini. Nel caso di lenti fotografiche tropicalizzate il fenomeno è ridotto, ma non annullato, perchè lo spostamento lenti esiste comunque e quindi si evita solo l’ingresso della polvere.
  • diaframma cliccato, ovvero il diaframma può essere aperto e chiuso solo in passi ben precisi, mentre una lente cine prevede una manipolazione del diaframma continua, quindi possiamo impostare qualunque frazione di diaframma per trovare la corretta esposizione.
  • Parafocale, quando si lavora con gli zoom nella maggior parte delle lenti fotografiche cambiando la focale si deve correggere la messa a fuoco, quindi non si può fare una zoomata e mantenere il fuoco, mentre uno zoom cinematografico sarà parafocale, quindi una volta stabilito il fuoco, rimarrà su tutta la lunghezza focale dello zoom.
    (gli zoom broadcast delle telecamere sono normalmente parafocali e fanno parte di una categoria a parte)
  • robustezza, anche se prodotte con le migliori intenzioni, le lenti fotografiche nascono per scatto singolo e soprattutto essere trasportate con la macchina, quindi la leggerezza è un punto fondamentale, contro la robustezza. L’attacco PL cinema è un aggancio notevolmente più robusto rispetto a quello fotografico, per cui diventa evidente come la lente diventi un tutt’uno con il corpo macchina, in favore di cambi di fuoco e il resto.

Da questa breve disamina diventa evidente come lenti fotografiche e cinema abbiamo criteri di costruzione differenti, per destinazioni differenti.
Questo non significa che non si possano usare lenti fotografiche al posto di quelle cinema, considerato il diverso costo sia di acquisto che di noleggio, è il motivo per cui l’attacco EF (attacco canon fotografico) sia diffuso anche tra diverse cineprese digitali, la cosa importante è conoscere i limiti delle lenti fotografiche usandole in ripresa, e quindi aggirarli o lavorare entro i limiti e sfruttarne tutti i punti positivi.

Quale marchio è migliore?

questa è la domanda più semplice a cui rispondere: nessuno…

Ogni dop ha le sue preferenze, ogni lavoro può richiedere lenti diverse e risultati diversi, ogni regista ha un gusto particolare e quindi può richiedere lenti più “cliniche” o più “morbide”, con più o meno “carattere”, che diano atmosfera o sappiano catturare particolari sfumature di luce. Ci sono amanti delle Zeiss per la loro resa di contrasto mentre altri preferiscono le Cook, più morbide e meno asettiche, altri ancora lenti speciali come le Voitlander, e molte altre ancora, ognuno ha le sue preferenze e condivido le scelte.

La scelta è molto vasta, e oggi ancor di più si differenzia più di ieri, infatti molti produttori di lenti stanno “tornando indietro”, come Cooke che ha deciso di produrre le sue lenti anche senza il coating superficiale per proteggere le lenti dai flare delle luci e ottenere una resa più vician a quella della produzione delle Cook degli anni 60-70, perchè si sta tornando ad un certo gusto ottico visivo relativo a come la luce veniva massaggiata dalle lenti senza coating.

Ultron Voitlander 55mm 1.4 AR lente radioattiva degli anni 70 su sensore 4k moderno.

Io stesso a seconda delle situazioni ho preferenze diverse, sono amante delle lenti vintage, ma sono conscio dei loro limiti, quindi ho anche lenti moderne; mi piacciono i fissi, ma ho una coppia di zoom molto luminosi per la loro versatilità. In un mondo digitale dove teoricamente tutto è riproducibile, tornare al concetto che si possa gradire l’uso di un tipo di lente contro un’altro per puro gusto visivo personale ci permette di avere una certa libertà…
Se poi, come un certo Stanley volessimo crearci il nostro parco ottiche, perchè gradiamo quella particolare luce di quella lente prodotta nel piccolo stabilimento tedesco, su progetto di xxx con componenti tedeschi e giapponesi… beh… è il bello del mondo moderno, un giro su uno store moderno, un occhio ai mercatini di ebay su tutto il mondo e la nostra luce potrà essere… unica.

Esporre con i falsi colori

Quando si lavora in esterni, ma anche in interni, non sempre è facile giudicare l’esposizione dai monitor, un buon Dop userà un esposimetro per controllare l’esposizione, ma spesso può essere utile usare anche degli strumenti digitali per misurare la luce catturata dal sensore, strumenti come la zebra e l’istogramma aiutano a capire come è distribuita la luce nell’inquadratura, ma non sembra aiutano ad esporre.

Esistono diverse ragioni per usare i falsi colori con l’esposimetro, la prima è una questione di consistenza di esposizione tra una inquadratura e l’altra, per semplificare il montaggio e allo stesso tempo mantenere coerenza per post e color correction.
Un buon esposimetro aiuta a capire la differenza di luminosità tra luce e ombra, avere dei colori che indicano le differenze di esposizione nell’immagine, soprattutto potendo fare il play dell’inquadratura precedente e quindi fare il confronto, è un ottimo ausilio al lavoro corretto. Se ne può fare a meno, ma è molto molto comodo.

Registrando in Log e in Raw la curve di cattura delle informazioni è differente rispetto al segnale in 709, per questa ragione è molto importante usare questa tecnica di analisi dell’immagine, in modo da esporre nel modo corretto e sfruttare allo stesso tempo tutta la gamma dinamica disponibile. Quando si lavora con i falsi colori è fondamentale visualizzare in Log, ed eventualmente usare una LUT per visualizzare l’immagine nel monitor corretta.

Da diverso tempo le camere e molti monitor offrono la mappatura con falsi colori per capire come sono esposte le diverse aeree dell’immagine, dove la luminosità viene mappata su colori differenti e quindi abilitandola è facile capire se stiamo esponendo in modo corretto o no.

In questa immagine è possibile vedere la gamma dei colori dal buio a sinistra fino alla luce piena a destra. Da una rapida analisi possiamo vedere come una buona immagine dovrebbe apparire tra il grigio scuro e il giallo appena accennato, per evitare ombre troppo profonde da generare troppo rumore, e il rosso del bianco completamente clippato.

Questo esempio mostra due esposizioni diverse, che a prima vista sono poco differenti a monitor, ma con i falsi colori è semplice capire cosa è sottoesposto.
L’immagine di sinistra mostra il blu nelle foglie, il che evidenzia che è al di sotto dell’ombra scura, ma è sottoesposta, mentre il grigio scuro è ancora in un range più che utilizzabile, e le parti verdi indicano che abbiamo un buon dettaglio (18% di grigio), sulle alte luci abbiamo un giallo miscelato con il grigio chiaro, quindi sono alte luci perfettamente recuperabile e piene di dettaglio.
L’immagine di destra mostra la scatola colorata, le foglie tra rosa – grigio e verde, quindi abbiamo una esposizione corretta sulle foglie, sull’immagine in generale. Ma la finestra che è tra il giallo (limite delle alte luci) e il rosso, quindi le alte luci sono bruciate.

Ora come è semplice dedurre, la immagine perfetta oscilla tra il grigio scuro e il grigio chiaro, quando vediamo blu stiamo perdendo nelle ombre, quando vediamo giallo stiamo perdendo sulle alte luci, se abbiamo viola abbiamo ombre chiuse a nero, se abbiamo rosso abbiamo bruciato le alte luci. Naturalmente dipende dall’immagine, perchè se stiamo realizzando una immagine noir è normale avere una parte dell’immagine viola perchè completamente nera, ma useremo le altre tonalità per illuminare correttamente le parti in luce.

Se vogliamo illuminare in modo bilanciato una scena, basterà guardare attraverso il monitor e compensare illuminando quello che è blu, o proteggendo quello che diventa giallo.

Perchè è importante isolare correttamente le aree da illuminare? Perchè sottoesponendo una parte che dovrebbe essere in luce andiamo a generare noise, e alle volte più di quanto si possa immaginare. Esporre l’area in verde o in grigio scuro da questa differenza che vedete sotto (a sinistra grigio scuro, a destra verde). la differenza a livello di immagini è tra lo stop e 3/4 di stop che spesso si potrebbe non vedere, ma in realtà quando si osserva con i falsi colori si vede la differenza, e alla fine dello shooting, la differenza si sente.

Supporti fisici, questa illusione

mold-8mm-film-reelsOgni tanto sentendo parlare di supporti fisici mi viene da ridere, più che altro perché continuano ad esserci miti e leggende che tanti continuano a perseguire… quindi facciamo un poco di chiarezza sui miti, perché sono nati, e soprattutto perché molti restano dei miti creati dall’ignoranza e dalla rapporto superficiale con gli elementi.

Mito 1 il negativo è immortale

Troppo spesso quando si parla di fotografia digitale sento dire “eh con la fotografia digitale è tutto volante, almeno con i negativi avevi qualcosa in mano che resta, con i file non si sa mai…”.

Sono le stesse persone quando gli chiedi come conservano i negativi, che tipo di sviluppo hanno subito etc rispondono vagamente, e quindi so che i loro negativi sono :

  • in un cassetto appiccicati tra di loro
  • l’emulsione che lentamente si altera perché sviluppata con acidi a sviluppo rapido
  • con colori che si sono scostati perché probabilmente non conservavano i rullini prima dello sviluppo in frigo
  • non sanno che esiste una data di scadenza dei rullini
  • se va bene non hanno troppe muffe attaccate sopra che mangiano lentamente i loro ricordi…

Il negativo fotografico può sopravvivere nel tempo  :

  1. se è un prodotto di buona qualità di partenza, non un negativo commerciale, che pensato per la massa può avere difetti intrinsechi della produzione di massa
  2. se è stato conservato correttamente durante trasporto e stoccaggio, senza essere esposto a sbalzi termici estremi
  3. se è stato se esposto correttamente entro la sua data di durata
  4. se è stato sviluppato correttamente, con acidi a sviluppo lento, non quelli dello sviluppo in un’ora dai laboratori per i frettolosi, che accelerando lo sviluppo alteravano l’emulsione riducendo la sua durata nel tempo
  5. se dopo esser stato sviluppato, stampato è stato conservato in ambiente buio, asciutto magari con i sacchetti di gel al silicone
  6. se non è stato conservato a contatto con altri negativi (la classica busta di carta fotografica con la taschina dove mettere tutti i negativi insieme era uno dei luoghi peggiori dove conservarli, il modo migliore per far aderire l’emulsioni di un negativo con l’altro, danneggiando entrambi per sempre
  7. se ogni tanto si controllano e si permette loro di prendere aria, evitando che l’emulsione si incolli ai contenitori a striscia del negativo

quindi tutti quelli che hanno decine di centinaia di negativi dimenticati nello scatolone del garage, nei cassetti mai aperti da trent’anni, non preoccupatevi, i vostri ricordi restano nella vostra mente, ma i negativi… auguri

i difetti del negativo fisico?

  • il tempo altera sempre e comunque i negativi prodotti dagli anni 50 in poi, quindi comunque sta decadendo anche conservato al meglio
  • gli acidi usati per lo sviluppo intaccano i colori in modo non lineare e quindi i vostri colori cambieranno nel tempo
  • la duplicazione dei negativi tramite metodo fisico comunque provocano un decadimento della qualità ad ogni copia, perdita di nitidezza e aumento del contrasto
  • l’archiviazione comporta necessità di spazio, ben gestito, con caratteristiche ben precise
  • l’archiviazione e la ricerca nei negativi fisici prevede una organizzazione molto stretta e precisa
  • un problema di archiviazione errata, o un danno ad uno di essi da parte di muffe etc propaga rapidamente il problema agli altri elementi presenti nello stesso luogo

i difetti del negativo digitale?

  • bisogna archiviarlo e sapere fare copia e incolla dei file, ma se non si conoscono queste informazioni basilari nell’uso di un computer, forse il problema di archiviare i negativi digitali è l’ultimo che vi deve preoccupare.
  • un danno ad un supporto (hard disk, DVD, cd) rischia di essere un danno a diversi negativi in un sol colpo (come accade se si rovinano i negativi fisici se danneggiamo, bagnamo una scatola etc)
  • bisogna essere organizzati per archiviare i diversi file (come si deve fare con quelli fisici, tenerli tutti insieme in uno scatolone non è organizzarli)

I vantaggi del negativo analogico ?

  • fino ad un certo periodo storico era il modo migliore per catturare una certa quantità di dettaglio fisico nello scatto fotografico
  • ad oggi 2016 i negativi fotografici migliori offrono una gamma dinamica di cattura fino a 18 stop di latitudine di posa, e si possono mettere anche in macchine fotografiche economiche, mentre una camera digitale con quella gamma dinamica ha un costo decisamente impegnativo

I vantaggi del negativo digitale?

  • posso creare più copie di sicurezza IDENTICHE senza perdite di qualità.
  • più passa il tempo migliori saranno i negativi digitali prodotti perché le tecnologie dei sensori migliorano costantemente
  • più passa il tempo meglio si possono sviluppare i negativi digitali perché anche gli algoritmi di sviluppo migliorano e ottimizzano le tecniche di estrazione dei dettaglio dalle matrici di Bayer
  • è possibile distribuire un negativo digitale senza timore di perdere l’originale come accade con il negativo fisico
  • nello spazio di un card SD da 128 gb posso archiviare circa 10.000 negativi digitali (di varie dimensioni), con database per ricercare e gestire al meglio il materiale, mentre con negativi fisici lo spazio occupato è estremamente più ampio e impegnativo.
  • da uno stesso negativo posso sviluppare e creare più fotografie in modo indipendente, senza avere necessità di camere oscure, strumenti per la stampa, acidi etc.

Ognuno di noi ha le sue preferenze, ha i suoi gusti, e personalmente avendo un archivio digitale di oltre 60.000 fotografie, ma anche un archivio di negativi fisici di oltre 20.000 strisce, decisamente sono felice del fatto che i negativi digitali sono più semplici da conservare e gestire.

Mito 2 i cd e i DVD sono immortali

Ogni epoca ha la sua mitologia, per molti utilizzatori di computer, più o meno preparati, masterizzare un dvd ha ancora l’alone dell’immortalità, peccato che non è mai stato così…

Un cd/dvd industriale, ovvero quello che acquistiamo con un film, un documentario o un concerto viene realizzato con laser industriali che perforano completamente un supporto metallico che viene poi racchiuso in due gusci di plastica trasparente dura. Da test di invecchiamento accelerato è stato dedotto che un dvd prodotto con questo principio ha una vita di circa 100 anni, quindi superiore a noi… ma mica tutti i dvd industriali sono prodotti con questo principio, solo quelli di fascia più alta.

Oggi esistono molti dvd che vengono prodotti con un solo strato di plastica trasparente sotto il supporto masterizzato, e viene stampata la copertina direttamente sul supporto superiore, il che rende molto più fragile il dvd.

Alla nascita del Dvd nei primi anni 90, quindi un quarto di secolo fà, i dvd erano prodotti in camere sterili, poi col tempo hanno iniziato ad economizzare sulla produzione, causando dei possibili rischi di contaminazione dei supporti, come accade con molti dvd industriali… che presentano cambiamenti di colore del supporto da argento a giallo, muffe che si formano sotto il supporto rendendolo illeggibile, opacizzazioni varie del supporto che danneggiano i prodotti di livello industriale.

Cosa significa questo? che se i dvd masterizzati in modo industriale sono già delicati e non eterni, aggiungiamo altri fattori dati dalla masterizzazione casalinga :

  • il dvd masterizzabile ha un supporto organico non stabile, ma sensibile alla temperatura, in particolare al raggio laser che per masterizzarlo crea col calore una deformazione sulla superficie (volgarmente diciamo un bozzo), che verrà poi letto dai laser come 0 o 1 a seconda di come sarà realizzato il bozzo.
    Questo supporto che non è stabile come il supporto industriale tende a perdere parte di queste deformazioni, perché è un materiale che ha “memoria” della sua forma originale.
  • il supporto registrabile è molto più sensibile a UV, temperatura e umidità quindi basta poco per danneggiare i dati presenti sul supporto
  • il supporto registrabile ormai è realizzato con materiali di qualità infima, ed è veramente difficile comprare un prodotto di qualità, perché anche i grandi marchi non producono da anni i supporti ma sub appaltano a fabbriche indiane e cinesi la produzione e poi fanno marchiare da loro, spesso alternando le fabbriche.
    L’unico modo per capire la provenienza di un supporto è leggere il production code tramite software dei dvd acquistati, non prima dell’acquisto.
    Attualmente una azienda giapponese produce dvd oltre che per gli altri marchi anche secondo il loro marchio, Taiyo Yuden, e sono prodotti di buona qualità, per il resto tutti i marchi che in passato potevo utilizzare sono diventati inaffidabili, mostrando limiti e problemi di ogni tipo …
  • la protezione plastica inferiore molto più sottile e morbida di quella dei dvd industriali, quindi è più facile graffiare i dischi e leggerli peggio o non leggerli affatto
  • i masterizzatori hanno velocità sempre più alte, il che non è MAI un vantaggio, perché maggiore è la velocità di scrittura e maggiore è il rapporto segnale rumore introdotto, causando più possibili errori di scrittura, e quindi nella rilettura i dischi saranno sempre più limitati nella durata e delicati, questo rapporto di errore in lettura aumenta col tempo, perchè il supporto tende per effetto memoria a tornare alla forma originale, per cui più lentamente abbiamo masterizzato un dvd, più probabilità di durata nel tempo abbiamo.
  • i lettori dvd da tavolo e da computer sono sempre più economici e di basso livello, per cui anche se i dischi sono di qualità media c’è il rischio che sia meno facile leggere tali dischi dai computer più moderni. Posseggo un dvd recorder LG che legge perfettamente i dvd masterizzati ma ha difficoltà con più di 700 dvd originali che posseggo…
    N.B. i lettori bluray necessitando di laser più precisi e potenti hanno il vantaggio di leggere meglio anche i dvd più vecchi.

Quindi in conclusione: i cd/dvd industriali più recenti soffrono della produzione economica e possono danneggiarsi nel tempo, i cd/dvd masterizzati in modo casalingo sono proporzionalmente durevoli e robusti alla loro età, più sono vecchi e costosi i supporti più saranno durevoli.

Se il primo cd che ho masterizzato costava 52.000 lire, ovvero quasi 100 euro di oggi, e dopo ventidue anni funziona perfettamente, non posso dire altrettanto di dvd di marca nota, una volta ultra affidabile, pagati 26 centesimi di euro, che dopo 6 mesi metà dei file salvati sono illeggibili dallo stesso prodotto che li ha masterizzati… pur conservato perfettamente, pur masterizzato a bassa velocità, pur evitando contatto diretto con la superficie, etc etc…

Mito 3 gli hard disk sono indistruttibili

La maggior parte delle persone che conosco hanno un computer portatile, dove conservano l’unica copia dei loro dati, fiduciosi che il loro computer sia eterno… che soprattutto il loro hard disk sia eterno… cosa che da tempo non può essere più vera.

Un hard disk è un contenitore metallico che contiene dei piatti metallici con un braccio che levitando vicino alla superficie altera magneticamente il contenuto.
Anche se apparentemente sembra essere un prodotto molto robusto in realtà l’hard disk meccanico è molto fragile, e bastano poche sollecitazioni meccaniche per danneggiare uno dei componenti in modo più o meno definitivo, portando alla perdita di una parte consistente dei dati.

I dischi da 3.5 pollici sono nati per rimanere dentro i computer fissi, come tali qualunque urto comporta un rischio alto di danneggiamento del braccio o di danneggiamento ai dischi stessi, con perdita dei dati. I dischi da 2.5 pollici (quelli più piccoli da portatile) sono più robusti e soprattutto hanno meccanismi di sicurezza che in situazione di riposo, in caso di interruzione di corrente, la maggior parte dei dischi ritira il braccio dalla posizione operativa alla posizione di riposo per ridurre il rischio di danni del braccio e dei piatti.

Col tempo i dischi meccanici sono diventati sempre più capienti, e allo stesso tempo economici, ma questo vuol dire che ogni piatto è più denso come quantità di dati registrabili, quindi un danno minimo ad un piatto significa un danno sempre più esteso ed ampio al disco, esempio banale, se il mio vecchio maxtor da 160 gb aveva 4 dischi da 40 gb l’uno il massimo danno di un disco era di 40gb, i miei nuovi dischi da 8 tb contengono solo 4 dischi da 2tb l’uno, quindi un danno ad un disco significa perdere 2tb di dati, cioè 50 volte i dati che avrei perso in un danno al vecchio disco.

Molte persone tendono ad usare dischi esterni e portarli in giro, questo aggiunge sollecitazioni inutili ai dischi aggiungendo rischi. I dischi da 2.5 pollici sono più orientati al trasporto, mentre i dischi da 3,5 pollici sono più a rischio, il fatto che siano messi dentro dei box non significa che siano sempre e agilmente trasportabili. Alcuni box come la fascia alta di Lacie ha degli ammortizzatori in neoprene all’interno del box, in modo che in caso di caduto questi assorbano buona parte della forza cinetica non trasmettendola al disco.

Comunque la maggior parte degli hard disk da 3.5 pollici subiscono danni non riparabili e perdita di dati da una caduta di meno di un metro, ovvero cade dal tavolo o dalla scrivania…

Mito 4 le chiavette usb, le schede SD,CF etc sono indistruttibili

Ogni epoca ha la sua mitologia, per molti utilizzatori di computer le chiavette usb sono per qualche ragione indistruttibili… mah… teoricamente sono prodotti che possono sopportare forti scariche di corrente, essere bagnate e se lasciate asciugare continuare a funzionare, quindi un buon supporto … MA…
Se pensate che una chiavetta di qualità da 60 euro abbia lo stesso tipo di memorie a stato solido di quella da 8 euro, se pensate che basti staccarla dal computer, e fregarsene di quel messaggio “il dispositivo xx è stato rimosso prima che il sistema lo espellesse”, se pensate che quando non viene riconosciuta sia bene sforzarla spingendo bene dentro la porta USb (danneggiando sia porta che la chiavetta), forse forse non avete ben chiaro che tipo di uso si deve fare di un dispositivo a stato solido.

Inoltre il problema più grande delle memorie a stato solido è che se parte per una qualunque ragione una cella (danno meccanico, elettrico, difetto produttivo) non è come nelle memorie ad archiviazione magnetica, il danno si propaga velocemente e spesso corrompe dati nelle celle vicino, per cui una volta che il supporto inizia a dare problemi diventa completamente inutilizzabile, perchè diventa inaffidabile.

Quando siete fortunati la chiavetta diventa in sola lettura, altrimenti si corrompono i dati e bon, la chiavetta non è più utilizzabile.

Troppo spesso le chiavette vengono usate con superficialità, si attaccano ad un computer non protetto (virus e problemi varii, ma risolvibili), poi si staccano senza espellerle e si collegano a tv, a box digitali, a macchine per l’ecografia, tomografie etc… tutti prodotti che non espellono il supporto e spesso le apparecchiature mediche hanno sulle porte usb degli scarichi di elettricità statica a bassissimo livello, che portano danni alle chiavette.

Lo stesso discorso vale per le schede di memoria, per telefoni e macchine fotografiche, spesso sono usate con superficialità, una volta i rullini si conservavano correttamente in frigo, si montavano al buio, si riavvolgevano correttamente, si estraevano e conservavano dentro i loro cilindretti prima dello sviluppo. Oggi vedo card che sono sbattute dentro e fuori alle macchine fotografiche, messe dentro lettori da 2 soldi, collegate a computer o sistemi non protetti, mai smontate quando estratte, estratte a macchina accesa.. e quindi possono avere problemi, anche se… tranne per le card tarocche, ovvero card non originali, ma brutte copie delle originali non ho mai perso un dato dalle card Sd, mentre ho un mezzo barattolo pieno di chiavette usb danneggiate di amici da cui ho recuperato dati o proprio messe li a monito per chi tratta male i propri dati.

Conclusioni

tutto questo per dire che nulla è eterno, e sta a noi trattar bene i nostri dati, preoccuparci di fare dei backup, usare i prodotti bene, avere quelle due nozioni in croce su come proteggere le nostre fotografie, i nostri video, i nostri dati…

se invece fate parte di quella massa di persone che al massimo ci copiano dei film o musica pirata, che non pensano che sia importante conservare le proprie foto perché tanto le hanno (in bassa qualità) su Facebook o il video su Youtube, beh… avete la mia invidia, perché siete più sereni di me e non avete il problema di conservare il frutto del vostro lavoro di animazione, fotografia, video etc ;-D

 

Ripetere con me : la magia non esiste, la magia non esiste, devo lavorare per ottenere un risultato

Il titolo ironico di questo post è rivolto alle migliaia di illusioni create dal marketing, di ogni tipo e forma quando si deve risolvere un problema, e si cerca l’automatismo, la soluzione che magicamente faccia il nostro lavoro manuale e sia di qualità eccelsa, oltre che immediato…

Con questo post potrei descrivere un milione di situazioni, ma oggi parliamo di una problematica comune a tutti coloro che lavorano con le immagini, statiche o in movimento, ovvero la conformità.

Spesso nella produzione di uno shooting fotografico la luce può cambiare, soprattutto in esterni con luce naturale, e si deve cercare di mantenere il più possibile allineati gli scatti tra di loro, anche se per scelta artistica si possono inserire scatti con colorimetrie differenti, mentre nel montaggio video la mancanza di coerenza delle immagini nei colori, nei contrasti, nella luminosità, o è una scelta estetica ben precisa collegata alla narrazione oppure diventa un elemento molto fastidioso e ogni stacco “non funziona” si sente che sono stati eseguiti in tempi diversi, con camere diverse, con luci diverse.

Il primo problema dell’allineamento delle diverse immagini è legato al fatto che normalmente non si hanno elementi di confronto diretto per allineare due inquadrature, fatte magari nello stesso momento, stessa camera, ma con lenti diverse e/o inclinazioni diverse (ricordo che basta una luce di taglio non protetta per cambiare nella maggior parte delle lenti il livello di contrasto). Il secondo problema nasce quando si hanno camere diverse, luci diverse, momenti diversi in cui sono catturate le diverse immagini e quindi la conformità richiede veramente fare una piccola magia.

Negli anni, con lo sviluppo della cattura digitale, elaborata o raw, sono state sviluppate diverse tabelle colore per la “neutralizzazione” delle immagini, in modo da avere un riferimento univoco attraverso le immagini, indipendentemente dal tipo di luce e catturate da sensori diversi.

Uno degli standard da diversi anni è la tabella Gretag, una tabella che contiene dei colori calibrati ben precisi che corrispondono ad una serie di tacche di dal bianco al nero per gestire correttamente l’esposizione di luce e ombra, una serie di tacche colore ben precise per definire la neutralità della luce, delle tacche relative agli incarnati per gestire la corretta resa dei diversi incarnati delle differenti etnie sotto la luce.

Su questo prodotto sono nati miti incredibili, da chi dice che automaticamente le camere si autosettino leggendo queste tabelle (una specie di super bilanciamento del bianco/nero e dei colori) a chi mitizza l’uso delle tabelle che fatta una volta la ripresa di quella poi con altrettanto mitiche funzioni e/o plugin esterne tutte si autoallineeranno come per magia, tipo l’inizio di BladeRunner con la navigazione 3d dentro la fotografia…

Catturando prima dello shooting questo tipo di riferimento è possibile semplificare alcuni processi operativi, ma questo tipo di strumento NON E’ una lampada magica che automaticamente farà allineare i colori e le luminosità delle diverse clip, serve prettamente a due operazioni molto importanti :

  1. neutralizzare completamente l’immagine per poter partire correttamente con la correzione colore
  2. avere un riferimento univoco nel momento in cui si devono regolare colori e illuminazione

Alcuni programmi, ad esempio Davinci Resolve, possiedono un sistema di analisi automatico delle diverse tabelle colore per poter leggere e aiutare la neutralizzazione dell’immagine tramite di essa, per cui se abbiamo una luce non neutra, alterazioni in qualche componente (ad esempio i led a bassa qualità cri che buttano verde dentro gli incarnati scuri) proverà a neutralizzare il tutto.

Naturalmente questo automatismo si basa sul concetto che la luce dovrebbe essere neutra e che la tabella sia correttamente esposta rispetto al resto della scena, quindi corregge di conseguenza.

Se prendiamo due riprese eseguite con due camere diverse, non allineerà la colorimetria delle due camere, non toccherà i contrasti in caso di esposizioni diverse, nè modificherà la struttura (contrasto di gamma delle immagini).

Questo semplice prodotto può far risparmiare settimane di lavoro in una produzione complessa e soprattutto migliorare notevolmente la qualità delle immagini e della correzione colore perchè offre dei riferimenti univoci.

Come si usa e cosa si deve fare per poter sfruttare al meglio questo tipo di strumento?

La Gretag prevede poche e semplici regole :

  1. Conservare la tabella (cartone, plastica o quello che comprate) al buio, lontana da calore e umidità.
  2. Utilizzarla in ogni singolo stacco che andrete a fare, la cosa più semplice è accoppiarla con il ciak, così si riducono gli oggetti in mano e siamo sicuri di non dimenticarla.
  3. Va posizionata davanti al viso dell’attore che si riprende o il soggetto che si inquadra, in modo che la stessa luce che colpisce la tabella sia la stessa del soggetto.
  4. Le luci e i riflettenti che andranno usati durante la scena dovranno già essere accesi da qualche tempo prima della ripresa della tabella, alcuni tipi di luci tendono a cambiare leggermente la colorimetria scaldandosi, nel dubbio si può mettere la tabella anche in coda alla scena.

 

 

Nel monitor l’esposizione mi sembrava giusta e ho aggiustato il colore li sopra.

E ci aggiungo quelli che senza usare uno strumento per misurare qualcosa (intensità, temperatura, tinta della luce, contrasto) cambiano temperatura, tinta, contrasto, luminosità del monitor per rendere più naturale e vicina l’immagine del monitor a quella che vedono, sottolineo l’immagine del monitor, non quello che riprende la camera… Questo procedimento genera due errori, perché la realtà ha un colore, la camera ne registra un altro, ma monitor ne vedremo uno simile a quello “reale”, peccato che ci serva a poco, anzi ci porti a credere che la camera registri quei colori, una deviazione della camera nel monitor di uscita e non nella camera….

Avete presente quelle frasi per cui : “… se avessi un euro per ogni volta che l’ho sentita, sarei milionario” ? ecco una che sento spesso è : ma il colore che vedevo nel monitor è giusto…

I monitor esterni, i monitor delle camere sono gli oggetti più sopravvalutati al mondo, e spesso bistrattati, perchè si pretende un qualcosa che solo prodotti che costano 5-6k euro possono offrire, quando calibrati correttamente per la camera con cui sono collegati, e posso offrire ovvero la fedeltà alle immagini, anche se non si sa bene a quali…

Partiamo dal principio fondamentale del cinema, il monitor / il mirino si guardano per l’inquadratura, il resto si giudica dagli strumenti, non è possibile giudicare colori/contrasto/temperatura colore/luminosità/esposizione da un oggetto così impreciso come… i nostri occhi…

Già tutti pensano ai monitor, ma in realtà il primo problema nasce nella visione umana, dove abbiamo sensibilità colore differenti tra occhio sinistro e destro, in cui maggiormente sensibile al rosso e l’altro al blu (da qui naquero i primi occhiali colorati per la stereoscopia), per cui già se guardiamo in una loope con un occhio o con l’altro giudicheremo in modo diverso colori e contrasto. Inoltre a seconda della luce circostante l’occhio aprirà e chiuderà il “diaframma della natura” e quindi anche la nostra capacità di giudicare il contrasto e la luminosità di una immagine cambia in modo drammatico. Se siamo in una stanza con una luce rossa, dopo poche decine di secondi il cervello eliminerà la dominante rossa, ma nelle immagini non viene eliminata, e quindi non possiamo fidarci di ciò che vediamo, inoltre col passare del tempo la capacità di adattamento dell’occhio cambia, non solo in velocità, ma anche in tipo di adattamento alla luce, per cui sono il peggior sistema per giudicare una immagine.

Inoltre le stesse immagini in un ambiente luminoso sembreranno molto scure, mentre in un ambiente scuro potrebbero essere fin troppo luminose… non a caso le camere hanno i mirini che impediscono alla luce di alterare le immagini, ma allo stesso tempo anche i monitor normalmente hanno dei paraluce più o meno ampi per ridurre la luce entrante e soprattutto per evitare di alterare le immagini.

Ora ammettiamo di essere nel fiore degli anni, al meglio della nostra capacità visiva, e prendiamo un monitor, che riprodurrà le immagini nel modo x… perchè ogni monitor ha come minimo i controlli di luminosità contrasto e saturazione e a seconda di come impostiamo i valori potremmo vedere immagini perfettamente esposte con vaste aree bruciate se alziamo contrasto e luminosità, con ombre chiuse per il contrasto eccessivo quando in realtà sono correttamente esposte, oppure banalmente siamo in pieno sole e un semplice monitor fatica a penetrare la nostra pupilla chiusa, perché siamo in un ambiente fortemente illuminato, per cui le immagini non sembrano correttamente esposte, mentre lo sono…

Dal monitor possiamo pretendere una buona fedeltà di ciò che vediamo a livello di inquadratura, eventualmente delle Lut per poter simulare qualche tipo di sviluppo al volo (ma sono contrario per i limiti della natura delle Lut e il loro concetto stesso di utilizzo nei monitor di lavoro), ma ritengo più importante poter disporre di falsi colori per poter esporre correttamente le immagini, strumenti di istogramma e zebra per gestire l’esposizione in modo oggettivo (ovvero valori di luminanza dei pixel indipendenti da ciò che vedo a monitor) in modo che leggendo questi stessi valori so che cosa sto catturando delle immagini.

Ricordiamo inoltre che quando noi vediamo questi strumenti sull’uscita video non è detto che sia esattamente ciò che registriamo, ad esempio se lavoriamo in formati compressi come prores o h264 quello che vediamo su istogramma e zebra sull’uscita corrispondono a ciò che stiamo registrando internamente, mentre se stiamo lavorando in raw, quindi catturiamo tutte le informazioni del sensore, spesso l’istogramma e la zebra del monitor sono più conservativi rispetto alla gamma dinamica realmente catturata dalla camera, e quindi per poter lavorare con certezza è meglio attivare istogramma e zebra anche sulla camera che imposterà tali valori in relazione a ciò che cattura il sensore, quindi al raw, e non al segnale compresso che verrebbe registrato con un prores e/o esternamente.

Inoltre esistono diverse (troppe) camere che buttano fuori segnali non allineati al segnale interno della camera, ma trattano, modificano e manipolano il segnale perchè l’uscita video viene usata solo come monitoriale (uscita + maschere di contrasto e posterizzazioni varie); camere che registrano in formati extracompressi o con campionamenti colore molto più bassi al loro interno dell’uscita (molte sony hanno una registrazione interna a 8bit 4:2:0 con uscita HDMI in 10 bit e alcune anche in 4:2:2) quindi usare un monitor per affidarci le nostre speranze per l’esposizione della camera è alquanto rischioso.

I falsi colori sono uno strumento molto utili per leggere la corretta esposizione, ho fatto un piccolo post su come leggere ed esporre utilizzando i falsi colori.

 

Acquisizione dal passato prossimo

Mission

In un mondo dove ormai sembra che il 4k sia lo standard anche sui cellulari, e se non si fanno riprese in 4k, si è degli sfigati, pensare di recuperare registrazioni in formato 353 x 288 è qualcosa di così arcaico che spesso non viene neanche consepito, eppure ognuno di noi ha personalmente o qualche parente che ha delle vecchie cassette vhs, vhs-c, video 8 da recuperare, dove ci sono ricordi, che anche se possono essere considerati poco nitidi per gli standard (teorici) attuali, sono importanti.

Il problema principale è come acquisire correttamente questo materiale, che a seconda dei vari metodi di lettura e cattura può essere ulteriormente deteriorato, oppure catturato in modo decente dai vari dispositivi. la differenza tra il procedere nel modo corretto o no comporta perdite di qualità notevoli, per cui se si tratta di uno o due nastri forse (sottilineo forse) è meglio consegnarli a dei professionisti per l’acquisizione con prodotti professionali. Naturalmente vanno verificati perchè molti sedicenti professionisti approfittando dell’ignoranza delle persone, spacciano per operazioni altamente professionali l’uso di lettori vhs di basso di livello e schede di cattura compresse o di bassa qualità, e conversioni colore dubbie.

Principi base

il formato VHS/8mm sono formati video degli anni 80/90 che avevano una risoluzione verticale nominale di circa 200 linee di definizione, quindi già di partenza non potevano catturare grandi quantità di informazioni, soprattutto perchè erano linee vhs-vhsc-minidv-beta-8mm-todvdinterlacciate, quindi 100 per un campo, 100 per l’altro. Quindi nel momento in cui si parte sappiamo che già la cattura a 352 x 288 linee per un VHS è più che generosa perchè teoricamente, se va bene, se il nastro è in ottime condizioni, se il player vhs è in ottime condizioni con testine pulite, e un TBC per gestire e ottimizzare le sincronie di segnale possiamo ottenere una discreta immagine di partenza, in realtà le schede di cattura in quel formato sono scomparse e soprattutto la maggioranza comprimevano troppo i dati; la soluzione migliore è utilizzare una scheda in formato SD (720×576 in pal) per ottimizzare la qualità di cattura effettiva.

All’epoca esistevano anche la versione “HD” di questi formati amatoriali che erano il S-VHS e Hi8 dove oltre a registrare circa 400 image_62966_largeimagefilelinee, separavano il segnale di croma dal segnale di Luma, quindi separando le due informazioni l’immagine era ulteriormente più pulita e nitida. Ma a causa di un prezzo notevolmente più alto, i dispositivi di registrazione, e la loro gestione era molto più costosa, per dare una idea, una camera VHS di discreta qualità NON PROFESSIONALE nel 1990 aveva un costo di quasi tre milioni di vecchie lire, che al cambio e considerando l’inflazione sarebbero quasi 6000 euro di oggi (considerando stipendio medio dell’epoca).

Il montaggio era all’epoca una operazione a perdita, spesso notevole tramite la copia con cavi di non qualità eccelsa, ogni copia era una perdita di qualità notevole, per cui si cercava di generare meno copie possibili dall’originale in modo da ottenere un master da cui poi fare le copie di distribuzione.

Nel tempo i nastri possono essersi deteriorati, attaccati da muffe o da altri agenti, chimici e non, perchè parliamo di nastri a ossido di ferro e altre sostanze che nel tempo si alteravano, e per alcune persone (mio caso) generavano ottimi terreni di cultura di spore e muffe di diverso tipo. Purtroppo non era solo una questione di come erano conservati, ma anche dal tipo di produzione di tali nastri, all’epoca non si pensava ad un nastro low cost che sarebbe stato riletto dopo 20 anni.

Oggi da dove partiamo

La prima cosa che dobbiamo fare, se non lo possediamo già, è procurarci un buon strumento per leggere i nastri, procurarsi significa che dovremo cercare nel mondo dell’usato dei lettori VHS /Hi8 con TBC.

tbcIl Time Base Corrector è un elemento di base per la lettura di qualità dei nastri che vogliamo riversare, senza di esso avremo problemi e potremmo perdere anche il 60% della qualità originale dei nastri, per oscillazione di segnale che causa neve, perdita di quadro, perdite di nitidezza e molto altro ancora.

Nell’usato si trovano anche VHS semiprofessionale da banco, ma spesso la natura semiprofessionale significa anche che le testine sono state usurate da superlavoro, e oggi è improbabile trovare una ricambistica di questi prodotti, per cui possiamo avere più fortuna nei S-vhs casalinghi, di solito appannaggio degli appassionati, quindi ben tenuti, e di buona qualità.

Nella lettura dei nastri da telecamera la soluzione migliore sarebbe avere la telecamera originale, perchè nella registrazione magnetica c’era un ulteriore elemento di possibile interferenza, ovvero la regolazione dell’azimuth, quindi nel momento in cui si legge il nastro da un altro dispositivo c’è la possibilità che non corrispondendo la regolazione, la resa dello stesso nastro vhs/hi8 sia pessima per colpa del sistema di lettura.

Il sistema di lettura del nastro è molto importante perchè se raccoglie correttamente il segnale, se la testina è correttamente allineata con il nastro (e non sempre si può gestire tale parametro) allora è possibile ricavare dal nastro il massimo delle immagini.

Schede di acquisizione

Anche se il formato VHS/8mm è un formato di bassa qualità utilizzare sistemi si acquisizione di bassa qualità castrano ulteriormente le capacità di cattura e conservazione di tali informazioni, per cui usiamo una scheda di cattura usb da 20 euro non possiamo aspettarci neanche la decenza nel materiale che andiamo a catturare. Se si ha un vecchio computer su cui montare le vecchie schede si possono trovare le schede pinnacle dv500 e simili che erano schede di alta qualità e valore per l’epoca (erano vendute a 2 milioni di vecchie lire) che oggi si trovano nell’usato tra le 80 e 100 euro perchè il tipo di slot delle schede è obsoleto e solo sui vecchi computer può funzionare. Altrimenti suggerisco una scheda Blackmagic intensity, che se limitata al FullHD (se per limitazione si può intendere visto che è 6 volte più definito di un S-vhs o un Hi8) la si trova nuova intorno ai 150 euro, usata intorno ai 100. Si parla di una scheda che ha ingresso analogico e digitale, e quindi può essere usata anche per altre soluzioni.

Acquistare una scheda di acquisizione significa computer, spazio su disco e altre operazioni intorno ad esso, ognuno può trovare comoda o no tale soluzione, può pensare che sia utile per altre operazioni o no, dipende cosa si vuol acquisire e la quantità di nastri da acquisire.

Soluzioni alternative

Spesso ci sono soluzioni diverse da quelle classiche, e/o più interessanti per gestire il materiale a nastro, e risolvere più di un problema in un colpo solo.
Telecamera HDV on IN-OUT : sul mercato alcuni anni fà uscirono delle camere HDV che avevano la possibilità di acquisire il materiale analogico in ingresso sull’entrata analogica, e registrarla su nastro o riversarla uscendo direttamente sul computer tramite la porta Firewire. A questo scopo utilizzo una camera Canon Legria HV30, che mi permette in un colpo solo :

  • acquisire un segnale analogico da videoregistratori e convertito in digitale da un buon dac
  • acquisire nastri Minidv Pal SD
  • acquisire nastri HDV in formato HDV

il tutto senza schede di acquisizioni particolari, semplicemente una porta firewire 400, che se non presente sul computer costa non più di una quarantina di euro come scheda aggiuntiva. Nel mercato dell’usato questa serie di camere (hv20/30/40) si trovano intorno nei 200 euro in ottime condizioni.

DVD Recorder con Hard disk : oggi meno diffusi perchè la tv digitale terrestre prevede la registrazione semplificata dei flussi video con una semplice chiavetta, ma qualche anno fà ebbe un discreto successo la soluzione dei dvd recorder con hard disk  che prevedevano la registrazione programmata dalla tv, la possibilità di editare semplicemente i filmati tagliando le parti non volute e la registrazione su dvd come dvd standard. La maggior parte di questi apparecchi avevano anche un ingresso Dv per registrare dalle camerine Dv e Hdv, i diversi ingressi audio video semplici, y/c e questo permetteva la cattura semplice di nastri vecchi su Dvd.
Anche questi prodotti permettono oggi la conversione da analogico a digitale senza passare per il computer, e una persona non ha interesse a manipolare il video, o fare particolari editing è una soluzione semplice da player a recorder in modo diretto, con poche operazioni da telecomando si possono togliere le parti di troppo e quindi ottenere dvd con i nostri filmati dei ricordi.

N.B. vi ricordo che i supporti DVD registrabili sono alquanto fragili e delicati, che possono perdere dati nel tempo, si graffiano, etc etc, quindi oltre a fare una copia su dvd personalmente eseguo una copia dell’immagine su HD di suddetti filmati, per evitare che non il deterioramento del nastro, ma il deterioramento del dvd cancelli i miei ricordi.

 

Glossario

Azimuth : regolazione della testina di lettura che indica la posizione della testina rispetto al nastro, la errata regolazione del tracking nastro testina comporta difetti ed errori delle informazioni. Molti videoregistratori hanno la regolazione del tracking automatica, e pochi quella manuale, sono preferibili i secondi perchè nel caso di nastri con registrazioni eseguite in tempi diversi e/o che non sono stati riavvolti da tempo è meglio poter fissare un tracking piuttosto che la oscillazione della regolazione automatica che può comportare più problemi che soluzioni.

RCA : connettore analogico attraverso il quale passa un segnale composito di colore e luminanza, spesso causa di possibili problemi di qualità se non ben realizzato, e/o ben schermato

S-VHS : versione avanzata del vhs con una maggior qualità e informazioni di linee fino a 400 linee.

Scart : il peggior sistema di trasmissione audio video, anche quando si separava la luminanza e la crominanza, il sistema combinato di cavi e connettori a lamella che spesso hanno falsi contatti, comporta un decadimento della qualità video / audio per le interferenze reciproche dei segnali.

TBC : il Time Base Corrector è uno strumento che serve a controllare e gestire le informazioni analogiche in arrivo dal nastro, leggere i segnali di sincronia, stabilizzarli, e ove ci sia qualche difetto qua e là tra i frame cercare di correggerli recuperando le informazioni tra un frame e l’altro.

VHS : formato più diffuso negli anni 80-90 di registrazione su nastro magnetico, il formato ha vissuto un lungo periodo di vita, con due derivazioni:

  • S-VHS con il raddoppio delle linee di registrazione e lettura
  • Compact una versione in dimensioni ridotte per la creazione di telecamere in formato ridotto

Y/C : connettore / sistema di trasmissione del segnale video in cui si separano luminanza e crominanza che offre una maggior qualità video rispetto agli altri sistemi di trasmissione del segnale.

Page 1 of 5

Powered by WordPress & Theme by Anders Norén