Carlo Macchiavello

Tutto è possibile

Month: ottobre 2015

creating motion graphics recensione

creating motion graphics
Creating Motion Graphics with After Effects: Essential and Advanced Techniques

Quando si parla di After Effects non si può andare subito col pensiero ai cognugi Trish e Chris Meyer, utilizzatori del Pacchetto dalla versione 0.3 prima ancora che fosse distribuito, grandi comunicatori e grafici eccezionali.

Il loro sforzo nel creare documentazione, libri, video su come usare al meglio After Effects non è mai stato superato nè per quantità, nè per qualità da nessun altro al mondo. Esistono altri artisti importanti su questo pacchetto, spicca tra tutti il grande Andrew Kramer che rappresenta per il campo degli effetti visivi ciò che loro rappresentato per la MOTION GRAPHICS.

Questo libro è una splendida occasione per il novizio di imparare il programma dai migliori, con la possibilità non solo di imparare le funzioni base del pacchetto, ma anche per entrare in profondità nelle diverse impostazioni che si affrontano. Per l’esperto è l’occasione per rispolverare le conoscenze e spesso anche per scoprire molte funzionalità che rimangono in background, ma che possono fare la differenza quando si affrontano progetti complessi.

Il libro può essere affrontato in modo lineare, come un corso di più lezioni, oppure dopo aver affrontato i primi capitoli saltare alle parti che ci interessano, gli argomenti che ci interessano di più, grazie all’approccio che hanno i Meyer nel spiegare come affrontare ogni passaggio. Inoltre anche se le pagine sono limitate (secondo i Meyer 768 pagine non erano abbastanza) sul disco fornito insieme al libro ci sono diversi capitoli aggiuntivi in formato PDF che non erano riusciti a inserire nel libro.

Molti potrebbero chiedersi se un libro che è stato scritto per la versione CS5 nel 2010 sia ancora attuale oggi, con la CC2015. La mia risposta è si, certamente si, perchè il libro è scritto per imparare come funziona AfterEffects, e ogni parola scritta al suo interno è ancora valida, tutte le basi di workflow di lavoro sono esattamente identiche, tranne una cosa cambiata di recente con l’introduzione della release CC2015, che oltre ad avere un sistema di preview unificato, adesso con tutte le preview di animazione ram si ha l’audio, che in passato era disponibile solo per un tipo di animazione.

sapere di non sapere, abbastanza… la mia utopia verso il mondo

Oggi parliamo del non sapere…

in una società che vi offrono di diventare Expert, Guru, Professional xxx di qualcosa in un click, cambiando spazzolino da denti (giuro ho appena visto la pubblicità) è strano definire di sapere di non sapere.

socrateTanti secoli fà un filosofo molto più saggio di me, Socrate, disse e scrisse : so di non sapere.

Sono un curioso e un’avida spugna della conoscenza, ogni campo in cui posso avere un minimo di curiosità desidero accumulare più conoscenza, e non ne sono mai soddisfatto. Qualunque campo in cui devo interagire, per natura, non mi accontento di sapere qualcosa, devo smontare ogni elemento del campo per renderlo più produttivo e soprattutto averne conoscenza per averne un maggior controllo.

Il mio principio è che non sapendo abbastanza di un argomento potrò mantenere una minima umiltà per far si che possa accettare di dover imparare ancora molto, e allo stesso tempo mi piace conoscere di più, sapere che c’è sempre un oltre a quello che già so, mi da la tranquillità che posso imparare tanto di più 😀

Nell’ambito lavorativo ho una curiosità insita nel lavoro di ogni persona, capire come funziona il suo ruolo, il suo lavoro, perchè… beh ho una idea folle, ma non tanto, avendo una buona base di quello che sarà il lavoro di chi collabora con me, posso collaborare meglio fornendogli le informazioni, gli elementi nel modo corretto per farlo lavorare meglio. Come trovo inaccettabile chi mi passa materiale scadente o di bassa qualità pur avendo modo di darmi molto di più per pigrizia o ignoranza (causata dalla pigrizia o superficialità perchè non gli compete il seguito del lavoro), voglio poter far si che chi lavora con me possa avere il materiale e le informazioni al meglio, per poter lavorare perdendo meno tempo e qualità possibile. Per fare questo devo imparare i ruoli e i mestieri di tante altre persone, ma se nel mondo fosse composto di una persona ogni 100 come me, molti lavori e processi sarebbero molto più semplici e veloci.

un esempio tecnico? immaginiamo di dover postprodurre del materiale video, se ci mandano un export completo del filmato su cui lavorare invece che il materiale originale spesso si deve fare il triplo della fatica, per preservare qualità e magari inventarsi qualche trucco per mascherare al meglio e scontornare del materiale che al momento di lavorare sugli originali avremmo risolto in un decimo del tempo.

Un esempio pratico? immaginiamo che dovete metter mano a del materiale, e chi ha fatto le riprese pur avendo tempo non ha inserito i metadata in camera, quello che erano pochi secondi per l’operatore sono ore in cui si guarderà e catalogherà il materiale più volte, soprattutto per distinguere una sequenza dall’altra, quando chi ha fatto le riprese sapeva esattamente perchè erano differenti.

Un esempio di pigrizia? un fonico che invece di settare la data e l’ora sul recorder se ne frega di questi dettagli, il risultato è che poi per distinguere il materiale si perderanno ore per ascoltare e distinguere i materiali, mentre se si imposta ora e data in un attimo si potranno accoppiare alle riprese.

Un esempio di sottovalutazione dei ruoli? quando si tratta con un reparto marketing e alla richiesta del logo dell’azienda, invece di mettervi in contatto con il reparto grafico, vi girano un file word con dentro una jpeg a bassa definizione del marchio. Se esiste un reparto grafico, è perchè servono conoscenze ed esperienze che non hanno al marketing, quindi perchè scavalcarlo? e soprattutto perchè lamentarsi se il logo poi risulta sfuocato, se non sapete neanche il perchè?

in ogni caso c’è un problema di superficialità e menefreghismo, dando per scontato che finito il proprio lavoro, quello degli altri non li riguarda… se c’è la prima volta un problema di ignoranza, c’è il fattore “mi sono chiesto se quando do questo materiale a chi lo deve ricevere lo potrà usare subito oppure deve fare fatica per capire cosa ho realizzato?”

l’altro lato della conoscenza del mondo moderno è che da ogni lato si trova gente che vi vuol vendere conoscenza, e al 90% (si lo so, parte del mio business è fare corsi, e sono conscio di ciò che sto per scrivere) chi vende conoscenza non ce l’ha…

E’ veramente inquietante come la maggior parte dei consulenti, delle persone che vendono conoscenza ed esperienza sono quelli che hanno meno competenze nell’ambito in cui vorrebbero dirvi cosa fare… per cui diffidare sempre, a partire da se stessi, e soprattutto da chi è troppo sicuro di se stesso.

Socrate diceva: so di non sapere, io mi permetto di aggiungere per essere più chiaro l’avverbio “abbastanza”.
Finchè ci porremo dei dubbi, vorremo apprendere di più, dubiteremo delle fonti, e cercheremo conferme, sapremo di essere nel giusto, chi si afferma nella verità assoluta sarà sempre fonte di grandi paure e dubbi da parte mia.

Lavoro in un ambito in cui da un giorno all’altro l’evoluzione della tecnologia, dei metodi operativi, delle tecniche di lavoro cambiano e si evolvono continuamente, quindi le certezze sono teoria, la pratica poi dimostra come molti elementi si evolvono e cambiano da un mese all’altro per cui avere certezze assolute vuol dire essere monolitico, statico, che in un mondo in continua evoluzione è sintomo di essere obsoleti ancor prima d’iniziare.

Oggi grazie al web 2.0 tutti possono diffondere notizie di ogni tipo, ma purtroppo se venti anni fa era difficile trovare informazioni, oggi è difficile da trovare le informazioni corrette in mezzo a tante informazioni errate o distorte.
Purtroppo la fretta con cui si muove il mondo moderno porta le persone a accettare per buone le prime notizie per buone, magari partendo da wikipedia, una delle fonti e raccolte più ampie dell’ignoranza mondiale, dove col fatto che chiunque può scrivere, chiunque può inserire informazioni errate per il gusto di contribuire, senza aver controllato ciò che inserisce…

Per chi pensi che sia un retrogrado, un antico, premetto che sono stato il primo a fondare mezzi di diffusione della conoscenza sulla rete più di venti anni or sono alla sua nascita, non ce l’ho con le nuove tecnologie, ma con il loro abuso indiscriminato.

Per wikipedia (notizia che ho fatto cancellare) mi ero traferito in australia (terra che trovo splendida, ma non ci sono mai stato) e sono morto in seguito all’attacco di un rinoceronte mentre facevo delle riprese per un film… wordpress ha tanti plugin, ma non quello della pubblicazione da morto :-PP quindi se leggete queste notizie, forse proprio morto non sono. Questo dimostra che le notizie pubblicate non essendo contro-controllate, possono contenere tante inesattezze, e se un amico non mi avesse cercato preoccupato, chissà per quanto sarebbe rimasta on line quell’informazione, e quanto si sarebbe diffusa nel mondo.

Ci sono stati in questi ultimi anni troppe notizie diffuse tramite i social ma anche teorici siti più affidiabili tramite ansa etc, che per la fretta di condividere la notizia, hanno portato scompiglio e/o inesattezze a livello mondiale. Dubitate sempre e verificate sempre più fonti, altrimenti sarete delle bandiere in balia del primo soffio di vento della rete…

 

8 bit, 10bit, 24bit, 32bit che razza di bestie sono quando esporto?

Cosa significano le diverse sigle?

In tante occasioni parlando di video di sentono diverse sigle che in un modo o nell’altro influenzano la qualità dell’immagine che andiamo a vedere e soprattutto a manipolare.

Quando si lavora con il video nella maggioranza dei casi si parla di video catturati a 8 bit, questo valore si riferisce alla componente colore singola, quindi il sensore o il sistema di registrazione cattura 2 alla ottava, il che significa 256 informazioni colore.

256 toni di colore per il canale del rosso, 256 toni per il canale del verde, 256 toni per il canale del blu.
La combinazione di tutte queste possibili sfumature creano una immagine che può contenere 16 milioni e rotti di combinazioni possibili, ovvero una immagine a 24bit.

quando si aggiunge il canale alfa ad una immagine a 24 bit, dato che il canale alfa segue le stesse capacità e regole del colore, avremo una immagini a 256 toni di grigio che definiscono la trasparenza totale (100% di luminosità) o la totale opacità del pixel (0% di luminosità).

quindi abbiamo una immagine a 24 bit (R = 8, G= 8, B=8) + 8 bit di alfa, totale immagine a 32 bit.

quando andiamo a esportare una immagine abbiamo teoricamente (dipende se e come il software supporta l’esportazione) la possibilità di esportare video e immagini a diverse profondità colore, più è alto il numero, maggiori sono le informazioni contenute e quindi maggiore è la qualità registrabile.

Parlo di qualità registrabile perchè se importo un video a 8 bit e lo esporto a 16bit, non significa che il video diventa a 16bit, non migliora l’immagine, nè aumentano i colori originali, restano gli stessi, ma se ho applicato dei filtri di correzione colore, probabilmente esportando a qualità più alta PRESERVO la qualità originale.

da un programma posso esportare :

8 bit per canale : 24 bit + eventuale alfa 8 bit che diventa 32bit
16 bit per canale : 48 bit + eventuale alfa 16 che diventa 64bit
32 bit per canale : 96 bit + eventuale alfa a 32 che diventa 128 bit (solo da vfx e software di post)

quando si parla di video, possono essere registrati a diversi bit da 8, 10, 12, 16 bit a seconda del codec di lavoro e dalle impostazioni dello stesso. Naturalmente avere uno spazio colore maggiore significa avere più informazioni e quindi più spazio di azione dove intervenire con la corezione colore o con la postproduzione in generale.

Perchè servono più di 16milioni di colori?

perchè in realtà quei colori sono la somma di tutti i colori possibili dei tre canali colorati, ma se devo fare una sfumatura di rosso puro, blu puro (il cielo) ho solo 256 possibili sfumature di blu, oltre intervengono leggeri squilibri degli altri colori, che portano il blu del cielo ad andare verso il verde, oppure verso il magenta, quindi non è più il colore puro.

Perchè non posso usare solo 8 bit se ho registrato una immagine nel modo corretto?

perchè non solo il limite è in registrazione, ma soprattutto nella post produzione, per comprendere meglio è possibile fare un esempio molto semplice, creare un colore sul limite e poi aumentare la sua luminosità.

esempio scostamento coloreDopo aver creato un colore rosso di un valore leggermente sbilanciato, ovvero col verde maggiore del blu ho semplicemente applicato una luminosità molto alta, e come potete vedere nelle informazioni finali, il colore non si scosta in modo lineare, perchè il rosso essendo già al massimo (255 come valore) non si può muovere, quindi salgono verde e blu, ma non in modo lineare e proporzionale, quindi man mano che rendo più luminosa l’immagine la quantità di verde del colore aumenta, quindi il rosso si inquina e cambia il colore originale.

Se invece avessimo avuto uno spazio colore a 16bit, dove le possibili combinazioni sono maggiori, il range di lavoro non è più 0-255 ma 0-32768, quindi le possibili sfumature realizzabili prima di ottenere uno scostamento colore evidente sono maggiori e più morbide.

Quando esporto un video a 8bit cosa posso esportare?

quando apriamo un pannello di compressione di un software, a seconda di quale codec esportiamo possiamo selezionare una profondità colore differente, ma attenzione che se si considera anche il canale alfa potremmo esportare più di quanto serve, anche quando non serve.

Se seleziono una esportazione a 8 bit, significa che esporto un file a 24 bit (8+8+8), ma se si attiva l’esportazione del canale alfa, in realtà noi esportiamo un file a 32bit perchè il file colore è a 24bit + 8 bit di canale alfa. Nella maggior parte dei casi il file sarà usato allo stesso modo, quindi nessun problema, ma in situazioni specifiche come con le macchine di messa in onda, un file a 32bit, anche se magari la parte del canale alfa è vuoto, viene rifiutato, e quindi è fondamentale sapere come esportare il materiale nel modo corretto.

Quando si lavora cosa può cambiare se lavoro in uno spazio colore più ampio?

Il discorso è molto semplice, se prendiamo una immagine e spostiamo le informazioni di luminosità, da uno spazio a 8 bit a 8 bit c’è il rischio di perdere delle informazioni intermedie perchè non c’è lo spazio corretto dove spostarli. basta confrontare l’istogramma del progetto a 8 bit con quello a 16bit.

confronto correzione colore 8 16bit

L’istogramma della correzione 8bit si vede come diventa frammentato, con diverse frequenze che spariscono e quindi rappresentano informazioni perse durante la correzione delle informazioni mentre nell’istogramma a 16bit queste informazioni vengono conservate perchè esistono più posizioni è possibile mantenere le informazioni anche di fronte ad una manipolazione più aggressiva dei valori.

Anche se poi il risultato finale sarà esportato in un file codificato a 8bit, la sorgente sarà di un file elaborato a 16bit e quindi preserverà meglio le informazioni originali.

Questo è il motivo per cui i software di correzione colore professionale lavorano solo in uno spazio colore a 32bit per canale, in modo che ogni operazione applicata ai colori delle immagini saranno a prova di errore e non ci sarà rischio di degrado causato da limitazioni dello spazio di lavoro.

Quando si lavora con AfterEffects e si manipola il colore, avere uno spazio colore di lavoro a 16bit serve a preservare il materiale durante la correzione colore, se si lavora con Premiere è importante abilitare le spunte “Rendering alla profondità massima” in modo che il calcolo interno delle elaborazioni del colore sia fatto a 32bit e quindi si corregga al meglio e nello spazio più ampio anche se poi andiamo a esportare in un codec usando solo gli 8bit di registrazione finale. DA RICORDARE come premiere, non essendo un programma di post, il calcolo nello spazio più ampio colore lo esegue in presenza di video manipolati da effetti a 32bit, nel caso la sequenza contenga anche un solo filtro a 8 bit, tutto il rendering sarà eseguito a 8 bit e non nello spazio colore a 32bit.

e quindi?

nella normalità si lavora a 8 bit, perchè le fonti medie di dslr, telecamere medie è a 8bit, e quindi solo per l’export di materiale fortemente manipolato lavorare negli a 16bit fa la differenza, mentre se non vi viene chiesto l’export di materiale con caratteristiche diverse, per fare dvd, bluray, file per tv, file per Online (youtube, vimeo, etc), file per messa in onda è a 8 bit, senza canale alfa.

Partiamo … dalle cose sbagliate…

Durante uno dei miei corsi, è nata un’idea, una cosa banale che però non è troppo banale… partire dagli errori invece che dalle cose giuste.
Uno dei miei principi di docenza si fonda sulla presentazione della tecnica corretta di utilizzo degli strumenti, e degli errori classici che si fanno, e come risolverli. Penso che sia troppo facile presentare le cose che funzionano, sempre e comunque, e poi quando uno ha finito il corso e si trova di fronte al computer e al software, quando sbaglia qualcosa, quando dimentica un passaggio o un principio base e accade qualcosa di inaspettato, allora ci si blocca o si perde entusiasmo.
Per evitare questo tipo di problema tendo a far vedere e porto gli studenti a sbagliare, spiegando l’errore e facendo loro correggere quell’errore, in questo modo rimane impresso l’errore e aiuta le persone a non farlo. Ho pensato che sarebbe interessate sviluppare un canale di training all’errore, per aiutare le persone ad affrontare e correggere gli errori classici in determinati approcci di lavoro. Troppo spesso vedo tutorial, articoli e documentazioni errate che trasmettono e diffondo informazioni errate.

al giorno d’oggi, dove tutto è a portata di mano, parlo dell’informazione, è diventato tutto troppo apparentemente troppo facile da raggiungere, e quindi ci si impigrisce, perchè la risposta tipica è “tanto basta che apro google e so quello che mi serve…”

verissimo, anzi sono uno dei primi fautori di google, ma … chi vi dice quali siano le fonti più autorevoli? chi vi dice che le informazioni più diffuse siano quelle corrette o quelle più efficienti per il vostro tipo di lavoro? Non sempre quelle più evidenti sono le migliori, anzi … sono solo quelle più spinte da chi sa fare bene web marketing.

per farvi un esempio parallelo, ho notato come al supermercato ci sia una bibita in lattina, che venduta in singola lattina è più economica che nella confezione da 4… basta guardare il prezzo al litro (scritto molto in piccolo sull’etichetta dello scaffale) e scoprirete che la confezione da 4 costa 20 centesimi in più che prendere 4 lattine separate, praticamente pagate 0 centesimi il cartone che unisce le 4 lattine, lo stesso cartone che strappate e buttate via per metterle in frigo… le informazioni ci sono, ma in grande vedete il prezzo singolo e della confezione, ma non ho visto nessuno leggere il prezzo al litro che rende evidente la differenza di costo tra i due prodotti…

Data astrale 21.07.1973

imagesSono cresciuto con tante serie televisive, tanti film, tanti cartoni, ma una in particolare è rimasta nel mio immaginario e in quello di milioni di altre persone: Star Trek.
Una serie televisiva fantastica, dove ogni episodio proponeva tematiche differenti e storie completamente differenti, affrontate in modi poco convenzionali e molto pratici: con delle scazzottate…

La cosa divertente è che Star Trek, nonostante il nome non è una serie di fantascienza, ma lo stesso creatore, Gene Roddemberry, per vendere la serie in periodo in cui i network compravano solo storie Wester di cowboy, la propose come le avventure di coloni nello spazio. Una serie in cui le astronavi si videro poco, ma si videro molti corpo a corpo, molte situazioni si risolvevano a cazzotti, colluttazioni e prove di forza.

Una serie televisiva che con il cavallo di troia dell’ambientazione spaziale e futuristica potè sdoganare molti tabù per l’epoca : un equipaggio multietico con persone di colore, asiatici, russi, scozzesi etc; il primo bacio interazziale della storia della televisione e molto altro ancora…

Cito questa serie televisiva (le prime stagioni, di Kirk and Company) perchè ha dato un particolare imprinting al mio vedere lo spazio, che è basata su storie concrete, insegnamenti e valori come Onore, Coraggio, Sacrificio, Amicizia, Lealtà.
Praticamente il contrario di ciò l’ha seguita, ovvero la maggior parte degli altri telefilm e film di fantascienza che si basano su battaglie di astronavi, tanta tecnologia futile e poca storia concreta, pochi insegnamenti, la mancanza di valori…
E tutto questo sono sicuro che non sia un caso, visto come sta andando il mondo e come ci si forma culturalmente oggi.

Un aneddoto, la data stellare con cui si aprivano gli episodi, era inizialmente un numero casuale, anche perchè non si dava ancora importanza alla continuity, ma dopo fu calcolata in modo matematico: trovate qui le indicazioni su come calcolare la vostra data stellare

Perchè parlo di questa serie TV? perchè in omaggio a tale serie, da oggi il mio blog raccoglierà gli articoli sotto la tag “diario di bordo” ove non siano di qualche utilità tecnica, pratica, recensioni etc…

Dal passato con furore…

Chiunque mi conosca sa che ho una certa passione per le lenti vintage.

Acquistare una lente vintage significa rinunciare nella maggior parte dei casi agli automatismi, il che non è un male, se per usarle non si ha fretta o non le si vuol usare per fotografia o ripresa sportiva. Per quanto mi riguarda le lenti vintage a me servono per fotografia e ripresa in condizioni più o meno controllate, e quindi non sono interessato agli automatismi, anzi spesso li disabilito per avere il controllo.

Perchè una lente vintage, vista la vasta gamma di lenti che le case fotografiche offrono oggi?

oggi vengono vendute lenti a 80-100 euro che non valgono neanche i fondi di bottiglia, ma poste su camere che le riconoscono, che correggono in camera i difetti, e contrastano, rendono nitide in post, per molte persone possono essere una buona base di partenza. In passato non esistevano prodotti di bassissimo livello, perchè la pellicola non perdonava certi difetti, e la camera non poteva rielaborare le immagini, quindi molte lenti partivano già da un buon punto di partenza a livello qualitativo.

Le lenti vintage a seconda di chi le vende e dove le si comprano possono essere un ottimo affare a livello di rapporto qualità prezzo delle lenti.
Il fatto che lavorando solo in manuale diventano inutili o poco comode per molte persone, il corpo in metallo pesante per altri, che preferiscono i “plasticotti” leggeri, spesso si trovano occasioni sui mercatini, nelle aste di usato e on line.

Naturalmente esistono anche nel vintage lenti poco attraenti come qualità, tutto sta nel sapere cosa si cerca e dove si mettono queste lenti. Se si punta su marchi noti come Leica e Zeiss si ha la certezza che qualunque lente sarà al minimo di ottima fattura, poi ci sono diversi marchi russi che usavano lo stesso schema e tipo di lenti di Zeiss, ma con prezzi più popolari, e li a seconda degli obiettivi si poteva avere dei piccoli gioiellini o dei prodotti di media fattura. Altri marchi come Nikon, a seconda della lente e del periodo, offrono interessanti prodotti.

Volendo posizionare queste lenti su sensori moderni, non dimentichiamo che devono essere lenti di qualità per essere in grado di risolvere abbastanza informazioni per fornire ai sensori moderne dettagli sufficienti per costruire delle belle immagini, quindi la scelta deve andare di conseguenza su lenti di un certo valore.

Cosa mi offre in più una lente vintage?

mi offre le sue imperfezioni, la sua unicità.
Una lente moderna è creata in totale automazione, per cui se prendo 10 50mm 1.2 di un certo marchio so che intercambiandoli avrò lo stesso identico risultato, mentre se prendo anche due lenti vintage, prodotte parzialmente da opera artigianale, avrò dei risultati differenti, anche di poco ma avrò un qualcosa di personalizzato. Si narra che lo stesso Kubrick, fanatico ed esperto di fotografia, avesse chiesto a Zeiss diverse lenti dello stesso tipo, per scegliere e comprare quella che preferiva per ogni focale, così che fosse la sua lente, la sua scelta visiva.

Quale scegliere?

quelle che ci piacciono di più… io mi sono innamorato del look delle Nippon Kogaku, una serie prodotta dalla Nikon, prima che prendesse il marchio Nikon tra gli anni 50 e 60, lenti particolari, prodotte tutte in metallo pesante, grandi lenti limpide che offrono una luce pulita e morbida, pur lasciando molto dettaglio al loro interno.

Totalmente meccaniche si possono adattare all’attacco canon in modo facile e rapido con un anello, oppure se si vuol fare un lavoro fatto bene, l’azienda di barcellona chiamata Leitax crea baionette da sostituire alle originali, così avremo un saldo e robusto attacco nativo per canon.
Una alternativa disponibile per le conversioni delle sole lenti Canon FD è l’americano EDMIKA, che ora ha aperto un centro di conversione anche in Europa.

Il particolare coating di queste lenti non protegge troppo dai flare se riprendo direttamente la luce o in controluce, creando aloni attorno agli oggetti in controluce e particolari riflessi che trovo più interessanti e meno asettici delle lenti moderne, che nel tentativo di rendere perfette le immagini si adoperano per togliere il più possibile di questi difetti, che però danno un certo sapore alle immagini.
Mi fa sorridere l’idea di come si scelgano lenti moderne per evitare flare e aloni, e poi ci si adoperi in vari modi per aggiungerli in postproduzione, sia perchè lo trovo uno spreco di tempo, sia perchè alla fine dato che tutti quelli che li aggiungono in post, essendo dei preset, saranno tutti più o meno uguali, mentre con le lenti vintage quel tipo di comportamento è reale e quindi sarà differente ogni volta che si farà una ripresa.

Le foto che vedete qui sopra sono fotogrammi raw catturati con un sensore s35 4k, praticamente come una fotocamera 8,9 megapixel 12bit raw, che alternano un semplice 35mm 2.0 ad un piccolo gioiello, l’85mm serie H 1.8 della Nippon Kogaku, una lente per la quale l’ingegnere ottico prese la massima onorificenza dall’imperatore del giappone per il lavoro svolto nella qualità ottica e costruttiva; quante lenti oggigiorno possono vantare un simile background?

Un altro marchio che mi ha offerto tante soddisfazioni sono le lenti della serie Minolta rokkor MD, ho un 50mm 1.4 che usato con mirrorless mi ha offerto tante soddisfazioni sia come luce che nitidezza, di fronte ad una lente comprata usata per meno di 90 euro.

Un altro marchio molto interessante è Voigtlander, che produceva e produce lenti di altissimo livello, in vari mount, tra cui un mount molto interessante che è il Rolley QBM, il fattore interessante di questo mount è che è molto semplice ed economico adattarlo all’attacco EF canon, basta acquistare una economica baionetta, svitare le tre viti posteriori della lente, togliere il vecchio mount e mettere il nuovo, riavvitare e a questo punto la lente è pronta per essere saldamente unita con moderne camere.

Posseggo uno splendido voigtlander Ultron 55mm 1.4 AR che offre una luce e una definizione spettacolare anche sui moderni sensori, sia al centro che lateralmente anche a tutta apertura. Questi sono fotogrammi estratti da test eseguiti con la lente modificata e montata su una Blackmagic Production Camera 4k, pur vedendo solo dei jpeg è possibile comprendere la qualità offerta da una lente che ha più di 40 anni.

Naturalmente so che ci sono molte lenti Leica e Zeiss di qualità più alta di queste, ma parliamo di costi ben più alti che non avrei potuto affrontare, perchè anche se vintage, invece di perdere valore nel tempo, quelle lenti si sono accresciute di valore.

L’uso delle vintage è una moda o una reale necessità?

personalmente posso dire che ho una doppia ragione, da un lato parlo di un lato economico, perchè posso acquistare lenti vintage di una qualità che non potrei affrontare nelle controparti Zeiss moderne; da un altro lato il mio gusto visivo trova più soddisfazione nell’usare questo tipo di lenti che le asettiche e ultra taglienti lenti moderne, che trovo spesso anche troppo contrastate (non parlo di dettaglio, ma di contrasto luce ombra) per i miei gusti.

Che poi sia di moda in vintage e si cerchi di riprodurre i difetti dei filmati amatoriali del passato, quello è un discorso diverso, ad esempio la moda lanciata dalla Lomo, e la moda della lomografia, macchine e lenti con difetti voluti per simulare le brutte foto o i brutti sviluppi del passato è un tipo di gusto visivo che nasce dalla noia della perfezione moderna, dove chi sa che può riprodurre mille volte lo stesso risultato cerca l’originalità nel finto difetto, o vero difetto. Il che, mi ripeto, lo trovo ironico e divertente in un mondo in cui ci sono persone che cercano la perfezione assoluta, il risultato perfetto e la definizione perfetta.

Leggendo una intervista al leggendario Roger Deakins, ho visto che anche lui, nel campo cinematografico ha una netta preferenza alle lenti prodotte più nel passato che in quelle moderne per un certo modo in cui catturano la luce, e decisamente lui non ha problemi nel scegliere di noleggiare una lente più moderna da una prodotta 20 o 30 anni fà per una cinepresa seria.

Blackmagic Production camera 4k

designLe camere Blackmagic dal 2012 stanno sconvolgendo il mercato, dopo la prima 2.5k con un sensore s16 l’azienda ha lanciato diverse altre camere per affrontare diverse fasce di prezzo, fasce di produzione, ambiti di lavoro.

Per una serie di combinazioni fortunate ho per le mani una BMP4K che mi sta dando tante soddisfazioni in tanti ambiti, da quello più complesso a quello più semplice della ripresa in stile camera ENG.

Su queste macchine sono nati tanti miti, sia perchè sono apparentemente “economiche ” (la 4k costa poco più di una 5d MKIII) e quindi accessibili anche ai newbey del cinema, sia perchè molte persone hanno avuto la pretesa da una Cinema camera come una telecamera amatoriale, ovvero tutta in automatico, avendo risultati poco entusiasmanti.

Essendo più economica di una controparte come Red o Arriflex tante persone hanno potuto acquistare la camera, ma senza la preparazione, o la voglia di imparare ad usare una Cinema camera, ovvero un prodotto che nasce per il cinema, con tutto ciò che ne consegue.

Il fatto ironico è che la maggior parte dei difetti che vengono imputati alla camera sono gli stessi che si possono trovare su camere professionali da una decina di volte il suo prezzo, ma in quel caso non si trovano tanti lamenti, ma al contrario si guarda l’estrema qualità che offrono queste macchine. Il problema vero è solo ignoranza sul prodotto, sul tipo di prodotto che gli utenti hanno per le mani, quindi si cercano funzioni o automatismi tipici dei prodotti amatoriali o semiprofessionali che non esistono sulle cineprese digitali.

Mito 1 : economica = non professionale

Molte persone sentendo il prezzo di base della camera la scambiano per una fotocamera e quindi la considerano più un giocattolo che una cinepresa. Partiamo dal fatto che la camera da sola non serve a nulla, quindi oltre alla camera si deve investire una cifra superiore a quella della camera stessa per renderla operativa aggiungendo ad essa come minimo le seguenti componenti :

  • cage per gestire l’ergonomia della camera >150€
  • supporto batteria v-lock o g-mount > 150€
  • batteria g-lock v-mount 100 w > 200€
  • microfono pro >200€
  • recorder esterno / amplificatore audio > 300€
  • ssd certificato 480gb (20 min raw -> 4 ore proresHQ) 250€
  • zoom luminoso serio stabilizzato 2.8 minimo > 1200€
  • Filtro ND variabile serio (per esposizione corretta) 200€
  • Filtro IR per gestire IrPollution in situazioni complesse 180€
  • cavalletto base ma stabile >750€

quindi l’investimento minimo è di circa 7000€ ben oltre la classica vDSLR o la telecamera media base, per cui proprio giocattolo non la definirei…

Se poi una persona vuole lavorare con più qualità, a questi elementi si devono aggiungere :

  • Monitor serio SDI in Hd >500€
  • Filtri ND a lastra pieni e sfumati
  • Lenti prime 35mm-50mm-85mm-135mm  >400€ per lente

Però chi arriva dal mondo Run&Gun delle VDSLR non si rende conto che si devono prendere un minimo di accessori ed elementi per rendere operativa la camera, nè accetta che se si vuol passare dalla serie C alla serie B si deve investire non solo soldi, ma anche tempo, studio, esperienza per usare al meglio il nuovo mezzo.

Mito 2 : la batteria dura poco e non si può cambiare

Molte persone che vengono dalle telecamere amatoriali o dalle fotocamere sono perplessi da questa scelta, che è comune nel mondo professionale, perchè la batteria interna non è una batteria da produzione, ma di sostegno, ovvero serve a mantenere operativa la camera quando si passa da una batteria esterna all’altra.

Le camere professionali usano sempre e solo batterie esterne, perchè montare una batteria interna di grande capacità appesantirebbe troppo la camera, e la renderebbe troppo ingombrante. Al contrario in caso di uso di Gimbal o strumenti in cui serve la camera più “free” la batteria interna consente in tante situazioni di agire dove una normale cinepresa sarebbe troppo ingombrante con una batteria aggiuntiva.

Mito 3 : ha pochi iso, non va bene per le situazioni LowLight

Le camere Blackmagic Design nascono con poche simulazioni di iso, solitamente 200-400-800 e alcune hanno anche il 1600 iso.
La scelta tecnica è evidente per una persona che ha sempre lavorato con la pellicola, mentre è incomprensibile per chi arriva dal video.
Un sensore, tranne che per alcune eccezioni, ha solo una sensibilità, mentre le altre sono solo elaborazioni digitali delle informazioni catturate dal sensore.

La BMPC4K è una camera che nasce a 400 iso, dove esprime il meglio della gamma dinamica, quando si lavora in low light

porto di santa margherita ligure di notte

Esempio di shooting a 400 iso

BMD ha fatto la scelta più efficace, catturare tutto il possibile dal sensore e poi decidere in post con calma quanto tirar su, come e quanto ridurre rumore, etc.
Per la simulazione dei diversi iso ho approfondito i vari principi di lavoro in un altro articolo.

Il vero problema di avere pochi iso disponibili nella scelta (che quasi nessuno in realtà vede, ma è reale) quando si riprende in lowlight, potendo solo arrivare a 800 iso come simulazione, diventa più difficile fare il fuoco manuale, anche con il focus peaking, mentre in camere dove abbiamo la simulazione di iso maggiori, è più semplice vedere per mettere a fuoco con poca luce, mentre con la BMPC4K o si ha un monitor esterno con lut e simili o diventa complicato, ma si fa, come si è sempre fatto con le cineprese in 100 anni di cinema, non a caso nel cinema a lato cinepresa c’è un misuratore di distanza digitale per i fuochi.

Mito 4 : produce file troppo grossi da usare

beh questo è il mito che mi fa più ridere… si compra una cinepresa digitale per avere qualità e poi si pretende che registri dei file compressi come l’h264 o h265… rovinando tutta la qualità che può offrire…

Comunque oltre al Raw, che effettivamente richiede spazio e potenza per lavorarlo la stessa camera può registrare in diversi formati prores molto più parchi nello spazio occupato pur mantenendo una qualità molto alta.

Dal 4k si può passare al formato fullHD che è di ottima qualità perchè è un downsampling del segnale 4k che arriva dal sensore, quindi con un dettaglio e una nitidezza incredibili occupando comunque uno spazio ragionevole.

Se si spende 7000 € per una camera e poi non si spende qualche centinaio di euro per gli hard disk del girato… cambiate mestiere…

Mito 5 : non scatta fotografie

Per forza è una cinepresa!!! se è per quello non va su internet, e non fa un buon espresso…
anche se la maggior parte delle telecamere scattano fotografie, spesso di qualità non eccelsa, non è molto assennato comprare una cinepresa per scattare fotografie…
E’ un commento fatto da chi arriva dalle vdslr, e mi lascia perplesso… a quel punto potrei rovesciare la domanda, se compri una fotocamera da 2500 euro perchè non fa bene i video in fullHD e 4K (A7 series esclusa) ?

Comunque se una persona volesse usare la BMPC4K come fotocamera, e si adattasse ad una ergonomia non adatta a questo scopo, basta mettere la camera in modalità raw, scatto in timelapse a 1minuto, e usare il bottone d’azione anteriore per lo scatto.

Di contro si può pensare alla BMPC4K come una delle poche fotocamere al mondo da 8.6 megapixel che può scattare raffiche di 30 fotogrammi al secondo per lo spazio disponibile sulla memoria, cosa che nessuna dslr può fare…

Personalmente ho una fotocamera per fotografare, una cinepresa per riprendere, ad ogni oggetto il suo scopo dove si esprime al meglio.

Mito 6 : ha un sensore piccolo per sfuocare

La BMPC4k ha un sensore s35 standard come Alexa e Red, quindi nel formato 35mm cinematografico, con le ottiche si comporta esattamente come si comporta una cinepresa di fascia alta; la ricerca dello sfuocato ad ogni costo è una moda moderna nata con le riprese fatte con le fullframe, dove la profondità di campo viene ridotta in modo esagerato e incontrollabile.

Un sensore troppo grande impedisce l’uso di ottiche più veloci e costringe a usare iso maggiori con perdite di qualità e controllo in ripresa.
Non è un caso che il cinema sia stato per la maggior parte delle sue incarnazioni un formato 35mm, mentre il formato 70mm è sempre stato relegato a poche produzioni e in situazioni più particolari. Una dimensione di piano focale troppo grande costringe l’uso di diaframmi molto chiusi per poter gestire agilmente la profondità di campo sia nello statico ma soprattutto in movimento.

Se volete approfondire il discorso dei formati della pellicola e dei sensori potete leggere questo articolo, mentre a riguardo dei vantaggi e svantaggi dell’uso di sensori di dimensioni grandi e piccole le trovate in questo altro articolo. Con l’esclusione di Barry Lindon dove Kubrick fece fare delle lenti apposite molto veloci, si tende a usare diaframmi più chiusi per non far impazzire i fuochisti e avere spazio di movimento.

Mito 7 : non ha un Nd integrato

Solo le telecamere hanno filtri ND integrati e non sempre di alta qualità, Blackmagic ha fatto una scelta ben precisa, ottimizzare i costi creando un corpo macchina cinema, con le logiche del cinema, nessun Dop serio userebbe un Nd interno se può scegliere un Nd esterno, magari sfumato e di qualità molto più alta.

Allora lo stesso tipo di difetto lo si può imputare  a macchine più costose come Red o Alexa, ma nessuno sembra lamentarsene…

Mito 8 : non si possono cancellare le clip, riempirò il disco subito

vero, anzi verissimo, perchè come in altre camere professionali è impedita la cancellazione per due ragioni tecnico pratiche molto importanti :

  • si evitano cancellazioni accidentali di clip da parte dell’operatore o altre persone attorno alla camera
  • si evita la frammentazione del supporto con continue cancellazioni di clip e riscritture. Fondamentale quando si registrano dati raw a quasi 20 gb al minuto…
    La frammentazione causerebbe sicuramente rallentamenti nella registrazione, e/o fotogrammi saltati durante la registrazione

Il problema di riempire i supporti è proprio relativo ai videomaker, o chi è nato col nastro (me compreso) perchè abituati a supporti molto economici si tende a sprecare registrando il superfluo, e quasi a caso nella speranza di azzeccare qualcosa di migliore nel riprendere di più.

Nel cinema non si possono registrare di nuovo le pellicole, si impressionano una volta sola, se si sbaglia, si butta la pellicola… Usare gli ssd con le Blackmagic Camera segue lo stesso principio, non si butta nulla, ma prima di fare una ripresa una persona deve pensarci bene e fare al meglio.
Più che un limite lo vedo come l’opportunità di lavorare al meglio per quello che si vuol fare, per imparare a inquadrare e riprendere meglio.

Mito 9 : è una camera rumorosa

Per fortuna.. come lo sono anche Alexa e Red quando non sono esposte correttamente, o una pellicola sottoesposta… La camera nasce IN TUTTO e per TUTTO una camera votata alla postproduzione, e la riduzione rumore è un processo da fare BENE in postproduzione, farla in registrazione è una necessità delle riprese Run&Gun, ma nel cinema si cattura il materiale al meglio e poi solo dopo si andrà a manipolare, campionare e rimuovere il rumore scegliendo per ogni inquadratura i settaggi migliori, senza perdere di definizione.

Inoltre è importante sapere che la camera è una macchina che deve lavorare in ETTR, ovvero una camera che si espone guardando l’istogramma e spostandolo dal centro a destra, fino al limite della saturazione, in modo che si avrà l’immagine più pulita e definita possibile.

L’esposizione ETTR che molti fotografi già conoscono, sia moderni che utilizzatori della pellicola, spesso è poco compresa dagli utilizzatori classici di camere e telecamere.

Il concetto è molto semplice, per avere una immagine pulita senza rumore si deve offrire un minimo di xx informazioni luminose, quindi si apre il diaframma, si illumina, si gestisce l’esposizione per far si che le parti più buie abbiano più luce possibile senza mandare in saturazione le alte luci, poi in post si riportano le informazioni dell’istogramma nella posizione corretta, con la differenza che saranno più pulite.

Dato che sia il raw che il prores 10bit offrono maggior spazio di azione, registrare immagini sovraesposte (ma non clippate) offre la possibilità di catturare immagini più pulite, che verranno equilibrate a posteriori.

C’è un interessante articolo sull’ETTR sul blog di un filmaker molto in gamba Tom Majersky, per comprendere bene come funziona e come usarlo al meglio.

Mito 10 : non registra l’audio bene

La camera nasce con un micro microfono giusto di riferimento, poi ha due ingressi audio bilanciati per introdurre un segnale audio stereo di qualità. grazie ai ricenti firmware (dell’ultimo anno) è stata ottimizzata per registrare da microfoni esterni o attraverso recorder esterni un segnale audio di più che discreta qualità, visto che comunque cattura audio a 24bit 48 khz… Volendo si può collegare un microfono direttamente agli ingressi bilanciati, ma come per molte altre camere è meglio mettere in mezzo tra microfono e camera un amplificatore di segnale, o personalmente ho fatto la scelta di un recorder esterno Tascam dr-70, che fa sia da amplificatore che da recorder a 24bit 96khz, con canali separati (4) per cui ho sia una buona copia in camera dell’audio per il sinch automatico, sia un sistema di cattura e audio di alta qualità.

Potrei girare l’affermazione dicendo che tranne le vdslr panasonic le altre vdslr hanno un audio scarso e spesso non hanno neanche l’ingresso per l’audio serio da microfoni esterni…

Quali sono invece le informazioni che molti non sanno, e che invece sarebbe importante che i futuri acquirenti di una camera del genere dovrebbero sapere?

  • la camera nasce con lcd posteriore a bassa risoluzione per una visione veloce e il controllo touch delle funzioni, avere un monitor esterno di qualità per fuoco e gestioni generali è fondamentale.
  • la camera nasce per fare riprese votate alla post, se la si vuol usare Run&Gun esprime il suo meglio in FullHD proresLt dove tra scalatura e compressione il rumore è sparito nella maggior parte delle situazioni, e usando la curva Film si lascia ancora spazio alla post colore, mentre se si usa la curva Video, si ha già immagini di ottima qualità per montarle e usarle direttamente, essendo comunque dei file a 10bit.
  • per registrare un audio buono è fondamentale introdurre un segnale di un microfono amplificato direttamente o con un amplificatore intermedio beachtek o simili, come si fa con le dslr, per avere un buon rapporto segnale rumore
  • non tutte le ottiche canon compatibili sono supportate completamente, in particolare quelle che non hanno acquisito da canon gli schemi di costruzione delle ottiche e dell’elettronica, ma hanno fatto reverse engeneering (non faccio nomi, ma nell’ambiente e con una ricerca google si scopre), in quei casi la stabilizzazione potrebbe non essere supportata, come anche il fuoco automatico o il controllo diaframmi. Con l’uso delle ottiche native canon in generale si ha compatibilità quasi totale.
  • nascendo come cinema camera, anche riggata, è comunque una camera massiccia e che per le riprese in movimento richiede un certo tipo di attrezzatura per essere “mossa” in libertà.
  • il meglio dello sviluppo dei file avviene con DaVinci Resolve, che viene fornito in licenza full con la macchina, in particolare i file raw, ciò che si può estrarre dai file raw con davinci, per quanto si usino altri software evoluti, non si estrae tutta la gamma tonale, e comunque non con la stessa semplicità e pochi click.
  • come indicato nel mito 9, si deve sapere come va esposta, ovvero dato che il sensore lavora come la pellicola, si deve saper gestire al meglio il tutto, per poter estrapolare il massimo della qualità, se l’esposizione viene gestita in modo normale il sensore non riceverà il massimo della luce che serve e quindi i risultati saranno sempre di qualità più scarsa. Questa camera preferisce lavorare in ETTR, se non si applica questo sistema di esposizione le immagini saranno oltre che più piatte, più rumorose di quello che serve, inutilmente, meno dettagliate e povere d’informazioni nelle ombre.
  • la camera, come Alexa e Red soffre di IR pollution, quindi usando i filtri ND per ridurre la luce di giorno (perchè il problema non è quando manca luce, ma quando ce n’è troppa) si deve usare un filtro ircut che tagli le frequenze da 680 nm per evitare che i filtri neutri più forti diano una una dominante rosso marcino alle immagini.

 

LUT cosa sono e a cosa servono.

lut-buddyCosa sono le LUT?

ci sono tanti modi di spiegare una LUT, più tecnico o più pratico, a me interessa spiegare il lato pratico, per il lato tecnico basta una ricerca su Google e trovate mille e più pagine tecniche che vi spiegano cosa sono fino alla formula matematica che le descrive.

Una LUT Look Up Table è praticamente una tabella, un preset che prende i colori di una immagine, di un filmato, e li corregge secondo i valori contenuti nello schema della LUT.
Internamente ci sono tabelle a 1, 2, 3 dimensioni che prendono il valore del colore originale e lo cambiano in un altro valore; le LUT 3D sono quelle più precise, perchè descrivono la trasformazione del colore in modo più dettagliato secondo lo spettro cromatico più esteso, se nella modalità 1D è una tabella valori in cui 1 diventerà 1.22, nella lut 3D cubica abbiamo uno scostamento sui tre assi del colore e quindi avendo una descrizione più dettagliata, sarà più precisa la correzione che la LUT andrà ad applicare.

A cosa servono le LUT?

Le LUT servono a tre scopi diversi, a seconda di quando si applicano tali correzioni.

LUT da set/Monitor : girando con camere che lavorano girando il log o in raw, il materiale se rivisto direttamente sarebbe strano, desaturato, piatto come contrasti, quindi spesso si usano monitor che al volo applicano una LUT per mostrare il materiale secondo una visione più “tradizionale” ad esempio il rec709 che è lo standard video.

LUT di sviluppo : sia sul set che magari dopo, si creano delle LUT per fissare un certo tipo di correzione dell’immagine originale per fissare l’estetica dello shot che viene fatto, in modo che il Direttore di fotografia possa al momento verificare l’effetto generale della ripresa fatta, che dare delle indicazioni in modo che chi si occuperà della fase color grading abbia una indicazione precisa di cosa il Direttore di Fotografia intendeva catturare sul set.

LUT di Postproduzione : si carica o si crea una tabella di correzione per dare un particolare look alle immagini partendo da LUT che simulano il tipo di risultato che si avrebbe in “determinate condizioni” ad esempio le Lut che simulano i diversi tipi di pellicola emulano come i colori e i contrasti si altererebbero in funzione della stampa su quel tipo di pellicola.

per far soldi … vendendo dei preset che forse potranno funzionare, su alcune immagini…

Perchè non funziona la LUT che sto applicando?

La spiegazione è molto semplice, la LUT funziona sempre, è l’immagine a cui la diamo in pasto che non è adatta.
Contrariamente a quello che pensano in molti, le LUT nascono come preset di correzione del colore, sviluppate su immagini di tipo X, quindi le LUT vi forniranno quel tipo di risultato SOLO se voi le applicherete ad immagini con lo stesso tipo di contrasto e densità di colore, altrimenti i risultati possono essere di ogni tipo. Le LUT sono SOLO delle tabelle di allocazione del colore, ma non possono essere senzienti, ovvero non sanno quale sarà il risultato finale, solo di quanto cambiare il tutto.

Come faccio a far funzionare una LUT?

domanda semplice, risposta molto semplice, olio di gomito, si deve alterare l’immagine sorgente PRIMA di applicare la lut in modo che sia il più simile possibile all’immagine originale usata per creare la lut, questo farà si che il risultato finale sarà il più vicino possibile a quello che ci si aspetta dall’immagine dimostrativa della LUT.

Perchè una immagine NON vale l’altra quando applico le LUT?

se una immagine ha un contrasto alto o basso, la LUT scosterà i colori in modo diverso.

qui potete vedere un esempio di come una immagine LOG o in modalità video rec 709 per la una LUT Kodachrome siano sbagliate, e quindi da una delle due ho dovuto creare una immagine ad hoc per poter ottenere un risultato più naturale da quella LUT.

completoIl file Log non è abbastanza flat, il file rec 709 è troppo contrastato e troppo saturo, mentre per far funzionare correttamente la lut ho dovuto decontrastare il log, ma saturarlo un po’ di più dell’originale. Quindi diventa evidente che quando si usa una LUT più “aggressiva” di un semplice sviluppo delicato, spesso è necessario mettere in mezzo un livello di correzione per far funzionare la lut nel modo corretto, lavorando sul contrasto e sul colore, perchè spesso la tabella è troppo forte o poco forte.

La Lut deve essere pensata più da un punto di partenza, che un punto di arrivo, per cui può essere interessante per la manipolazione delle immagini, ma non la si deve pensare come una bacchetta magica, non trasforma in pellicola le immagini che gli date in pasto alle Lut, ma aiutano lo sviluppo delle immagini per arrivare ad un determinato risultato.

La free Lut per simulare la cara e vecchia Kodachrome è un dono fatto dal cinematographer Frank Glencairn, la potete trovare sul suo blog in questo interessante Articolo sullo sviluppo del colore in stile kodachrome.

Come le lavoro le immagini prima delle LUT?

con qualunque strumento che vi permetta di vedere in realtime le applicazioni di Lut e correzione colore in contemporanea, ad esempio lo strumento LUMETRI di premiere cc 2015.5, che contiene la possibilità di caricare le LUT in due punti diversi, sia per lo sviluppo base e poi per lo sviluppo creativo, e la cosa interessante è che nello sviluppo creativo i programmatori di Adobe hanno introdotto controlli di regolazione colore come lo “sbiadito” e vividezza; sbiadito è la traduzione un po’ grossolana di bleach pass, il candeggiante, che aiuta l’applicazione delle LUT rendendo più “flat” piatta l’immagine riducendo contemporaneamente sia la saturazione che il contrasto; la vividezza è uno strumento che aumenta il colore inversamente al valore della saturazione degli elementi, oppure toglie colore in modo direttamente proporzionale alla quantità di saturazione degli elementi, molto utile per uniformare i valori di saturazione dell’immagine, riducendo gli eccessi e i contrasti di saturazione che complicano l’applicazione delle LUT e tutte le altre lavorazioni di correzione colore.

Su photoshop ad esempio le LUT si applicano come livello di regolazione, per cui possiamo inserire prima del livello di LUT due livelli di regolazione di valori tonali e vividezza e controlliamo agilmente l’immagine vedendo anche quanto la LUT la cambia e “dosiamo” l’intervento della lut stessa.

Posso applicare le LUT ad ogni tipo di immagine?

Le lut nascono per lavorare al meglio su immagini flat che nascono da file log o raw, per cui applicandole su immagini morbide e poco sature le LUT possono agire bene, e possono funzionare di più al secondo colpo.

Perchè dico al secondo colpo? Perchè log non è uno standard, se prendiamo un file log di una red, di una blackmagic, di una alexa, di una dbolex avremo tanti log diversi, diverse saturazioni e diversi contrasti. Log è un file in cui il colore e il contrasto invece di essere registrati in modo lineare sono registrati in modo logaritmico per gestire meglio e più latitudine di posa e informazioni, ma ogni azienda ha il suo modo di gestire e catturare le informazioni log.

Ad esempio logC Alexa e log blackmagic sono molto simili, Alexa tiene la saturazione più alta, Blackmagic più bassa, ma il contrasto di luminosità è invertito, quindi la LUT sviluppata sulle immagini di una non va bene su quelle dell’altra e viceversa.
Entrambe le camere registrano un log 10bit in .mov e un 12bit log raw, partendo da un sensore 16bit, ma la curva di gestione è differente.
Potete trovare qui alcune indicazioni della curva di log della Alexa.
Questo significa che anche salendo su camere più professionali non esiste un modo standard di creare le immagini e catturarle allo stesso modo. Se una Lut potesse magicamente equilibrare le immagini e dare l’aspetto X indipendentemente dalla sorgente, probabilmente sarebbe superfluo avere sia sul set che in post diversi ruoli e diverse professionalità, ma nonostante i tentativi di filtri, sistemi di allineamento colore in post, uso di tabelle come il target gretag e simili, i sistemi di correzione colore automatici al massimo posso aiutare a “normalizzare” ovvero uniformare le immagini tra di loro, ma di certo non a creare la magia, per quella servono sempre gli esseri umani.

Un altro esempio di come una camera non possa lavorare in modo lineare è dato dal fatto che a seconda della lente che poniamo davanti, dell’iso impostato, anche lavorando con le stesse condizioni cambierà il contrasto di luce, e quindi anche poi la saturazione. Quindi anche usando la stessa camera, e girando in raw, dove non avvengono elaborazioni, ma si cattura esattamente ciò che il sensore legge, basta aprire o chiudere i diaframmi della lente fissa, che cambiando il contrasto una lut usata a TA (tutta apertura) sarà inutilizzabile a 11 di diaframma perchè l’immagine andrà massaggiata prima di essere sottoposta alla lut.

4k la vecchia frontiera del nuovo, in attesa dei televisori 8k che non potremo vedere

Pur essendo un fautore del 4k per la ripresa, perchè offre molto materiale su cui lavorare, tanti vantaggi in ogni operazione di manipolazione del materiale, sono convinto che sia l’ennesima bufala del 21 secolo per vendere il nuovo televisore, i nuovi vecchi contenuti.

Perchè il 4k è inutile nei televisori, nei cellulari, nelle telecamere amatoriali?

senza parlare del fatto che se non viene usato per la postproduzione è uno spreco di risorse cpu del dispositivo di cattura, spazio di memoria occupato, surriscaldamento del dispositivo, il 4k su un dispositivo al di sotto di determinate dimensioni è uno spreco inutile. L’acutezza visiva di un essere umano medio è tale da percepire circa 1/10 mm a circa 50cm di distanza, considerato che un pannello 4k di dimensioni medio è una densità di 110 ppi, ovvero su un 40 pollici si parla di 4 punti per mm quadro, peccato che un 40 pollici si guarderà da almeno 150 cm dove la capacità risolutiva è scesa in media a 2-3mm, quindi ci sono ben dieci volte le informazioni percebili da un essere umano medio…

questo calcolo è valido esclusivamente se noi abbiamo una fonte 4k pura, perchè se su quel televisore vediamo un filmato 4k da streaming, youtube 4k, cellulare o altri elementi in realtà non avremo tutte quelle informazioni, perchè il pannello offre quella definizione, ma i dati trasmessi non li hanno, per cui il televisore sarà completamente inutile….

quindi perchè comprare un televisore 4k oggi?

Facciamo una analisi molte semplice e rapida dei pro e dei contro :

Pro:

  1. è una grande cornice digitale ad alta risoluzione per le vostre fotografie
  2. se ho una vera cinepresa digitale 4k posso vedere le immagini nel loro reale splendore, se sto molto vicino al 40 pollici che ho comprato.

Contro:

  1. non ci sono ancora contenuti veri in 4k con cui sfruttare una tv 4k
  2. lo standard bluray 4k è ancora teorico, ma non esistono bluray 4k in commercio
  3. non esistono ancora film girati completamente in 4k, quindi comunque si vedrebbero filmati “gonfiati” e non nativi 4k
  4. lo streming 4k in realtà offre meno di 2,7 k di risoluzione effettiva, il resto nasce per interpolazione quindi nuovamente inutile.
  5. la trasmissione 4k è teoria, in realtà ad oggi sono pochi i canali in FullHD (1920 x 1080), la maggior parte al max sono hd (1280×720).
  6. i televisori 4k non hanno decoder digitali per ricevere segnali 4k perchè non sono ancora stati definiti standard di trasmissione 4k, quindi al momento in cui esisteranno i canali 4k il nostro televisore sarà già obsoleto e non in grado di mostrare i filmati alla risoluzione 4k.
  7. la lettura di filmati FullHd offre una visione sfuocata dei contenuti (perchè gonfiata 4 volte) oppure troppo incisa perchè per mascherare l’immagine morbida viene processata mangiando in realtà diversi livelli di dettaglio durante le operazioni crude di sharpening. Quindi per vedere un bluray è un pessimo veicolo.
  8. costerà molto di più di un equivalente fullHD di qualità, non offrendo ad oggi la possibilità di vedere immagini realmente differenti.
  9. nel visualizzare immagini amatoriali 4k da cellulari, telecamere etc non è detto che esse abbiano sufficiente dettaglio per mostrare immagini di qualità per sfruttare la matrice 4k
  10. per percepire la reale differenza tra un tv 4k e un tv Fhd si deve andare dai 50 pollici in su, che però si dovranno vedere più da lontano e quindi si torna all’assurto iniziale, inutile per la maggior parte delle persone che non hanno la capacità visiva di apprezzarne il dettaglio a livello fisiologico.

perchè il 4k al cinema non serve?

la proiezione 4k è una piccola truffa, perchè in realtà la maggior parte dei film viene girata con cineprese digitali in 2k, come le alexa, per cui il fatto che venga poi proiettato in 4k non da nessun vantaggio di fatto, anzi, è un inutile flettere i muscoli di tutto il sistema, perchè richiederà 4 volte lo spazio originale del 2k, risorse maggiori per il play e la gestione dei contenuti senza dare un reale vantaggio.

Ma veramente non si vede la differenza?

Nolan si vantava di aver girato in Imax (formato in altissima definizione pellicola) l’ultimo cavaliere oscuro e Interstellar, e un sacco di gente ha detto di aver notato la differenza..
Sarei curioso di chiedere a quella stessa gente se mi sa indicare in quali inquadrature ha notato la differenza, perchè nessuno dei due è girato completamente in Imax, troppo costoso, troppo grandi e scomode le cineprese, etc etc… per cui sono state alternate le riprese di s35 tradizionali a quelle di imax (prettamente degli esterni dove era più semplice gestire macchine da presa più ingombranti)… soprattutto visto che queste pellicole nella maggior parte delle situazioni sono state viste in sale digitali su proiettori 2k, quindi dove tutto era appiattito e spostato verso il basso.

Altro punto a favore per l’impasto generale è dato dal fatto che molti film subendo digitalmente una postproduzione molto pesante, anche solo a livello di editing e color correction, non si è poi in grado di distinguere nelle riprese brevi fatte da dslr, go pro, telecamere, da cineprese professionali. Il tutto grazie al fatto che vengono utilizzate nella situazione migliore per estrapolare al meglio la qualità visiva dai diversi sensori facendole lavorare al meglio delle loro possibilità.

quindi per il 4k è presto?

beh si riprende in 4k per il futuro, perchè si estrae un 2k e un fullHD di altissima qualità, ma usare direttamente il 4k a livello domestico è uno spreco, perchè non è percepibile direttamente dall’occhio nella maggior parte delle situazioni domestiche.

perchè allora proliferano i televisori in 4k e tutte le periferiche 4k?

qualcosa vi devono vendere, o no?
Nel marketing si sono sempre usati i numeri per dare una percezione tangibile di un valore, anche se qui numeri non avevano reale connessione col valore del prodotto.

ad esempio, i masterizzatori sono partiti col 2x dei cd, fino ad arrivare a x52 dei dvd, ma nessuno vi dice che i supporti x52 non esistono, perchè la masterizzazione è un bilanciamento tra velocità di scrittura e numero di errori introdotti, a seconda della qualità del supporto la velocità viene dosata per introdurre un numero minimo di errori di scrittura, per permettere la lettura dei dati e grazie ad un sistema di correzione dell’errore poter risalire ai dati originali. Il concetto della correzione dell’errore di lettura era nato in origine per compensare i difetti di fabbricazione, e/o di graffi o i danni al supporto, nel tempo questo sistema è diventato un metodo per accelerare la scrittura sui supporti basandosi sul fatto che alla fine si riesce lo stesso a leggere i dati.

Il problema dove sta? nel fatto che se si porta un supporto al limite della leggibilità perchè lo vogliamo masterizzare a x52 invece che a x8, basta una leggera usura a rendere illeggibili i dati scritti. Non solo, la scrittura lenta applica in modo diverso il laser di scrittura e introducendo meno errori rende il supporto più resistente anche a usura più forte, esposizione a uv, deformazione del supporto scrivibile,  etc.
Il che fa pensare su come in modo superficiale si scrivano dati su un supporto, senza aver avuto nozioni di come farlo e come conservarlo.. auguri ai masterizzatori da formula 1, forse dopo 3-4 mesi potranno ancora rileggere qualcosa dai loro supporti.

un altro esempio, i megapixel delle fotocamere:

da sempre sembra che i megapixel siano indice di qualità, ma se si schiacciano su un sensore da 1/4 di pollice 40 megapixel, non si può pensare di avere la stessa pulizia e luce di 12 megapixel su un sensore fullframe, perchè la luce catturata da ogni recettore è maggiore. In realtà non sono solo i megapixel ma anche la capacità degli stessi di catturare informazioni, la superficie coperta che offrono la qualità effettiva dell’immagine catturata, ma il concetto è troppo complicato, quindi per la massa + megapixel = + qualità.

ricordo ancora quando regalai a mia sorella una compatta da tre megapixel, in un mondo in cui ne erano già uscite diverse da 5-6 megapixel, ma le fotografie e il dettaglio di quelle fotografie era inarrivabile dalle equivalenti come fascia di prezzo, perchè alcune interpolavano, altre avevano si più recettori ma meno sensibili etc etc.

oggi una gara nelle fotocamere e telecamere è la sensibilità (in realtà anche 25 anni fa, visto che si parla anche allora di riprendere con una candela).
Se non si riprende al buio, e non parlo di luce naturale, ma di buio, allora la camera non è degna di nota… quindi una red e una alexa, cineprese digitali con cui fanno i film che hanno una sensibilità nativa di soli 800 iso sono delle scamorze…

Perchè è già tardi comprare un televisore 4k?

diciamo che la mia è una affermazione provocatoria, ma non troppo…
perchè i giapponesi stanno già sperimentando le trasmissioni in 8k, per cui perchè comprare un prodotto superato, tanto vale passare direttamente all’8k 😀

battute a parte, i giapponesi sono sempre stati all’avanguardia con la sperimentazione, ricordo il primo sistema di fullHD ripresa e visione visto di persona al SIM audio Hifi a milano nel 1992, una sperimentazione congiunta tra RAI e un colosso giapponese Ikegami, ironicamente avevo ripreso tali immagini con la mia potentissima vhs a 200 linee e mi sembrava così lontana come qualità e potenza.

ben prima di questi pioneri già nel 1986 Francis Ford Coppola, prodotto da George Lucas, realizzava uno speciale video clip in 4D (3d più quello che oggi si chiama augmented reality) usando telecamere HD sperimentali con protagonista il grande Michael Jackson in Captain EO.
Questo per far presente come se l’HD era già presente come tecnologia nel 1986, oggi dopo quasi 30 anni, ancora non è lo standard televisivo, quindi valutiamo bene quanto il 4k possa penetrare dentro le nostre case in un paio di anni.
Soprattutto si deve riflettere sul fatto che 4k non vuol dire solo cambiare i sistemi di ricezione, poco costosi, ma cambiare tutti i sistemi di messa in onda e trasmissione, e per le televisioni sarebbe un investimento mostruoso, che dubito faranno così velocemente, visto che molte sono ancora alla Standard definition.

Powered by WordPress & Theme by Anders Norén