Carlo Macchiavello

Tutto è possibile

Category: Articoli (Page 1 of 3)

Il bistrattato genere Horror … la vera fucina dei talenti…

Johnny Deep in Nightmare on Elm Street

E’ ironico notare come spesso la critica parli male di un genere che dà spesso l’occasione agli attori di emergere : l’Horror

Il futuro Villain per Tarantino

Il genere spesso ricade nel low budget, soprattutto rispetto alle produzioni classiche, quindi gli attori emergenti spesso fanno delle parti nel genere dove nomi più altisonanti non sono gestibili con i budget ridotti del genere Horror.

Qualche nome? Giusto per non cadere nel generico, o parlare di attori che poi sono noti solo agli amanti del genere? E comunque ogni grande attore ha avuto la sua capatina nel genere, più o meno nobile dell’horror.

  • Leonardo di Caprio prima di essere il divo di MrGraves e Titanic combatte i criceti spaziali in Critters 3 nel 1991
  • Kate winslet, prima di salire sul Titanic per interpretare Rose, era stata una delle muse del fantahorror di Peter Jackson Creature del cielo nel 1994
  • Johnny Deep prima di essere il feticcio di Tim Burton e Jack Sparrow era una delle prime vittime di Freddy Krueger in Nightmare on Elm street del 1984
  • Winona Ryder deve il suo lancio alla commedia horror BeetleJuice di Tim Burton
  • Scarlett Johansson prima di diventare la Vedova Nera era una teenager nel film di genere Arac Attack nel 2002
  • Liam Neeson prima di essere consacrato al grande pubblico con Schindlers’ List era il dott Peyton WestLake, il supereroe horror di Sam Raimi Darkman del 1990, e ancor prima, nel 1988, nella commedia fanta horror High Spirits con Peter O’Toole e Daryl Hannah
  • Clint Eastwood esordisce nel 1955 La vendetta del mostro della laguna nera e nello stesso anno anche nel film Tarantula di Jack Arnold
  • Angelina Voight Jolie esordisce nel fantahorror del 1993 Cyborg 2 glass shadow
  • Brad Pitt esordisce giovanissimo, ma la sua stella inizia a brillare con Intervista col vampiro nel 1994 con Tom Cruise
  • Tom Cruise era già noto al grande pubblico con risky business, ma il salto di qualità lo fa diretto da Ridley Scott in Legend
  • il nostrano Zingaretti esordisce in una produzione horror italo americana Castle freak.
  • Tim Curry, istrionico, versatile artista ha attraversato ogni genere e personaggio, ma per i più resta il dott Frank-o-furter di The Rocky Horror Picture Show
  • Charlize Theron, oggi riconosciuta grande attrice dopo l’oscar di Monster e l’interpretazione in MadMax Fury Road, ha esordito in The children of the corn III
  • Robert De niro, anche se non a inizio carriera, non ha disdegnato l’interpretazione del mostro di Frankestein, in contrapposizione al dottore, interpretato da Kenneth Branagh nell’omonimo film Mary Shelley’s Frankenstein
  • John Travolta, prima delle febbre del sabato sera, faceva i suoi primi passi sul set di Carrie di Brian de Palma
  • Il grande Jack Nicholson, iniziò nel 1960 nella Piccola bottega degli orrori, per arrivare ad essere diretto da Kubrik nel 1980 in The Shining, fino a trasformarsi poi in Lupo mannaro nel 1994 in Wolf
  • Mila Kunis affronta nel 1995 in piranha per farsi largo nell’oceano del cinema
  • Kevin Bacon ha l’onore di essere una delle prime vittime di Jason nel 1980 in Venerdì 13
  • Jamie Lee Curtis è una delle prime donne che rivoluzionano l’assioma vittima carnefice nel 1978 in Halloween di John Carpenter
  • George Clooney è giovanissimo quando appare nella commedia horror Il ritorno dei pomodori assassini nel 1988
  • Tom Hanks esordisce nel 1980 in he know you are alone
  • Demi Moore, prima di ghost era nel fanta horror trash del 1980 Parasite
  • Sam Elliot nel 1972 si lancia col film Frogs
  • Sharon Stone nel 1981 viene portata alla ribalta da Wes Craven in Benedizione mortale

Insomma questa piccola carrellata per ricordare come il cinema di genere horror sia sempre stato prolifico di attori, registi, etc ma spesso si ricordano per le altre interpretazioni… dopo tutto già alla nascita del cinema si possono contare un sacco di horror, nel 1890 …



Come si espone correttamente? chissà…

Ho già scritto un articolo più esteso sull’esposizione, su come i diversi parametri shutter iso e diaframma influenzano l’esposizione, ma mi sono reso conto che spesso non è abbastanza chiaro cosa e perchè esporre in un certo modo, allora ho pensato che un post pratico possa essere più utile.

Per esporre serve un riferimento su cui lavorare, per alzare o abbassare la luce e gestire l’esposizione, i fotografi hanno sempre usato il classico cartoncino grigio 18% Kodak su cui misurare la luce. Oggi per chi lavora col digitale può trovare uno strumento molto comodo per misurare l’esposizione nel Passport dell’Xrite.

All’interno del passport troviamo un target per la calibrazione del bianco con un cartoncino grigio chiaro, che la classicoa gretag con le tacche colore, utili per uniformare diversi shot a posteriori. A seconda degli strumenti che avete a disposizione della vostra camera, dalla semplice zebra, ad uno strumento più efficiente che potrebbe essere la waveform, o se siamo più fortunati i falsi colori, dobbiamo misurare tale grigio e portarlo al valore x per la corretta esposizione.

L’esposizione eseguita col profilo rec 709 (riprese non logaritmiche) richiedono che il valore del cartoncino, o la terza tacca di grigio da destra sia a 40 ire.

Zebra : impostare la prima zebra a 40% la seconda zebra al 98%, con la prima controlliamo l’esposizione dell’incarnato, con la seconda che non sfondiamo le alte luci. Dato che in diverse camere la Zebra si ferma al 50% la si imposta e poi si scende con la luce fino a far sparire la zebra.

Waveform : qui è più facile perchè vedremo alzarsi o abbassarsi i valori luminosi, inquadrando esclusivamente il cartoncino grande potremo vedere se il valore rappresentato raggiunge o supera il 40%

Falsi colori : La corretta esposizione viene rappresentata dai colori, in questo caso il cartoncino sarà verde per il rec709, grigio scuro per il log.

Quando si deve esporre in modo corretto, si utilizza questo riferimento per avere due vantaggi, il primo è che indipendentemente dal resto dell’immagine si ha un riferimento univoco sia per fare l’esposizione, sia per allineare correttamente in post le diverse immagini; il secondo vantaggio è che in questo modo c’è consistenza nell’esposizione degli incarnati tra una scena e l’altra e quindi è molto più semplice rendere uniformi le immagini nelle fasi successive della lavorazione.
Riprendendo la tabella colore ad ogni ripresa avremo un riferimento per allineare i diversi colori, ottimizzare la temperatura colore.



Workflow che parolaccia

Workflow in inglese indica il corretto flusso di lavoro per eseguire nel modo corretto un lavoro X, ma pare che la maggior parte delle persone sia allergica a tale processo.

Nella mia vita ho visto milioni di persone, dal vivo o online lamentarsi che la camera/il programma/lo strumento XXX non fa XYZ, senza studiare come vanno usati o come vanno gestiti correttamente, perchè invece di leggere 10 pagine di manuale preferiscono perdere mesi su facebook e su google a cercare la risposta che hanno sotto gli occhi.

Gente che chiede perchè non riesce a fare l’operazione X che faceva su un prodotto completamente diverso, quando nel manuale è scritto esplicitamente che non si può fare o che si fa in modo diverso. Ad esempio con buona parte delle camere Blackmagic le persone riempono i forum di domande imbarazzanti piuttosto che leggere 19 pagine (con le figure) di manuale, e se una persona arriva a chiedere come si vedono le clip appena girate quando in grande ci sono i bottoni di play con il classico simbolo triangolare, convenzione esistente da prima che nascessi io…

Un esempio che trovo più imbarazzante mi è capitato stasera leggendo su un sito noto di filmaking una tecnica per ridurre l’effetto fisheye delle GoPro usando diversi programmi da HitFilm a PremiereCC e altri, spiegando quale funzione usare e come… peccato che GoPro fornisca gratis un sistema più efficace e di qualità per eseguire quello e altre operazioni importanti per gestire un filmato di una gopro, ma quasi nessuno lo usa… perchè è talmente facile da usare come camera, che tutti la usano subito senza leggere le istruzioni, e quindi… ne usano il 10% del potenziale.

Pur non essendo amante delle gopro per il tipo di ottica presente, sarebbe utile sapere che :

  • posseggono una modalità di ripresa log, detta protune, e un camraw per catturare meglio e in modo più cinematico le immagini proteggendo meglio le informazioni delle alte e basse luci, con differenze qualitative notevoli.
  • possono settare in diversi modi l’otturazione per avere una resa più cinematografica
  • nel sistema stesso di ripresa possono ridurre l’effetto fish eye con una elaborazione realtime della camera con diversi algoritmi creati da David Newman, autore di Cineform e di molte innovazioni Gopro
  • Il software free proprietario permette la lettura e ottimizzazione di un file log protune trasformandolo in un file più utilizzabile cineform attuando anche la conversione colore in uno spazio a 10bit 4:2:2 dal file originale 8bit 4:2:0 eseguendo l’upsampling del rosso e ottimizzando in funzione del file compresso da gopro, cosa che nessun software è in grado di eseguire
  • il software free proprietario legge i metadati della camera ed è in grado di gestire meglio la conversione da fisheys a filmato più “naturale” sfruttando i dati geometrici delle lenti goPro
  • il software free proprietario ha degli algoritmi per ottimizzare i timelapse fotografici realizzati con la gopro per fondere meglio e in modo più naturale i diversi fotogrammi.

E questo solo per dire alcune delle potenzialità che vengono regalate agli utenti gopro gratuitamente, ma che la maggior parte delle persone si perdono perchè non si prendono la briga di leggere le istruzioni o comprendere quale sia il corretto workflow di utilizzo di questa piccola ma potente camera.



Blackmagic Ursa Mini Pro, che mi serve per partire?

Blackmagic Design è una delle case più prolifiche e interessanti degli ultimi tempi, dopo aver introdotto tutte una serie di schede e strumenti video nel broadcast a costi molto bassi, ha iniziato una serie di acquisizioni di aziende sviluppatrici di software e hardware per poter creare un loro ecosistema video / cinema completo.

Dopo aver acquisito Davinci Resolve, gli scanner Cinquel, e molto altro nel 2012 iniziarono a studiare una loro linea di cineprese digitali lanciando sul mercato un prodotto molto strano (per l’epoca), la Cinema Camera 2,5k, di cui potete leggere una recensione sul mio sito.
Fu una piccola rivoluzione, come qualità, pensiero, e molto altro…
Continuarono a sviluppare la logica, producendo una cinepresa “Pocket” e la Production Camera 4K, formato che nel 2013 stava iniziando ad affermarsi come standard di mercato, iniziarono poi con la linea Ursa a sviluppare diverse camere, diventando rapidamente un marchio di cineprese digitali e non più solo di strumenti di editing e post.
La loro filosofia era / è quella di costruire un hardware solido su cui poi via firmware aggiungere e / o attivare le funzionalità magari non presenti al lancio del prodotto sul mercato.
Filosofia che a seconda delle camere può anche andare su un lungo termine, ad esempio la Production camera 4k ha ricevuto il suo (probabilmente) ultimo aggiornamento firmware nel 2017, ed è una camera del 2013, quest’anno è uscita fuori dal catalogo BMD, ma è sempre una ottima cinepresa.
Pensiamo che a Hollywood si gira ancora con la prima versione hardware della Arriflex Alexa, uscita nel 2009, possiamo immaginare come la longevità di un buon prodotto è lunga, a questo proposito mi ero divertito nel scrivere un post in relazione a questo concetto.

Oggi BMD ha come cinepresa di punta la Ursa mini Pro, una camera che è la somma delle esperienze fatte in passato, con tanti vantaggi e capacità, con un sensore migliorato in 4.6k con 15 stop di gamma dinamica, un form factor più piccolo della ursa originale (decisamente una camera da cavalletto, pesante e impegnativa), e tante altre funzionalità interessanti.

La Ursa Mini Pro è sempre una cinepresa digitale, quindi nasce per il cinema, ma ha dalla sua una serie di caratteristiche più da camera ENG, quindi tende a guardare anche un mercato Broadcast, infatti rispetto al passato ha una serie di elementi interessanti aggiuntivi come :

  • Filtro ND incorporato IRCUT pensato per la color science del sensore BMD
  • Mount intercambiale tra EF (di serie), PL, NikonF e soprattutto B4 per il broastcast
  • Display esterno di stato per il controllo
  • Comandi fisici per i controlli globali della camera mentre si agisce, senza dover per forza lavorare col touch
  • Doppio formato di registrazione: CF2 ma anche SD UHS II per registrare fino al 4k su supporti più economici e capienti, ma più diffusi e comodi per la gestione globale
  • Oltre al classico monitor di serie è disponibile opzionale un Viewfinder di alta qualità, FullHd con le funzionalità di focus, esposizione etc per poter lavorare in ogni condizione.
  • Preamplificatore audio per collegare microfoni Professionali con Phantom e una sezione microfonica interna di qualità
  • Uscite SDI in 3g, 6g, 12g, per poter mandare segnali ad ogni tipo di apparecchiatura e al massimo della banda possibile.
  • Compatibilità a ogni tipo di batteria Vmount e Gmount tramite un semplice plate, oppure utilizzando un cavo XLR supporta dal 12V al 30V da ogni tipo di fonte energetica.

Ora per chi è interessato a tutte le caratteristiche, si fa un giro sul sito Blackmagic e scopre tutto della macchina, questo post nasce in risposta alla domanda che è sorta parlando con amici interessati ad acquistare questa camera, per capire quello che potrebbe essere necessario per usarla, e quello che diventa quindi una idea di spesa minima per essere operativi con tale camera.

Dalla scatola vi uscirà una Camera nuda e cruda con il suo alimentatore a rete, quindi dobbiamo preoccuparci al minimo di attrezzarci con :

Alimentazione

Soluzione A :
Classica Vmount/Gmount + un plate adattatore è la soluzione che spesso la stessa BMD suggerisce come soluzione di partenza, offrendo il plate da brand BMD per entrambi i formati.
Una soluzione del genere offre alimentazione alla camera, l’uscita Dtap della batteria una seconda alimentazione che può esser usata per alimentare uno o più accessori collegati alla camera. Inoltre la camera stessa ha un XLR out 12v per alimentazioni di prodotti aggiuntivi.
Il vantaggio di questo sistema è che la batteria è montata direttamente sulla camera e quindi è stabilmente collegata al corpo, bilancia il peso e riduce gli elementi (cablaggi etc) volanti intorno alla camera.
Lo svantaggio è che abbiamo solo una uscita aggiuntiva se dobbiamo alimentare gli accessori a 12v.

Soluzione B :
Classica Vmount/Gmount + PLATE  con distributore di correntetipo questo Lanparte per batterie Vmount che offre la stabilità di collegare la batteria alla camera, e allo stesso tempo si ha un distributore di correnti a diversi voltaggi per poter alimentare tanti diversi accessori.

Soluzione C :
Classica Vmount/Gmount + un distributore di corrente tipo il plate della Lanparte che ci offre non solo la possibilità di montare batterie sia VMount che Gmount, ma soprattutto aggiunge una distribuzione di corrente a differenti uscite a 5, 7 e 12v, usb, per poter alimentare diversi accessori con una sola batteria.

Il vantaggio di questa soluzione è che possiamo avere con una sola batteria l’alimentazione di diversi accessori : monitor, dischi esterni, ricevitori wireless etc. Un altro vantaggio è che possiamo montare un tipo di batteria sulla camera e un’altra sul raiser in modo da poter usare due tipi di batterie diverse.

Lo svantaggio di questa soluzione è che serve un supporto a barre dove posizionare tale distributore dietro la camera, e che ci sono più fili volanti intorno alla batteria (se servono naturalmente).

 

Storage

La camera utilizza sia le Cfast2 che le SD UHS-II per registrare i filmati, naturalmente a seconda del supporto ci sono limiti di velocità di scrittura sulle due schede, per cui anche messe in doppia scrittura le schede SD non possono registrare la massima qualità in raw, però si tratta anche di capire se e quando è necessario lavorare a quel livello, dopotutto su SD è possibile anche registrare fino ad un UltraHD  a 30 fotogrammi al secondo in prores HQ, il che significa una qualità eccezionale per la maggior parte delle produzioni video.

Soluzione A : si acquistano almeno una coppia di schede SD per la registrazione continua e alternata in formato UHD prores.
Vantaggio : Soluzione economica, efficace e ci permette di lavorare con molte schede rapidamente, sia per la scrittura che per lo scarico.
Svantaggio : hanno limiti di velocità di scrittura, quindi se servisse non si può spingere al massimo la camera.

Soluzione B : si acquista una coppia di schede CFast2 certificate  così che si possano registrate tutti i formati possibili, compresi quelli Raw alla massima risoluzione 4.6k al massimo numero di frame che richiedono un datarate così alto da registrare contemporaneamente su entrambe le schede.

Vantaggio : totally freedom Svantaggio: costo delle Cfast2 certificate.

Soluzione C : SSD adapter dalle Cfast2.
Da qualche tempo sono nate soluzioni DiY con degli adattatori da Cfast2 a Sata in modo che la camera crede che ci siano le schede cfast e invece sta scrivendo su ssd efficienti ma più economici. C’è un interessante tutorial del filmaker Tom Antos su come realizzarlo al di sotto dei 100$, altrimenti c’è la soluzione già pronta della Atoch che ne costa più di 600$

Soluzione D : Blackmagic si è resa conto che il costo delle Cfast non è sceso come era previsto negli ultimi 3 anni e quindi sono usciti con una loro soluzione, un recorder SSD da collegare alle uscite 6G della Ursa Mini Pro, che permette usando un doppio Ssd di registrare anche in raw.
Vantaggio : soluzione creata su misura quindi stabile, sicuro e ottimizzata per questa camera.
Svantaggio : questa soluzione occupa entrambi i canali SDI in uscita, quindi non si può avere l’uscita 6G monitoriale, rendendo inutile avere monitor che supporta 4k con zoom per il focus se poi devi prendere l’uscita 3g del viewfinder che è fullHD, inoltre supporta 1 solo ssd rispetto ad una soluzione DiY, quindi ci sono ovvie limitazioni di velocità di scrittura, sul supporto dei formati raw al massimo di frame e peso. Contrariamente a quello che dicono sedicenti esperti che dicono di mettere semplicemente un connettore a t sulla porta SDI, quando si viaggia in modalità SSD le due uscite vengono convertite in uscite dati, quindi non è possibile usarle come monitoriale o per uscire verso una regia.

Update del 1 gennaio 2018: con l’upgrade firmware 4.9 l’adattatore ssd di blackmagic funziona anche con la serie UrsaMini 4k, 4.6k e UrsaMiniPro 4.6k.

Rig e Handle

La camera nasce già con ampie quantità di forature standard per poter montare diversi tipi di accessori, ma come le prime camere, è un mattone in metallo e magnesio, manca del minimo per poterla riggare con maniglie, supporti a barre etc quindi serve poter aggiungere qualche elemento di comodità operativa :

Soluzione A : Shoulder rig BMD kit che offre una maniglia superiore per un trasporto comodo, una piastra inferiore su cui montare supporto a barre, poggiarla a spalla e una maniglia con rosetta standard per montare accessori laterali.
Questa soluzione offre ad una cifra molto onesta solo vantaggi come standard, ben bilanciata la posizione sulla camera e comoda per poter muovere la camera da spalla a cavalletto in un attimo.

Soluzione B : scegliere una delle tante soluzioni dei vari produttori di rig da Smallrig a Lanparte a Wooden camera a Zacuto, a seconda delle necessità.
La scelta dipende dalle esigenze personali, di ciò che si vuol fare con la camera, chi deve montarla spesso su un Ronin o altro sistema di gimbal o jib deve trovare una soluzione efficiente per togliere tutto il peso inutile, se i diversi elementi sono bloccati con le brugole al corpo macchina diventa lento il cambio e poco funzionale, oltre al fatto che col tempo diventa noioso e c’è il rischio di danneggiare le filettature montando e smontando in continuo, stringendo con forza perché non si vuol rischiare di veder cadere a terra più di 7000 euro di attrezzatura, perché serrata male.

Video Assist oltre al monitor di serie

La camera possiede già un monitor 4 pollici di riferimento dove possiamo controllare le immagini e  muoverci in buona agilità, però in alcuni casi potrebbe essere utile aggiungere un controllo esterno, la camera possiede delle uscite 3G (FHD) e 6/12G (UHD) per utilizzare diverse soluzioni sia proprietarie Blackmagic che altro. A seconda del tipo di lavori che andrete a fare avrà senso o no aggiungere le soluzioni sottostanti.

Soluzione A : Viewfinder BMD o di terze parti.
Per molti operatori è importante e utile avere un viewfinder dove poggiare l’occhio e poter lavorare in concentrazione, oltre che protetti dal sole, il che in molte situazioni è meglio del monitor.
Il viewfinder BMD è un Oled a risoluzione FHD con tanti ausilii per il fuoco e il framing in modo da rendere il più semplice possibile lavorare. L’unico vantaggio di questa soluzione è il costo alto del prodotto (ma di ottima qualità) e che è vincolato ad essere vicini alla camera, quindi in caso di utilizzo di Jib o di Gimbal questo strumento diventa inutile.

Soluzione B : Monitor esterno come il Videoassist / Ursa Studio Viewfinder/ Atomos Monitor, etc. Questa seconda soluzione offre una visione di dimensioni maggiori, può essere una soluzione per la registrazione di proxy o backup contemporanea alla registrazione raw.
Lo svantaggio è che tutte queste soluzioni sono più sensibili alla luce ambientale e quindi in presenza di forte sole diventa molto più complesso leggere le immagini.

Il resto sono i normali strumenti, ovvero le lenti, cavalletto, filtri etc, ma quelli se non abbiamo fatto salti particolari da un prodotto all’altro, possiamo riutilizzarli senza problema, ricordiamo che la ursa mini Pro è una camera più impegnativa rispetto alle precedenti, ma allo stesso tempo più parca di richieste Hardware, se la confrontiamo con la production Camera 4K come potete vedere nella lista di Pronti, partenza e via che ho fatto qualche tempo fà.

Prima di fare tutti gli acquisti suggerisco di riflettere bene come e cosa comprare, perchè rapidamente si rischia di avere una camera molto pesante e quindi poco pratica da trasportare e usare in velocità.

Una riflessione molto semplice :

  • la Ursa da sola pesa 2300 gr
  • Una lente media 17-55 2.8 ef-s Canon (per avere flessibilità e versatilità in uso engine o documentario, ma abbastanza luminosa) 645 gr
  • lo shoulder Kit aggiunge ben 1560 gr
  • una batteria vmount partiamo da 600 gr (95w leggera) e arriviamo a 1600gr se puntiamo a una 180w
  • se aggiungiamo ssd recorder abbiamo altri 800 gr tra recorder ssd e cavi

Quindi senza aver aggiunto monitor esterni, mattebox, microfono esterno, o altro, abbiamo già raggiunto 7 kg da portare sulla spalla se vogliamo la batteria capiente. Non faccio il pigro, la mia prima camera amatoriale pesava da sola 4 kg e portavo attrezzatura per quasi 20 kg, ma c’era l’incoscienza e l’energia dei 20 anni, oggi c’è un po’ più senso pratico, e gli acciacchi alla schiena derivati da quell’incoscienza che mi ricordano di ottimizzare il materiale da portare con me al lavoro, altrimenti servono persone che vengano con me per trasporto e gestione materiale.

La Ursa Mini Pro nasce come macchina da cinema e come macchina broadcast, a seconda di come al si andrà a usare si faranno delle scelte pratiche su come fare il rig di lavoro, a seconda di come viaggerà, se da soli o con un gruppo di lavoro. Il mio suggerimento è riflettere su come attrezzare la camera per essere operativi nelle diverse situazioni.



Youtube e la compressione digitale

YouTube-logo-full_color

In questo periodo mi capita di parlare spesso della compressione digiltale in funzione della distribuzione on line, e in particolare di Youtube, spesso trovo molta ignoranza sul come trattare il materiale, un po’ perchè ormai la maggior parte dei software hanno un profilo chiuso che non ci permette di editare i parametri di compressione, un po’ perchè molti non sanno neanche di cosa si parli quando si esporta un video, sembra che sia solo una operazione per finalizzare e basta.

quando va tutto bene, non è importante conoscere cosa sta dietro a tutto questo, ma quando abbiamo necessità di ottimizzare dei file per un particolare prodotto o dispositivo, o in questo caso per un Social come Youtube, dobbiamo impare di più di ciò che sta dietro le quinte, e quindi è necessario introdurre diversi argomenti.

Le basi della compressione

Quando si prende un video e lo si esporta da un qualunque programma di editing o di postproduzione ogni immagine viene nuovamente elaborata e successivamente compressa in modo più o meno distruttivo a seconda del tipo di compressione, di tipo di target che ci serve e da un grande numero di impostazioni del programma, dal contenuto dei video, da come il software gestisce il contenuto originale del video

Quando si carica on line un video sulle diverse piattaforme di sharing come Youtube, Vimeo, Facebook etc viene nuovamente compresso con regole e principi dettati dai creatori della piattaforma.

Quindi banalmente il video subisce al minimo tre compressioni, quando viene catturato, quando viene esportato, quando viene ricompresso dai server delle varie piattaforme. Il che vi può dare un’idea di come la qualità possa decadere molto e rapidamente.

Molti si chiedono il perchè, ci sono diverse ragioni :

  • il primo motivo è la compatibilità, se i server dovessero fare il play di mille formati, codec e frame rate il risultato sarebbe uno sforzo immenso, e le richieste dei player per la compatibilità influenzerebbero negativamente l’esperienza visiva, quindi per semplificare youtube converte sempre i filmati nel miglior rapporto di qualità visione on line.
  • il secondo motivo è altrettanto banale, se i server di Youtube lavorassero con la qualità massima sempre, sarebbero intasati dai milioni di video fatti coi cellulari a bassa definizione (dimentichiamo il fatto che salvano in fullhd o 4k, perchè conta soprattutto il sensore), quindi esistono dei formati predefiniti con cui gestire il materiale fornito
  • il terzo motivo è pratico dovendo inglobare e gestire diversi formati e bitrate, chiedere alle persone comuni di fare i diversi formati è troppo complesso, per cui loro acquisiscono il nostro materiale e in automatico viene convertito per il formato ottimale di play per il 1080p e tutte le sue declinazioni inferiori (720p, 480p ,360p ,240p).

Se guardiamo le specifiche di youtube scopriremo che youtube preferisce filmati con un certo formato, un certo datarate e determinati settaggi. Se usiamo formati e caratteristiche diverse il filmato potrà essere caricato, ma la compressione sarà più aggressiva e distruttiva rovinando la qualità del filmato. Se usiamo formati di qualità più alti rispetto alle specifiche, comunque la gestione del server lo ridurrà al formato di default quindi si sarà sprecato più tempo e in alcuni casi andremo a perdere anche in definizione.

Perchè esistono ancora formati ridicolmente bassi come 360p e 240p?

perchè esiste un sistema automatico che per mantenere la fluidità di visione, se la rete internet attraverso il quale noi vediamo il filmato è lenta, si guarda una versione più leggera come peso e risoluzione per mantenere la fluidità. Inoltre esistono una marea di dispositivi che nonostante sia prodotti nuovi, hanno risoluzioni schermo molto basse, e quindi scaricare un filmato 1080p su un dispositivo (uno smartphone) che ha uno schermo che al max arriva a 576 o meno, sarebbe uno spreco di risorse e dati scaricati.

Ricordiamo che oggi l’uso principale dei social è via strumenti mobile, e per quanto si parli di fibra e gb come niente, esiste un mondo limitato al 3g in molte zone, o anche meno, e dato che la richiesta di banda cresce molto più velocemente della creazione di nuovi ponti e nuove celle telefoniche (i blackout di rete che avvengono durante i periodi di vacanza lo dimostrano) è importante poter fornire il servizio anche quando le risorse sono scarse.

La compressione altera più del necessario

Durante l’esportazione un programma di montaggio esegue un rendering, operazione che esegue più operazioni contemporaneamente, a seconda del programma lavora in spazi colore più ristretti o più estesi; nella compressione dei dati gli algoritmi devono tener conto di tanti fattori.

Spesso non ci si rende conto che ci sono operazioni che possono rendere più “morbido” il filmato in esportazione, che solo chi ha esperienze di compressione conosce e sa dove agire.

Scalatura : quando il programma scala una fotografia o un filmato, sia a ingrandire che a rimpicciolire, se non ottimizzato bene può far perdere qualità/nitidezza (sull’encoder adobe ci sono in più parti ottimizzazioni relative proprio a questo fattore).

Cambio di frame rate : quando il programma esporta da un frame rate all’altro deve creare in più modi i fotogrammi intermedi, o togliere dei fotogrammi, e questo può influenzare la fluidità del filmato o la nitidezza nel momento in cui vengono creati nuovi fotogrammi con le tecniche di interpolazione.

Cambi sulla luminanza e sulla crominanza : ogni tipo di manipolazione del croma e della luminanza possono evidenziare artefatti digitali presenti nel filmato originale, possono ridurre le sfumature di colore per limiti dello spazio colore, possono amplificare il rumore video perchè ne spostano la collocazione originale pensata dal codec di ripresa.

 

La compressione diretta

Immaginando di avere il filmato finito e perfetto a misura, al frame rate corretto, senza interventi, la compressione prende i dati e li ottimizza e riduce dentro gli schemi di compressione dell’h264.
H264 è un codec con degli standard ma diversi parametri e modi di comprimere i dati, per cui a seconda di come si setta un video il risultato può essere più o meno definito, più o meno dettagliato.
gopPer ridurre lo spazio occupato il formato H264 utilizza la tecnica del GoP, Group of Picture, in pratica se giriamo a 30 fotogrammi al secondo e abbiamo un GoP 15,  il codec registra il primo fotogramma intero, poi ne registra uno intero dopo 14 fotogrammi, e dei fotogrammi intermedi ne registra solo le differenze tra uno e l’altro. Questo significa che se nel filmato non ci sono movimenti camera o tanti oggetti in movimento, la compressione, pur mantenendo la qualità ci permette di ridurre molto il peso del file.

Su youtube viene suggerito un valore pari a metà del frame rate, il che significa che se il filmato ha molti movimenti all’interno del frame, oltre a non sfruttare bene il bitrate si rischiano degli errori o difetti di movimento, ad esempio se c’è una esplosione in un filmato oppure, cosa più facile si inquadra dell’acqua in movimento, oppure dei coriandoli gettati in aria, diventa più difficile per il codec distribuire il datarate, e quindi ogni tanto si potrebbe sentire un saltino.

Una possibile soluzione è dimezzare il gop, quindi invece della metà dei frame, ogni quarto dei frame al secondo, in modo che ci siano più frame interi per gestire meglio gli oggetti in movimento veloce.
Ad esempio 6 per il 24p (6×4=24), 5 per il 25p (5×5=25), 5 per il 30p (5×6=30).

L’altro parametro che ci permette di controllare la qualità è il data rate, ovvero la quantità di dati al secondo che può gestire per ogni fotogramma, più alto è il data rate, più alta è la qualità di ogni fotogramma, mentre abbassando il datarate il risultato è che le immagini perderanno nitidezza, e spesso appaiono zone di solarizzazione perchè non ci sono abbastanza informazioni per registrare i dettagli più fini.

Il datarate appare come un valore in Mega per secondo, ma la sua distribuzione nei fotogrammi che contengono un secondo è legato al metodo sottostante.

Variable o Costant bit rate definiscono come il data rate verrà distribuito lungo una sequenza

L’opzione Costant bitrate, la distribuzione è fissa, per cui ogni fotogramma riceve la stessa quantità di dati, il che offre una maggior fluidità di decompressione del filmato, perchè richiede buffer più semplici da gestire, ma in caso di filmati dove si alternano rapidamente scene con grande movimento con scene statiche, è possibile trovare molti sprechi di datarate, e quindi un file di minor qualità. Ad esempio se abbiamo una inquadratura di un’auto ferma che esplode, durante l’attesa viene sprecato datarate sui frame statici e magari per l’esplosione non ci sono sufficienti dati per gestire la qualità e il dettaglio delle fiamme in movimento veloce.

L’opzione Variable bitrate invece è un metodo che utilizza un valore variabile di dati, da un minimo ad un massimo e con un algoritmo che analizza la quantità di dati in movimento e distribuisce meno datarate dove ci sono frame statici, mentre un numero più alto dove ci sono movimenti ampi, movimento veloce o grande dettaglio di movimento.

quindi riassumendo :

  • GoP : valori più alti riducono il peso del file ma contribuiscono ad introdurre possibili artefatti nel movimento
  • Data rate : valori alti danno maggior qualità e maggior peso al file, bassi valori riducono il peso ma a seconda del contenuto (dettaglio immagini e quantità di elementi in movimento) si riduce la qualità del file finale.
  • CBR o VBR per gestire la qualità costante o distribuire meglio la qualità esistono due metodi di calcolo dei dati per ogni fotogramma, il primo offre una compressione più veloce e costante nella distribuzione dei dati, il secondo è più lento, ma sui filmati con molti dettagli e/o movimento può offrire una maggior qualità finale.

L’ottimizzazione per la compressione

Original with noiseIl contenuto di un video influenza molto il risultato perchè gli algoritmi di compressione analizzano il contenuto del fotogramma, dei fotogrammi circostanti per decidere in che modo ridurre le informazioni in modo ottimale dentro il codec. Ironicamente i video con pochissimi dettagli rischiano maggiori danni di quelli molto dettagliati.
Prendiamo un video di un oggetto in movimento su un limbo chiaro, lo stesso filmato ma al posto del limbo mettiamo una distesa di sabbia, il secondo video avrà più nitidezza e dettaglio a parità di parametri di compressione, perchè tutti quei dettagli forzano il profilo di codifica a dare il massimo e spremere ogni dettaglio dalle immagini.

La prima immagine (cliccando si può vedere in fullhd) mostra come la compressione di una immagine con un leggero rumore venga compressa correttamente e non presenti una particolare perdita anche se si comprime molto.

Nella seconda immagine (cliccando si può vedere in fullhd) ho amplificato un poco la struttura dei colori per mostrare come avendo tolto tutto il rumore si formano appena si adenoise to compressionpplica un poco il contrasto o la saturazione una serie di bandeggi / solarizzazioni che evidenziano i limiti del numero di colori disponibili per gestire quella sfumatura.

Oggi spesso si tende a volere video troppo pulito, si applicano forti denoise per togliere ogni tipo di grana o rumore video, ma eccedendo in questa pratica spesso si vedono immagini che tendono a creare il fenomeno del banding, ovvero si vedono le strisce di colore, perchè senza il rumore che “mescola” e inganna la visione si vedono tutti i difetti.

Ricordiamo che indipendentemente dal vostro video di partenza, che abbia anche una sorgente a 12 bit (ovvero miliardi di colori e sfumature) quando usciamo per youtube abbiamo un Output a 8 bit, ovvero 2 alla ottava per canale, che apparentemente sono ben 16 milioni di sfumature, ma se noi riprendiamo un cielo, al massimo dal blu più chiaro che è bianco, al blu più scuro che è nero abbiamo solo 256 sfumature pure, quindi senza un po’ di rumore che mescola le diverse strisce di colore con la tecnica che una volta veniva chiamata “dithering” si rischia di vedere i singoli bandeggi del colore.

Anche dalla sola thumbnail è possibile vedere come la versione senza rumore rischi molto di più nella compressione.

NATURALMENTE questo è un caso limite in cui ho forzato i difetti per renderli evidenti, spesso i risultati essendo più contenuti non sono altrettanto visibili.

Perchè il mio video si vede peggio di un altro fatto con la stessa camera

 

di sicuro non è colpa di youtube 😀

Ora dopo essermi preoccupato di avere le simpatie degli avvocati di Google, posso darvi delle buone ragioni tecniche per cui ogni video sarà diverso anche se fatto con la stessa camera.

Ogni volta che si realizza una ripresa, la qualità del video ha una serie di parametri che determinano la nitidezza, la qualità delle immagini, presenza o assenza di rumore, etc. Pretendere che due persone anche usando la stessa macchina, stesse lenti, nello stesso luogo contemporaneamente ottengano lo stesso risultato di qualità è molto complesso, e necessita di un allineamento di tanti parametri, non a caso quando si fanno riprese multicamera, che sia per cinema, televisione, etc si utilizzano sempre dei target (tabelle di riferimento univoche) per allineare in post tutto il materiale, perchè comunque basta che una persona cambi il diaframma per avere meno luce in ingresso e l’altro cambi invece gli iso, e le immagini saranno diverse in nitidezza e contrasto, immaginate se magari si hanno lenti diverse, e molto altro ancora…

Inoltre basta solo cambiare angolo di ripresa, e avendo luce diretta, riflessa, laterale, controluce, le immagini non saranno solo diverse come luce, ma avranno comunque dominanti e strutture diverse.

Cosa funziona meno bene su youtube?

Quando carichiamo un video, ci sono dei fattori che influiscono su come verrà ricompresso il file, quindi è importante tenerne conto per non rimanere delusi.

  1. la quantità di dettagli delle immagini
  2. i contrasti all’interno del quadro
  3. i cambi scena con differenze notevoli di luminosità
  4. il rumore / noise del filmato originale
  5. la risoluzione originale di caricamento del filmato

per fare un esempio, lo stesso video in 4k caricato sia su youtube che su vimeo ha dato origine a risultati differenti, su youtube, che tengono poi un bitrate di uscita più basso, la versione in FHD ha un maggiore effetto di banding rispetto a vimeo, se carico direttamente il video in formato FHD la qualità su youtube e su vimeo sarà superiore perchè sarà solo ricompresso ma non scalato.

youtube_fhdvimeo-hdA Oggi 1 ottobre (specifico perchè gli algoritmi sono in continuo sviluppo) il sistema di youtube/vimeo offre un buon rapporto qualità fluidità di streaming a prezzo di una compressione sia nei dati che nella risoluzione, per cui va considerato che possiamo valutare solo la qualità della resa nel formato che abbiamo caricato noi, le altre non avendo controllo sulle varianti create da youtube non dobbiamo farci troppi problemi altrimenti ci rovineremmo la salute mentale e basta.

  1. quando carichiamo un filmato di animazione, con toni piatti, l’encoder sa cosa deve fare, ovvero dettagli intorno ai bordi, pulito nei toni piatti. Quando carichiamo un filmato ripreso in pieno giorno pieno o meno di dettagli l’encoder sa di dover preservare a meglio tutti i dettagli possibili.
  2. la differenza di contrasto comporta il fatto che l’encoder darà spazio alle parti più luminose, ma meno alle parti più scure causando facilmente del banding e la presenza di elementi di blocking in movimento nelle parti più scure.
    in generale tutti gli encoder non tengono grande considerazione degli elementi nelle ombre perchè sono considerati meno importanti, dato che il cervello guarda principalmente le parti illuminate.
  3. nei cambi scene, a seconda di come viene fatta l’analisi del filmato per la compressione in CBR o VBR possono esserci più o meno bit a disposizione delle immagini al cambio scena, per cui ci possono essere dei salti e artefatti più presenti nel cambio scena. In quei casi è importante come si impostano i keyframe, se i cambi scena sono frequenti è meglio impostare dei keyframe più bassi come valore in modo che l’analisi sia fatta più di frequente, e quindi il filmato fornito a youtube abbia più informazioni in quelle parti.
  4. come già detto in precedenza, un leggero noise permette di nascondere gli eventuali bandeggi nelle sfumature, e soprattutto forza gli encoder ad analizzare meglio e più attentamente i dettagli dei filmati, quindi anche un noise molto leggero è utile per avere immagini più pulite nel risultato finale.
  5. Più alta è la risoluzione di partenza, migliori saranno le scalature, ma dipende anche dalle strutture.
    Ad esempio come si può vedere nelle immagini sopra, su vimeo sia vedere il file 4k scalato a Fhd, che il fhd direttamente, la qualità è lineare, mentre su youtube la scalatura compromette molto di più la qualità, creando banding e altri difetti, ma si sa che vimeo ha un bitrate molto più alto, quindi la qualità è senza compromessi.



Page 1 of 3

Powered by WordPress & Theme by Anders Norén

Translate »