Tutto è possibile

Categoria: I miti da sfatare Pagina 2 di 12

In questa categoria raccolgo una serie di miti tecnici da sfatare, troppo spesso tra i passaparola, tra il copia e incolla on line, e colpevole il Web 2.0, sono nati e si sono radicati tanti miti “tecnici” per i quali non esistono rimedi, tranne che la logica e il pragmatismo nell’affrontare queste bufale…

La malattia della nitidezza

La percezione è l’arte che si dovrebbe dominare quando si affrontano le creazioni per immagine, a partire dall’illustrazione, la pittura fino ad arrivare alla fotografia e alle “motion picture”; uso il termine inglese perchè più si avvicina al concetto di quello che sono, ovvero immagini in movimento.

Prima dei sistemi di home recording e la possibilità di rivedere le immagini, il gusto delle persone era legato ai concetti e ai contenuti, mentre man mano che si diffondevano negli ultimi 40 anni i sistemi di visione casalinga, progressivamente sono nate delle finte necessità di maggior qualità e nitidezza create più dal marketing che dalle reali richieste dello spettatore medio, che guarda un film in sala proiettato in Imax, o mal trasmesso in streaming sul cellulare da 4 pollici, e dimentica entrambi con la stessa velocità.

L’ossessione per la nitidezza ha affrontato più fasi, negli anni 80 non c’erano mezzi per avere nitidezza reale a causa dei limiti dei mezzi video che catturavano le immagini, e la pellicola spesso era troppo costosa per i videomaker (all’epoca non si potevano categorizzare come filmaker proprio perchè il video, il nastro, erano lo strumento principe di lavoro per chi narrava per immagini low cost).

Nel video la nitidezza non esisteva realmente, sia perchè la quantità di informazioni registrabili anche su nastro betacam (telecamere da un centinaio di milioni delle vecchie lire) erano veramente poche (secondo i ragionamenti di oggi), sia perchè le lenti erano tarate su quel tipo di sensori e capacità di registrazione, sia perchè la gamma dinamica di quei sensori ccd, pur buona, non permetteva di affiancare informazioni che generavano un certo livello di contrasto senza perdere informazioni intermedie (appiattire il tutto).

Con l’introduzione del Digital video si sono introdotti diversi sistemi di “miglioramento” dell’immagine digitale, tra cui lo sharpness, ovvero una maschera di contrasto digitale che aumenta l’incisività di alcuni dettagli, ma in modo piatto… cioè dato che sono sistemi semplici di manipolazione dell’immagine, lo sharpness aumenta il dettaglio locale di oggetti vicini e lontanti, e quindi l’effetto diventa fastidioso e artificiale, vedesi l’articolo sull’effetto telenovelas.

Con il miglioramento della tecnologia e della risoluzione, le immagini video crebbero molto, ma l’ossessione per la nitidezza (dei tecnici) comportava sempre questo effetto video (lo sharpness) che ha sempre fatto storcere il naso ai filmaker finchè… arrivarono le macchine fotografiche.

L’introduzione molto recente (2008) delle video dslr fece un salto notevole sulla resa delle immagini, proprio perchè si parlava di pasta, di immagine meno nitida (non sfuocata) ma naturale delle fotocamere che offriva pur in un segnale compresso delle immagini più cinematografiche, ma con il vantaggio di gamma dinamica dei sensori fotografici e spesso con le lenti intercambiabili meno “wide like” cosa che erano i due talloni d’achille delle telecamere.

Con la diffusione poi delle cineprese digitali tutti questi elementi sono diventati disponibili e diffusi a tutti i livelli di acquisto, ma resta sempre questa ossessione della nitidezza da parte dei Pixel Peeper, che guardano ogni frame ingrandito 300%, che cercano ogni tipo di difetto come se fossero quelli i veri responsabili della qualità del prodotto.

La nitidezza sembra non essere mai abbastanza … peccato che troppa nitidezza CAUSI una serie di problemi non trascurabili:

  1. immagini più stroboscopiche perchè si fissano per più tempo sulla retina
  2. richiesta di datarate maggiori per dettagli che spariranno durante il delivery
  3. eccesso di nitidezza può dar vita a moires
  4. la profondità di una immagine viene data anche dalla “prospettiva aerea” descritta da leonardo nel suo “trattato sulla pittura” una immagine perfettamente nitida tende a essere anche più piatta.
  5. richiede una illuminazione maggiore e più accurata per dividere i piani e identificare le diverse zone
  6. porta il cervello spesso a distrarsi guardando troppo il dettaglio e meno il contenuto.

Molti filmaker confondono la fotografia statica con l’immagine in movimento e insistere troppo con il dettaglio rischia di deviare l’attenzione e il contenuto. Le dslr sono esplose proprio grazie a una maggior morbidezza d’immagine pur restando dettagliate.

Naturalmente da una parte ci sono delle leggi fisiologiche per cui una immagine percepita in un modo ha una resa, dall’altra il gusto personale dove chi guarda vuole maggior “ciò che mi piace”.

Se si aumenta la nitidezza delle immagini si deve aumentare anche il framerate catturato e riprodotto, è una legge fisiologica, altrimenti le immagini avranno mille problemi, perchè il nostro cervello e i nostri occhi lavorano in questo modo, e per quanto i detrattori, i tecnici parlino, non si sono ancora fatti upgrade di questi due device 😀

Il vero problema del Crop

Sta nella testa delle persone…

Come si dice, una immagine vale più di mille parole, e mille calcoli, ho pensato che delle immagini di riferimento diretto fossero la miglior risposta.

Le immagini che trovate qui sotto sono il confronto dell’inquadratura di due pocket4k e pocket6k quindi il sensore 4/3 della pocket4k (non micro 4/3 come spesso si legge, perchè quello è l’attacco) contro il sensore Super35 della pocket6k.

Ponendo il cavalletto a 3 metri dalla finestra delle fotografie queste immagini dimostrano che la differenza di crop non è estrema, non è un reale problema come tanti vanno a dimostrare con tanti calcoli assurdi.

Come si può vedere in queste riprese di confronto con diverse focali fisse 24-28-35-50 in un interno non è così drammatico.

Inoltre visto che ci sono tante fisime nei posti stretti (e 3 metri non sono tanti) ho pensato che fosse utile creare un semplice schema tra le due camere in modo da vedere come il sistema del crop sia meno importante quando siamo da vicino, perchè la differenza di angolo è minore rispetto ad essere più distanti dal soggetto, ma se si è più distanti, è possibile spostarsi per compensare le inquadrature, quindi è un falso problema.

Video FULL FRAME : la prossima illusione Cinematic Look

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

Tanti filmaker moderni sono nati con le fotocamere, e per tale ragione si sono sempre lamentati che non avevano telecamere fullframe, che le telecamere non sono cinematiche perchè sono croppate… Ho scritto tanti articoli relativi al crop e al motivo per cui non è mai stato un problema finchè non è stato inventato dal marketing di un noto brand per vendere le sue fotocamere Fullframe rispetto alla concorrenza Aps-c.

Il cinema è nato 16 e 35 mm ma con scorrimento verticale, quindi con una dimensione assimilabile al aps-c, e il concetto di crop non c’è mai stato, si aveva una lente e la si usava / usa per le necessità o per le scelte estetico/narrative. Alternativa ad esse c’è stato il 70mm per contrastare la televisione, e per dare una resa particolare di dettaglio e qualità delle immagini, ma a causa delle dimensioni maggiori della camera e dei caricatori di pellicola 70mm, che oltretutto aveva una durata minore per caricatore, era meno diffuso e meno usato del 35mm e s35mm classico.

Oggi con l’avvento di cineprese Arri, Panasonic, Panavision, Sony LF (largo formato) i filmaker si lamentano che non possono avere cineprese economiche con quel formato, non pensando che non è il sensore grande a fare il cosiddetto Cinematic Look.

Perchè la nascita della seconda ondata del digitale con la 5D ha fatto credere questo mito del sensore grande?

Chi mi conosce sa che sono un pragmatico, mi piace scherzare, ma poi mi piace analizzare seriamente e tecnicamente i fatti.

Prima della 5D tutti i sistemi di ripresa erano telecamere a sensore piccolo, pensate per il video, quindi con tutta una serie di difetti, che la 5d, per quanto non fosse nata per il video, non aveva.

La classica telecamera degli anni 2000 aveva i seguenti difetti :

Sensore piccolo

Il sensore piccolo ha una serie di limiti:

  • il primo è relativo alla superficie, di solito da 1/3 a 2/3 di pollice, la quantità di luce che poteva raccogliere era poca, quindi per funzionare correttamente spesso doveva applicare forti rapporti di guadagno elettronico, contrastando spesso troppo le immagini, portando facilmente a bruciare le alte luci e chiudere le ombre o sporcandole con forte rumore digitale.
  • Il secondo difetto del sensore piccolo è che mettendo uno zoom davanti al sensore, questo deve essere molto spinto come grandangolare, altrimenti non è possibile fare dei totali nei luoghi più stretti, facendo si che la maggior parte delle immagini hanno distorsioni più o meno spinte, allargando le immagini,da qui il detto “la Tv ingrassa”.
  • Il terzo difetto è che un sensore piccolo, soprattutto pre smartphone, ondata tecnologica che ha spinto molto di più la ricerca nella direzione dell’ottimizzazione dell’immagine sulle piccole dimensioni, offriva una qualità di dettaglio fine molto relativa, ma all’epoca bastava l’HD visto su monitor di qualità relativa.
Immagine con Video Look

Tutte le telecamere lavoravano in uno spazio colore rec601, con poco contrasto tra luce e ombra, non avevano ancora diffuso bene il rec709 che gestisce un contrasto migliore, quindi spesso veniva applicato uno sharpness artificiale alle immagini che creava quello che oggi chiamano il “retro look” o il “vhs look”, cioè degli aloni più o meno intensi attorno agli oggetti con un minimo di contrasto.

  • Il primo difetto è dato dalla bassa gamma dinamica catturabile da quel tipo di sensori, unita a contrasto forte, e non c’era molto da fare, quasi tutte le camere erano costruite in quel modo.
  • Il secondo difetto era causato da pessimi display che portavano la maggior parte degli operatori a alzare lo sharpness al massimo nell’illusione di avere immagini più nitide, ma non lo erano e quindi purtroppo diventavano più artificiali le immagini.
  • il terzo difetto era dato dall’uso delle telecamere che permettendo movimenti più “sporchi” per la natura della cattura del movimento con i ccd portava ad una diversa estetica del movimento e dell’uso della camera.
  • il quarto difetto, terribile, era/è l’interlacciatura, che vista su una televisione è invisibile, ma vista su computer o altri media sbriciola in modo orribile le linee degli elementi in movimento creando difetti digitali antiestetici, e la sua rimozione portava alla perdita del 50% della già bassa definizione verticale.

Cosa ha offerto la DSLR che era improbabile poter fare al tempo con le telecamere.

  • Sensore con minore crop (Non crop zero, che non esiste) = lenti normali e rese più naturali della prospettiva.
  • Focali più lunghe = più possibilità di sfuocare lo sfondo e separare soggetto e sfondo senza conoscere bene i principi di illuminazione.
  • Gamma dinamica maggiore = più possibilità di espressione della luce, e allo stesso tempo la lettura più naturale della realtà.
  • Immagini più morbide = maggior risoluzione di cattura offre meno sharpness finto, ma più nitidezza reale (uso i due termini per distinguere l’effetto digitale da quella reale della lente).
  • Lenti intercambiabili di qualità possibile maggiore.

Questo tipo di vantaggi fu ciò che fece esplodere la “moda” delle dslr a fine anni 2000, moda che doveva restare nella fascia bassa, per chi non aveva accesso a camere di maggior livello, e invece fu poi introdotta anche nel cinema di fascia alta dove spesso si usano le mirrorless come cam C, o Crash cam che anche se vengono distrutte il problema non sussiste contro perdere una cinepresa da 100k. Oggi fin troppo spesso si vedono comprare le fotocamere come telecamere, e scoprire dopo tutti i limiti e i difetti delle stesse, in primis l’ergonomia, l’autofocus continuo, la registrazione spesso più compressa, limiti nell’uso del viewfinder, rolling shutter accentuato, etc etc.

Oggi il mito della largo formato cozza con tanti dettagli a cui le persone non pensano, che non tange i professionisti o le LF di alto livello.

  • Costo notevolmente maggiore del corpo macchina.
  • Maggiori consumi batteria e surriscaldamenti varii.
  • Lenti di nuovo formato notevolmente più costose.
  • Maggior dimensione di sensore significa una serie di scelte diverse sulle lenti con possibili più problemi di gestire e mantenere i fuochi durante il movimento.
  • Necessità di formati di registrazione a qualità più alta per raccogliere la maggior qualità catturata.

Il largo formato è interessante soprattutto per creare film dove gli effetti visivi ne fanno da padroni, perchè alzare semplicemente la risoluzione di cattura (4k,6k, 8k) a fronte della stessa dimensione di sensore spesso comporta un problema di gestione della luce, mentre per la maggior parte delle produzioni non comporta un cambiamento tale da giustificare il recente entusiasmo per tale formato.

 

10 motivi per cui la Pocket 4k è migliore della 6k

 

Argomento caldo del momento è la Blackmagic Design Pocket6k, per la quale sembra che sia partito un innamoramento generale dei filmaker e una necessità indispensabile di vendere cosa già si ha per passare alla pocket6k.

E’ un fenomeno comune che il prodotto nuovo sia miglire di quello che abbiamo perchè il periodo detto dagli psicologi “luna di miele” è terminato e vediamo lo strumento che possediamo come inutile o sorpassato. Di base avrei fatto una disanima più equilibrata tra le due camere, ma visto che vanno di più i xxx versus yyy, divido il tutto in due articoli 😀

La pocket6k si differenzia per poche cose dalla versione 4k, per la gestione e supporto delle nuove risoluzioni e di un sensore di formato s35, come le ammiraglie UMP, ma per il resto non ci sono differenze di gamma dinamica o performance realmente vantaggiose sulla Pocket4k.

Ora facciamo un ragionamento pratico su questa “vecchia camera” e vediamo 10 motivi per cui vale la pena acquistarla invece della pocket6k.

1) Fattore economico

La pocket4k è disponibile per circa 1500 euro al pubblico, mentre la pocket6k costa 2500 euro al pubblico, per cui al prezzo di una camera quasi si prendono due pocket4k.

2) Storage

Utilizzando una maggior risoluzione, anche con il braw o formati prores più leggeri le richieste di storage aumentano, la velocità delle card e dei dischi per registrare queste informazioni dovranno essere maggiori, quindi si dovrà fare un ulteriore investimento sia di stoccaggio che di registrazione, cosa che non tutti sono disposti a fare e poco avrebbe senso prendere una 6k e registrare in 12:1 o in proresProxy (mentre in h264/h265…frecciatina) .

3) Risoluzione di ripresa

La pocket 4k ha il 4k (ovviamente) DCI, UHD e il FHD con un sensore 16:9 che permette di registrare in raw queste risoluzioni, 4kDCI è il sensore pieno, UHD e FHD vengono registrati in crop del sensore come su Arri, Red, Sony e tutte le altre camere; in Prores tutte queste risoluzione senza “windowed sensor” ovvero senza un crop ulteriore.

La pocket 6k avendo un sensore di maggiori dimensioni sia in taglia che in risoluzione, in raw NON prevede il 4k o UHD neanche “windowed”, ma utilizza un formato 5.7k o 3.7K anamorfico windowed per generare un formato vicino al 4k o UHD. Quindi per chi vuole lavorare in 4k o UHD nativi deve tenere conto che con la pocket6k deve scalare o in alto o in basso i dati, che saranno ricchissimi come informazioni, ma è uno stress in più a cui sottoporranno il proprio NLE.

4) Dobbiamo avere lenti migliori

Ci sono tre motivi per cui la pocket4k è in vantaggio sulle lenti sulla 6k, che è lo stesso motivo per cui il 4/3 è in vantaggio sul aps-c e sul ff.
Quando si utilizza una lente, pensata per un formato più ampio, il massimo della qualità visiva è nella parte centrale, mentre man mano che si va all’esterno si ha una leggerissima perdita, in funzione della qualità e del livello della lente, per cui usando una lente FF originale o vintage, un formato 4/3 croppando di più prende il meglio della lente, un s35 con un minor crop prende di più i lati e gli eventuali difetti, un sensore FF prevede di avere una lente perfetta, altrimenti non ha senso aver investito in un sensore FF.

Il secondo motivo è che salendo con la risoluzione anche le lenti collegate dovranno essere di buon livello, perchè altrimenti non avrebbe senso usare un sensore 6k se poi si mettono dei fondi di bottiglia davanti al sensore.
Avendo un attacco Canon EF si ha accesso ad un buon numero di lenti Canon, Sigma, Zeiss che offriranno ottime performance con tale camera.

Il terzo vantaggio della Pocket4k è che il mount m4/3 ha un tiraggio corto e permette l’adattamento di quasi ogni tipo di lente meccanica, vintage, permettendo di accedere a migliaia di splendidi vetri degli ultimi 100 anni anche di qualità ottima, semplicemente dismessi perchè non autofocus.

5) batterie più capienti

Una camera con sensore più grande e con maggiore risoluzione richiede anche una maggior potenza di lavoro, quindi si deve ragionare o con il battery pack o con batterie esterne capienti per poter avere una buona autonomia. Dalle prime indicazioni pare che se la Pocket4k assorbe 22w/h la pocket 6k dovrebbe assorbire circa 26w/h quindi le durate dovrebbero essere assimilabili, ma… le lenti EF hanno stabilizzatori più avidi di corrente rispetto a quelle m4/3 e quindi l’utilizzo di questo differente tipo di lenti potrebbe drenare rapidamente le nostre batterie.

6) Sensore più equilibrato rapporto risoluzione dimensione 4k, 6k

Il rapporto di risoluzione e dimensione del sensore è più favorevole nella Pocke4k che la Pocket6k, dove un sensore poco più grande divide la luce che riceve per un numero maggiore di fotorecettori, quindi è più vantaggiosa a livello di pulizia nelle immagini in bassa luce.

7) Maggiore risoluzione, maggiore dettaglio, più possibili problemi

a parte la smania di risoluzione, che spesso è superiore alla capacità visiva umana, ma quello è un altro discorso già affrontato, una maggior capacità risolutiva del sensore 6k senza un filtro per le alte frequenze, offre il rischio di maggiori problemi di moires e difetti visivi legati al campionamento delle alte frequenze su tanti elementi, mentre il sensore 4k essendo (in confronto) meno risoluto ha meno rischi di moires.

8) La camera è nuova, facciamo i beta tester

Come succede con ogni camera di ogni brand, la prima ondata di camere è una beta pagata, ovvero si prova sul grande pubblico il funzionamento della camera, e se ci sono problemi o difetti saranno corretti in corsa durante la produzione, mentre la pocket4k che viene spedita da un anno ha ormai una linea di produzione verificata e coordinata.

9) Sulla Pocket4k si possono avere gli speedbooster, sulla 6k ni

Un miracolo ingegneristico e tecnologico sono gli speedbooster della Metabone, azienda americana che crea degli adattatori di lenti che al loro interno contengono una lente che concentra la luce e offre due vantaggi : guadagno di uno stop di diaframma e riduzione del crop tra FF e formati aps-c e 4/3,m4/3.

Gli speedbooster sono poi stati imitati da altri, ma la qualità ottica per cui vale la pena avere uno speedbooster a oggi non è ancora stata eguagliata.

Gli speedbooster posso esistere solo nel caso di tiraggi lente sensore che lascino posto a tale lente, cosa che tecnicamente il mount EF non fa.

Pare che l’azienda Lucadapter, che produce una variante da inserire all’interno della UMP, stia pensando di produrre la stessa cosa per la pocket6k, ma per ora è ancora in fase di kickstarting, mentre per la pocket4k esistono sia i generici che quello dedicato da tempo.

10) Computer più potenti

Per gestire sia i prores che i braw 6k sarà necessario alzare l’asticella della potenza dei computer, la velocità dei raid per leggere i dati e quindi non basta la semplice camera, ma gli investimenti si allargano in tutta l’attrezzatura.

Naturalmente la mia lista è relativa ad un discorso puramente generale, ognuno poi ha punti di vista diversi, personalmente la maggior parte di questi punti non mi tange, abituato a girare in dng non compressi o altri formati raw molto onerosi, ho usato la prima Alexa con il firmware 0.85 che registrava fullHd prores, senza audio, e ho avuto tante esperienze varie per cui … penso che queste due macchine siamo miracoli regalati alla massa.

Vi attendo al prossimo articolo “Perchè la pocket6k è migliore della Pocket4k“, così rovesciamo le situazioni…

 

Blackmagic Raw 1.5 è il diavolo?

Nel 2001 naque il primo codec interpiattaforma e slegato dall’hardware, Cineform, nel 2005 fu potenziato per offrire la possibilità di importare fotografie raw di diversi brand e convertirle in un filmato raw compresso visually lossless con metadata attivi e modificabili realtime, successivamente l’encoder fu in grado di convertire tutti gli altri formati raw nati SUCCESSIVAMENTE in Cineformraw con diversi flavour di compressione e qualità supportando fino al 16k stereoscopico.

Oggi nel 2019 quasi ogni Brand ha la sua codifica Raw, a partire Arriraw, Redcode, SonyRaw, PanasonicRaw, l’anno scorso l’introduzione di ProresRaw che permette il recording in formato ProresRaw direttamente dalle camere che escono in raw da SDI sui recorder Atomos e pochi altri, fino al recente Braw di blackmagic.

A Ibc 2018 Blackmagic design lancia la palla nel campo del raw, introducendo il loro codec proprietario braw (blackmagic raw) nel mondo del broadcast e del cinema con una certa forza dirompente, e soprattutto disponibile subito, dallo stesso giorno con il firmware in beta 6.0 per la UrsaMiniPro, il nuovo aggiornamento di Davinci Resolve 15.1 per supportarlo e la promessa che a breve sarà disponibile anche per la nuova camera, pocket 4k e così è stato con il firmware 6.2, ma nel contempo toglieva la registrazione Dng.

La differenza tra il Dng e il Braw è evidente e chiara, il dng è uno standard fotografico, peraltro abbandonato dai suoi stessi creatori nel 2016, piegato alle necessità dei video, mentre il Braw è un moderno codec raw pensato per le immagini, dove convivono le diverse necessità di lavoro di un codec video di fascia alta e le richieste di fascia bassa.

La presentazione del Braw è stata abbastanza curiosa, dove GrantPetty ha scherzato sul fatto che con un codec così leggero non servono più le schede video esterne di decodifica, ironeggiando sul fatto che le producono loro per Apple.

Come sempre l’innovazione porta pro e contro, fautori e osteggiatori, fino al parossismo, ma essendo un pragmatico, preferisco fare una analisi meno tecnica (quella la lascio alla fase finale) e più pratica.

 

CONTRO

  • leggermente meno nitido del CDNG (meno aliasing sui dettagli)
  • a forti compressioni ha artefatti sui dettagli fini
  • meno compatibile nelle applicazioni rispetto al CDNG (ma licenza free per la sua implementazione).

PRO

  • il rapporto peso qualità è incredibile
  • la minor incidenza di falsi dettagli e aliasing permette una maggior fluidità di ripresa-riproduzione del movimento
  • il nuovo sistema di demosaicizzazione ottimizza e migliora la cattura della struttura dell’immagine riducendo artefatti come FPN
  • la parziale demosaicizzazione applicata in camera permette una maggior leggerezza di lettura sui dispositivi
  • richiesta di minor velocità di scrittura permette uso di storage meno costoso e poter registrare più a lungo con minor consumi
  • i vantaggi del raw senza il peso del raw in tutti i sensi
  • registrazione di segnale 12 bit log con metadata attivi
  • possibilità di incorporare LUT e altri elementi di preview non distruttiva
  • possibilità di trimming non distruttivo da Resolve per tagliare i file raw ed esportarli in raw senza ricompressione (non tutti i raw, non tutti gli NLE lo permettono).
  • possibilità di export dei singoli frame raw senza ricompressione per test, Dit working etc con passaggio di pochi dati.

Dopo qualche mese dalla sua presentazione esistono già diverse applicazioni professionali a supportarlo come Resolve immediatamente, Nuke, Scratch, Premiere e Mediaencoder tramite plugin esterno, la lista sta crescendo rapidamente grazie al fatto che chiunque può implementare la gestione del braw nel proprio software gratuitamente, al contrario di ogni altro codec raw nato sulle telecamere che richiede un pagamento di licenze anche per la semplice lettura perchè si devono usare gli sdk proprietari.

Per coloro che vogliono testare il codec, possono scaricare dei sample dalla pagina Blackmagic Raw

In occasione del IBC2019 Blackmagic Design rilascia il kit 1.5 del BlackMagic raw, il kit contiene SDK, player e test per dischi Braw e … plugin per Premiere, AfterEffects e Avid per leggere agilmente il codec al di fuori delle applicazioni Blackmagic! Così che oggi buona parte degli editor sono in grado di leggere nativamente il codec BlackMagic Raw.

Inoltre stupendo tutti i detrattori del codec, rilascia il nuovo Video Assist HDR a 2500 nits con la capacità di registrare in Braw da camere NON BMD, dalla Panasonic Eva e dalla Canon C300 MkII!

I falsi miti sul Raw in generale e non solo su questo Raw
Se è compresso non è raw!

l’affermazione denota ignoranza, in tanti punti, a partire dal fatto che nessuna camera registra il 16bit lineare che catturano i sensori, ma lo codificano e comprimono in vario modo dentro raw 14bit logaritmici (in fotografia) o raw 12bit logaritmici (nel cinema), sia per questioni pratiche di flusso dati, sia per gestione fisica della massa di dati che non compressi sarebbero ingestibili.

Dato che qualcuno potrebbe dubitare delle mie parole, delle parole di Blackmagic visto loro lo regalano (ricordiamo che tranne pochi esempi high end, tutti gli altri vi fanno pagare saltamente la registrazione non fortemente compressa, figuriamoci il raw) meglio mettere uno screengrab dal sito Red, i primi a dotare una camera di codec raw proprietario e spesso usate per shooting miliardari dove non ci sono limiti di mezzi, eppure per L’Uomo ragno ritenevano buona una compressione 5:1 visually lossless, e la non compressa che tutti auspicano per i loro lavori da caricare sui social non era adatta…

la cosa divertente è che quello che gli amatori ritengono un problema, ovvero la morbidezza delle immagini, è qualcosa che molti dop di fascia alta auspicano conoscendo bene i problemi degli eccessi di nitidezza, spesso vengono scelte compressioni maggiori per mantenere più morbide le immagini.

Ovviamente c’è compressione e compressione, la maggior parte delle persone per compressione pensa sempre a quella distruttiva di streaming e company non a compressione più intelligente.

Se è parzialmente demosaicizzato non è raw!

il braw, se la gente avesse la competenza e l’intelligenza per leggere l’sdk di Blackmagic vedrebbe cosa accade e perchè si parla di demosaicizzazione parziale, ma se lo potesse fare, non scriverebbe certe sciocchezze.

Ogni raw ha il suo workflow di lavoro, processi fatti in camera e processi fatti nel software, con vantaggi e svantaggi.
Un codec è raw se permette :

  Braw
la gestione delle matrici separate si
il controllo reale di iso e altri paramentri in post si
il controllo del bilanciamento colore in post si
registrazione dei 12 bit log per matrice si

quindi se il codec offre tutte queste opzioni è un codec raw.

Si è bello ma non lo leggo dal software XYZ!

altra affermazione opinabile visto che anche gli altri codec non sono ben letti (con eccezione di Red) in modo ottimale dai vari NLE, anzi spesso richiedono la creazione di proxy con i software dedicati. Normalmente ai montatori non si danno gli originali, ma i giornalieri con Lut applicate, se si parla di raw o log, quindi il problema non sussiste.

Oggi Bmd vende tre camere con il Braw, la UMP e la Pocket4k e 6k, vendute con licenza completa di DavinciResolve, ovvero il miglior software per lo sviluppo Raw e in particolare Braw, oltre che buon editor, postproduction etc etc… Con il VideoAssist 12g si può registrare in Braw anche dalla Canon C300 MKII e Panasonic EvaOne.
Se si vuole lavorare in un altro software Resolve prevede dal pannello media il sistema di ingest e conversione in altri formati, si può già fare una precolor oppure gestire direttamente la color e mandare il filmato sviluppato all’applicazione NLE.

 

La piccola rivoluzione relativa all’introduzione del Braw ha creato tanti osteggiatori, per chi ha dubbi e ha bisogno di più test scientifici e ben pensati, potete visitare il sito di Frank Glencairn sul post relativo alla qualità del Braw.

Dove mostra dei test pratici nei quali la differenza reale tra i diversi flavour di compressione è relativa, ma la qualità generale resta molto alta contro una serie di richieste generali veramente irrisorie.
Man mano che passa il tempo aggiungo qualche frame estratto a caso dagli shooting, senza denoise, per far capire quanto la qualità anche compressa sia eccezionale sia come dettaglio che pulizia dell’immagine.

Pagina 2 di 12

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!