Carlo Macchiavello

Tutto è possibile

Categoria: I miti da sfatare Pagina 1 di 10

Video FULL FRAME : la prossima illusione Cinematic Look

THE VILLAGE, Roger Deakins, 2004, (c) Buena Vista

Tanti filmaker moderni sono nati con le fotocamere, e per tale ragione si sono sempre lamentati che non avevano telecamere fullframe, che le telecamere non sono cinematiche perchè sono croppate… Ho scritto tanti articoli relativi al crop e al motivo per cui non è mai stato un problema finchè non è stato inventato dal marketing di un noto brand per vendere le sue fotocamere Fullframe rispetto alla concorrenza Aps-c.

Il cinema è nato 16 e 35 mm ma con scorrimento verticale, quindi con una dimensione assimilabile al aps-c, e il concetto di crop non c’è mai stato, si aveva una lente e la si usava / usa per le necessità o per le scelte estetico/narrative. Alternativa ad esse c’è stato il 70mm per contrastare la televisione, e per dare una resa particolare di dettaglio e qualità delle immagini, ma a causa delle dimensioni maggiori della camera e dei caricatori di pellicola 70mm, che oltretutto aveva una durata minore per caricatore, era meno diffuso e meno usato del 35mm e s35mm classico.

Oggi con l’avvento di cineprese Arri, Panasonic, Panavision, Sony LF (largo formato) i filmaker si lamentano che non possono avere cineprese economiche con quel formato, non pensando che non è il sensore grande a fare il cosiddetto Cinematic Look.

Perchè la nascita della seconda ondata del digitale con la 5D ha fatto credere questo mito del sensore grande?

Chi mi conosce sa che sono un pragmatico, mi piace scherzare, ma poi mi piace analizzare seriamente e tecnicamente i fatti.

Prima della 5D tutti i sistemi di ripresa erano telecamere a sensore piccolo, pensate per il video, quindi con tutta una serie di difetti, che la 5d, per quanto non fosse nata per il video, non aveva.

La classica telecamera degli anni 2000 aveva i seguenti difetti :

Sensore piccolo

Il sensore piccolo ha una serie di limiti:

  • il primo è relativo alla superficie, di solito da 1/3 a 2/3 di pollice, la quantità di luce che poteva raccogliere era poca, quindi per funzionare correttamente spesso doveva applicare forti rapporti di guadagno elettronico, contrastando spesso troppo le immagini, portando facilmente a bruciare le alte luci e chiudere le ombre o sporcandole con forte rumore digitale.
  • Il secondo difetto del sensore piccolo è che mettendo uno zoom davanti al sensore, questo deve essere molto spinto come grandangolare, altrimenti non è possibile fare dei totali nei luoghi più stretti, facendo si che la maggior parte delle immagini hanno distorsioni più o meno spinte, allargando le immagini,da qui il detto “la Tv ingrassa”.
  • Il terzo difetto è che un sensore piccolo, soprattutto pre smartphone, ondata tecnologica che ha spinto molto di più la ricerca nella direzione dell’ottimizzazione dell’immagine sulle piccole dimensioni, offriva una qualità di dettaglio fine molto relativa, ma all’epoca bastava l’HD visto su monitor di qualità relativa.
Immagine con Video Look

Tutte le telecamere lavoravano in uno spazio colore rec601, con poco contrasto tra luce e ombra, non avevano ancora diffuso bene il rec709 che gestisce un contrasto migliore, quindi spesso veniva applicato uno sharpness artificiale alle immagini che creava quello che oggi chiamano il “retro look” o il “vhs look”, cioè degli aloni più o meno intensi attorno agli oggetti con un minimo di contrasto.

  • Il primo difetto è dato dalla bassa gamma dinamica catturabile da quel tipo di sensori, unita a contrasto forte, e non c’era molto da fare, quasi tutte le camere erano costruite in quel modo.
  • Il secondo difetto era causato da pessimi display che portavano la maggior parte degli operatori a alzare lo sharpness al massimo nell’illusione di avere immagini più nitide, ma non lo erano e quindi purtroppo diventavano più artificiali le immagini.
  • il terzo difetto era dato dall’uso delle telecamere che permettendo movimenti più “sporchi” per la natura della cattura del movimento con i ccd portava ad una diversa estetica del movimento e dell’uso della camera.
  • il quarto difetto, terribile, era/è l’interlacciatura, che vista su una televisione è invisibile, ma vista su computer o altri media sbriciola in modo orribile le linee degli elementi in movimento creando difetti digitali antiestetici, e la sua rimozione portava alla perdita del 50% della già bassa definizione verticale.

Cosa ha offerto la DSLR che era improbabile poter fare al tempo con le telecamere.

  • Sensore con minore crop (Non crop zero, che non esiste) = lenti normali e rese più naturali della prospettiva.
  • Focali più lunghe = più possibilità di sfuocare lo sfondo e separare soggetto e sfondo senza conoscere bene i principi di illuminazione.
  • Gamma dinamica maggiore = più possibilità di espressione della luce, e allo stesso tempo la lettura più naturale della realtà.
  • Immagini più morbide = maggior risoluzione di cattura offre meno sharpness finto, ma più nitidezza reale (uso i due termini per distinguere l’effetto digitale da quella reale della lente).
  • Lenti intercambiabili di qualità possibile maggiore.

Questo tipo di vantaggi fu ciò che fece esplodere la “moda” delle dslr a fine anni 2000, moda che doveva restare nella fascia bassa, per chi non aveva accesso a camere di maggior livello, e invece fu poi introdotta anche nel cinema di fascia alta dove spesso si usano le mirrorless come cam C, o Crash cam che anche se vengono distrutte il problema non sussiste contro perdere una cinepresa da 100k. Oggi fin troppo spesso si vedono comprare le fotocamere come telecamere, e scoprire dopo tutti i limiti e i difetti delle stesse, in primis l’ergonomia, l’autofocus continuo, la registrazione spesso più compressa, limiti nell’uso del viewfinder, rolling shutter accentuato, etc etc.

Oggi il mito della largo formato cozza con tanti dettagli a cui le persone non pensano, che non tange i professionisti o le LF di alto livello.

  • Costo notevolmente maggiore del corpo macchina.
  • Maggiori consumi batteria e surriscaldamenti varii.
  • Lenti di nuovo formato notevolmente più costose.
  • Maggior dimensione di sensore significa una serie di scelte diverse sulle lenti con possibili più problemi di gestire e mantenere i fuochi durante il movimento.
  • Necessità di formati di registrazione a qualità più alta per raccogliere la maggior qualità catturata.

Il largo formato è interessante soprattutto per creare film dove gli effetti visivi ne fanno da padroni, perchè alzare semplicemente la risoluzione di cattura (4k,6k, 8k) a fronte della stessa dimensione di sensore spesso comporta un problema di gestione della luce, mentre per la maggior parte delle produzioni non comporta un cambiamento tale da giustificare il recente entusiasmo per tale formato.

 

10 motivi per cui la Pocket 4k è migliore della 6k

 

Argomento caldo del momento è la Blackmagic Design Pocket6k, per la quale sembra che sia partito un innamoramento generale dei filmaker e una necessità indispensabile di vendere cosa già si ha per passare alla pocket6k. E’ un fenomeno comune che il prodotto nuovo sia miglire di quello che abbiamo perchè il periodo detto dagli psicologi “luna di miele” è terminato e vediamo lo strumento che possediamo come inutile o sorpassato. Di base avrei fatto una disanima più equilibrata tra le due camere, ma visto che vanno di più i xxx versus yyy, divido il tutto in due articoli 😀

La pocket6k si differenzia per poche cose dalla versione 4k, per la gestione e supporto delle nuove risoluzioni e di un sensore di formato s35, come le ammiraglie UMP, ma per il resto non ci sono differenze di gamma dinamica o performance realmente vantaggiose sulla Pocket4k.

Ora facciamo un ragionamento pratico su questa “vecchia camera” e vediamo 10 motivi per cui vale la pena acquistarla invece della pocket6k.

1) Fattore economico

La pocket4k è disponibile per circa 1500 euro al pubblico, mentre la pocket6k costa 2500 euro al pubblico, per cui al prezzo di una camera quasi si prendono due pocket4k.

2) Storage

Utilizzando una maggior risoluzione, anche con il braw o formati prores più leggeri le richieste di storage aumentano, la velocità delle card e dei dischi per registrare queste informazioni dovranno essere maggiori, quindi si dovrà fare un ulteriore investimento sia di stoccaggio che di registrazione, cosa che non tutti sono disposti a fare.

3) Risoluzione di ripresa

La pocket 4k ha il 4k (ovviamente) DCI, UHD e il FHD con un sensore 16:9 che permette di registrare in raw queste risoluzioni, 4kDCI è il sensore pieno, UHD e FHD vengono registrati in crop del sensore come su Arri, Red, Sony e tutte le altre camere; in Prores tutte queste risoluzione senza “windowed sensor” ovvero senza un crop ulteriore.

La pocket 6k avendo un sensore di maggiori dimensioni sia in taglia che in risoluzione, in raw NON prevede il 4k o UHD neanche “windowed”, ma utilizza un formato 5.7k o 3.7K anamorfico windowed per generare un formato vicino al 4k o UHD. Quindi per chi vuole lavorare in 4k o UHD nativi deve tenere conto che con la pocket6k deve scalare o in alto o in basso i dati, che saranno ricchissimi come informazioni, ma è uno stress in più a cui sottoporranno il proprio NLE.

4) Dobbiamo avere lenti migliori

Ci sono tre motivi per cui la pocket4k è in vantaggio sulle lenti sulla 6k, che è lo stesso motivo per cui il 4/3 è in vantaggio sul aps-c e sul ff.
Quando si utilizza una lente, pensata per un formato più ampio, il massimo della qualità visiva è nella parte centrale, mentre man mano che si va all’esterno si ha una leggerissima perdita, in funzione della qualità e del livello della lente, per cui usando una lente FF originale o vintage, un formato 4/3 croppando di più prende il meglio della lente, un s35 con un minor crop prende di più i lati e gli eventuali difetti, un sensore FF prevede di avere una lente perfetta, altrimenti non ha senso aver investito in un sensore FF.

Il secondo motivo è che salendo con la risoluzione anche le lenti collegate dovranno essere di buon livello, perchè altrimenti non avrebbe senso usare un sensore 6k se poi si mettono dei fondi di bottiglia davanti al sensore.
Avendo un attacco Canon EF si ha accesso ad un buon numero di lenti Canon, Sigma, Zeiss che offriranno ottime performance con tale camera.

Il terzo vantaggio della Pocket4k è che il mount m4/3 ha un tiraggio corto e permette l’adattamento di quasi ogni tipo di lente meccanica, vintage, permettendo di accedere a migliaia di splendidi vetri degli ultimi 100 anni anche di qualità ottima, semplicemente dismessi perchè non autofocus.

5) batterie più capienti

Una camera con sensore più grande e con maggiore risoluzione richiede anche una maggior potenza di lavoro, quindi si deve ragionare o con il battery pack o con batterie esterne capienti per poter avere una buona autonomia. Dalle prime indicazioni pare che se la Pocket4k assorbe 22w/h la pocket 6k dovrebbe assorbire circa 26w/h quindi le durate dovrebbero essere assimilabili, ma… le lenti EF hanno stabilizzatori più avidi di corrente rispetto a quelle m4/3 e quindi l’utilizzo di questo differente tipo di lenti potrebbe drenare rapidamente le nostre batterie.

6) Sensore più equilibrato rapporto risoluzione dimensione 4k, 6k

Il rapporto di risoluzione e dimensione del sensore è più favorevole nella Pocke4k che la Pocket6k, dove un sensore poco più grande divide la luce che riceve per un numero maggiore di fotorecettori, quindi è più vantaggiosa a livello di pulizia nelle immagini in bassa luce.

7) Maggiore risoluzione, maggiore dettaglio, più possibili problemi

a parte la smania di risoluzione, che spesso è superiore alla capacità visiva umana, ma quello è un altro discorso già affrontato, una maggior capacità risolutiva del sensore 6k senza un filtro per le alte frequenze, offre il rischio di maggiori problemi di moires e difetti visivi legati al campionamento delle alte frequenze su tanti elementi, mentre il sensore 4k essendo (in confronto) meno risoluto ha meno rischi di moires.

8) La camera è nuova, facciamo i beta tester

Come succede con ogni camera di ogni brand, la prima ondata di camere è una beta pagata, ovvero si prova sul grande pubblico il funzionamento della camera, e se ci sono problemi o difetti saranno corretti in corsa durante la produzione, mentre la pocket4k che viene spedita da un anno ha ormai una linea di produzione verificata e coordinata.

9) Sulla Pocket4k si possono avere gli speedbooster, sulla 6k ni

Un miracolo ingegneristico e tecnologico sono gli speedbooster della Metabone, azienda americana che crea degli adattatori di lenti che al loro interno contengono una lente che concentra la luce e offre due vantaggi : guadagno di uno stop di diaframma e riduzione del crop tra FF e formati aps-c e 4/3,m4/3.

Gli speedbooster sono poi stati imitati da altri, ma la qualità ottica per cui vale la pena avere uno speedbooster a oggi non è ancora stata eguagliata.

Gli speedbooster posso esistere solo nel caso di tiraggi lente sensore che lascino posto a tale lente, cosa che tecnicamente il mount EF non fa.

Pare che l’azienda Lucadapter, che produce una variante da inserire all’interno della UMP, stia pensando di produrre la stessa cosa per la pocket6k, ma per ora è ancora in fase di kickstarting, mentre per la pocket4k esistono sia i generici che quello dedicato da tempo.

10) Computer più potenti

Per gestire sia i prores che i braw 6k sarà necessario alzare l’asticella della potenza dei computer, la velocità dei raid per leggere i dati e quindi non basta la semplice camera, ma gli investimenti si allargano in tutta l’attrezzatura.

Naturalmente la mia lista è relativa ad un discorso puramente generale, ognuno poi ha punti di vista diversi, personalmente la maggior parte di questi punti non mi tange, abituato a girare in dng non compressi o altri formati raw molto onerosi, ho usato la prima Alexa con il firmware 0.85 che registrava fullHd prores, senza audio, e ho avuto tante esperienze varie per cui … penso che queste due macchine siamo miracoli regalati alla massa.

Vi attendo al prossimo articolo “Perchè la pocket6k è migliore della Pocket4k“, così rovesciamo le situazioni…

 

Blackmagic Raw 1.5 God or Evil?

Nel 2001 naque il primo codec interpiattaforma e slegato dall’hardware, Cineform, nel 2005 fu potenziato per offrire la possibilità di importare fotografie raw di diversi brand e convertirle in un filmato raw compresso visually lossless con metadata attivi e modificabili realtime, successivamente l’encoder fu in grado di convertire tutti gli altri formati raw nati SUCCESSIVAMENTE in Cineformraw con diversi flavour di compressione e qualità supportando fino al 16k stereoscopico.

Oggi nel 2019 quasi ogni Brand ha la sua codifica Raw, a partire Arriraw, Redcode, SonyRaw, PanasonicRaw, l’anno scorso l’introduzione di ProresRaw che permette il recording in formato ProresRaw direttamente dalle camere che escono in raw da SDI sui recorder Atomos e pochi altri, fino al recente Braw di blackmagic.

A Ibc 2018 Blackmagic design lancia la palla nel campo del raw, introducendo il loro codec proprietario braw (blackmagic raw) nel mondo del broadcast e del cinema con una certa forza dirompente, e soprattutto disponibile subito, dallo stesso giorno con il firmware in beta 6.0 per la UrsaMiniPro, il nuovo aggiornamento di Davinci Resolve 15.1 per supportarlo e la promessa che a breve sarà disponibile anche per la nuova camera, pocket 4k e così è stato con il firmware 6.2, ma nel contempo toglieva la registrazione Dng.

La differenza tra il Dng e il Braw è evidente e chiara, il dng è uno standard fotografico, peraltro abbandonato dai suoi stessi creatori nel 2016, piegato alle necessità dei video, mentre il Braw è un moderno codec raw pensato per le immagini, dove convivono le diverse necessità di lavoro di un codec video di fascia alta e le richieste di fascia bassa.

La presentazione del Braw è stata abbastanza curiosa, dove GrantPetty ha scherzato sul fatto che con un codec così leggero non servono più le schede video esterne di decodifica, ironeggiando sul fatto che le producono loro per Apple.

Come sempre l’innovazione porta pro e contro, fautori e osteggiatori, fino al parossismo, ma essendo un pragmatico, preferisco fare una analisi meno tecnica (quella la lascio alla fase finale) e più pratica.

 

CONTRO

  • leggermente meno nitido del CDNG (meno aliasing sui dettagli)
  • a forti compressioni ha artefatti sui dettagli fini
  • meno compatibile nelle applicazioni rispetto al CDNG (ma licenza free per la sua implementazione).

PRO

  • il rapporto peso qualità è incredibile
  • la minor incidenza di falsi dettagli e aliasing permette una maggior fluidità di ripresa-riproduzione del movimento
  • il nuovo sistema di demosaicizzazione ottimizza e migliora la cattura della struttura dell’immagine riducendo artefatti come FPN
  • la parziale demosaicizzazione applicata in camera permette una maggior leggerezza di lettura sui dispositivi
  • richiesta di minor velocità di scrittura permette uso di storage meno costoso e poter registrare più a lungo con minor consumi
  • i vantaggi del raw senza il peso del raw in tutti i sensi
  • registrazione di segnale 12 bit log con metadata attivi
  • possibilità di incorporare LUT e altri elementi di preview non distruttiva
  • possibilità di trimming non distruttivo da Resolve per tagliare i file raw ed esportarli in raw senza ricompressione (non tutti i raw, non tutti gli NLE lo permettono).
  • possibilità di export dei singoli frame raw senza ricompressione per test, Dit working etc con passaggio di pochi dati.

Dopo qualche mese dalla sua presentazione esistono già diverse applicazioni professionali a supportarlo come Resolve immediatamente, Nuke, Scratch, Premiere e Mediaencoder tramite plugin esterno, la lista sta crescendo rapidamente grazie al fatto che chiunque può implementare la gestione del braw nel proprio software gratuitamente, al contrario di ogni altro codec raw nato sulle telecamere che richiede un pagamento di licenze anche per la semplice lettura perchè si devono usare gli sdk proprietari.

Per coloro che vogliono testare il codec, possono scaricare dei sample dalla pagina Blackmagic Raw

In occasione del IBC2019 Blackmagic Design rilascia il kit 1.5 del BlackMagic raw, il kit contiene SDK, player e test per dischi Braw e … plugin per Premiere, AfterEffects e Avid per leggere agilmente il codec al di fuori delle applicazioni Blackmagic! Così che oggi buona parte degli editor sono in grado di leggere nativamente il codec BlackMagic Raw.

Inoltre stupendo tutti i detrattori del codec, rilascia il nuovo Video Assist HDR a 2500 nits con la capacità di registrare in Braw da camere NON BMD, dalla Panasonic Eva e dalla Canon C300 MkII!

 

I falsi miti sul Raw in generale e non solo su questo Raw
Se è compresso non è raw!

l’affermazione denota ignoranza, in tanti punti, a partire dal fatto che nessuna camera registra il 16bit lineare che catturano i sensori, ma lo codificano e comprimono in vario modo dentro raw 14bit logaritmici (in fotografia) o raw 12bit logaritmici (nel cinema), sia per questioni pratiche di flusso dati, sia per gestione fisica della massa di dati che non compressi sarebbero ingestibili.

Dato che qualcuno potrebbe dubitare delle mie parole, delle parole di Blackmagic visto loro lo regalano (ricordiamo che tranne pochi esempi high end, tutti gli altri vi fanno pagare saltamente la registrazione non fortemente compressa, figuriamoci il raw) meglio mettere uno screengrab dal sito Red, i primi a dotare una camera di codec raw proprietario e spesso usate per shooting miliardari dove non ci sono limiti di mezzi, eppure per L’Uomo ragno ritenevano buona una compressione 5:1 visually lossless, e la non compressa che tutti auspicano per i loro lavori da caricare sui social non era adatta…

la cosa divertente è che quello che gli amatori ritengono un problema, ovvero la morbidezza delle immagini, è qualcosa che molti dop di fascia alta auspicano conoscendo bene i problemi degli eccessi di nitidezza, spesso vengono scelte compressioni maggiori per mantenere più morbide le immagini.

Ovviamente c’è compressione e compressione, la maggior parte delle persone per compressione pensa sempre a quella distruttiva di streaming e company non a compressione più intelligente.

Se è parzialmente demosaicizzato non è raw!

il braw, se la gente avesse la competenza e l’intelligenza per leggere l’sdk di Blackmagic vedrebbe cosa accade e perchè si parla di demosaicizzazione parziale, ma se lo potesse fare, non scriverebbe certe sciocchezze.

Ogni raw ha il suo workflow di lavoro, processi fatti in camera e processi fatti nel software, con vantaggi e svantaggi.
Un codec è raw se permette :

  Braw
la gestione delle matrici separate si
il controllo reale di iso e altri paramentri in post si
il controllo del bilanciamento colore in post si
registrazione dei 12 bit log per matrice si

quindi se il codec offre tutte queste opzioni è un codec raw.

Si è bello ma non lo leggo dal software XYZ!

altra affermazione opinabile visto che anche gli altri codec non sono ben letti (con eccezione di Red) in modo ottimale dai vari NLE, anzi spesso richiedono la creazione di proxy con i software dedicati. Normalmente ai montatori non si danno gli originali, ma i giornalieri con Lut applicate, se si parla di raw o log, quindi il problema non sussiste.

Oggi Bmd vende tre camere con il Braw, la UMP e la Pocket4k e 6k, vendute con licenza completa di DavinciResolve, ovvero il miglior software per lo sviluppo Raw e in particolare Braw, oltre che buon editor, postproduction etc etc…
Se si vuole lavorare in un altro software Resolve prevede dal pannello media il sistema di ingest e conversione in altri formati, si può già fare una precolor oppure gestire direttamente la color e mandare il filmato sviluppato all’applicazione NLE.

 

La piccola rivoluzione relativa all’introduzione del Braw ha creato tanti osteggiatori, per chi ha dubbi e ha bisogno di più test scientifici e ben pensati, potete visitare il sito di Frank Glencairn sul post relativo alla qualità del Braw.

Dove mostra dei test pratici nei quali la differenza reale tra i diversi flavour di compressione è relativa, ma la qualità generale resta molto alta contro una serie di richieste generali veramente irrisorie.
Man mano che passa il tempo aggiungo qualche frame estratto a caso dagli shooting, senza denoise, per far capire quanto la qualità anche compressa sia eccezionale sia come dettaglio che pulizia dell’immagine.

Zuppa di codec 3 controrumors pro Apple e pro Microsoft

In passato con precendenti articoli dedicati ai codec dei sistemi operativi, ho parlato di conoscenze di base con Zuppa 1, di come non serva installare codec esterni per montare in Zuppa 2, ho parlato dei Digital Intermediate in Flussi Digitali, e di codec Audio in Ac3 siamo a piedi, oggi siamo qui a chiarire un fatto che recentemente ha creato un certo numero di rumors, di chiacchiere da bar inutili, e soprattutto preoccupazioni ingiustificate, ovvero l’annuncio di Apple che dai sistemi operativi dopo Mojave, 10.14, non saranno più supportati i codec Cineform, DnxHr, e altri considerati obsoleti.

Facciamo un paio di semplici domande: oggi sono supportati? NO!!!
come si può leggere sui formati supportati da FinalCutProX sulla pagina di Apple.

Ma ovviamente saranno supportati dal sistema operativo? NO!!!
Nè Apple Osx, nè Windows da Xp all’ultimo Win10 supportano tali codec.

Quindi ci sono pagliacci in giro che parlano a vanvera spaventando e mettendo rumors inutili e inutilmente provocatori? Si purtroppo questa è la verità….

la premessa

Da infiniti anni, i sistemi operativi avevano il supporto per un numero limitato di file e di codec multimediali implementando al loro interno codec necessari per vedere tali file dalle utility di sistema, nel tempo i diversi codec si sono ridotti notevolmente a pochi codec, e molti non sanno, che spesso erano stati installati da applicazioni di terze parti, ad esempio Windows non ha mai pagato le royalties per la lettura dei film in Dvd, codec mpg2, quindi senza l’installazione di un player dvd il lettore multimediale di windows non era in grado di leggere nessun dvd, dava errore dicendo Codec non supportato, ma nessuno ci faceva caso perchè leggeva i dvd da… un player dvd, quindi installando il programma si installavano i codec nel sistema.

Sia sotto Windows che sotto Mac la maggior parte dei codec video è sempre stata aggiunta come terza parte, e spesso anche se supportati direttamente esistevano codec di miglior qualità (la tedesca MainConcept ha fatto business su questo prima di vendere i suoi codec a Adobe).

Chiunque abbia lavorato nel video negli ultimi 20 anni conosce l’innumerevole quantità di codec, pacchetti, varianti di codec ha dovuto installare per supportare una o l’altra camera durante l’editing video.

Oggi girando prettamente in h264 e varianti, tutto sembra per magia supportato e quindi tutto compatibile (che poi non è vero perchè h264 a seconda del decoder software hardware può essere letto con piccoli errori e differenze qualitative).

La realtà, oggi 1 dicembre 2018

Apple con il sistema operativo successivo a Mojave abbandonerà completamente il framework Quicktime 32bit, e completerà il passaggio iniziato anni fà a AvFoundation framework 64bit, con il risultato che tutti i software collegati al vecchio framework smetteranno di funzionare.

Cineform, dnxHD/Hr e molti altri codec erano implementati nel sistema installando esternamente delle risorse che si appoggiavano al vecchio QuicktimeFramework.

Ora noi abbiamo un problema? No, la situazione è come era prima, perchè si implementavano i codec come terze parti nel sistema per vedere da finder o da altri programmini i filmati, ma i software importanti implementano internamente i codec senza dover dipendere dal sistema, come ho spiegato negli articoli zuppa di codec precedenti.

Un buon flusso di lavoro prevede che tutto il lavoro sia fatto in modo ordinato ed efficiente tramite i software di ingest ed editing, per fare una rapida cernita del materiale, introdurre tramite metadata le informazioni di lavoro, e organizzare il materiale copiandolo, transcodificandolo e gestendolo senza dover passare per il sistema operativo.

Per chi ancora vuol passare per il sistema operativo, basterà che usi una qualunque applicazione come VLC che include già tutti i codec per leggere i file, anche se si lavora in ambito montaggio e post ha più senso usare software di lavoro per vedere il materiale e giudicarlo, che usare player di sistema o altri elementi che possono alterare, mostrare il materiale nel modo non corretto.

La realtà, oggi 11 dicembre 2018

Apple ha trovato un accordo con Adobe riguardo il prores, e nelle nuove release di Adobe Premiere, After Effects, MediaEncoder etc potranno scrivere file in prores anche sotto Windows, a dimostrazione che si vogliono estendere le possibilità e non chiudere come tanti affermano.

Supporti questi sconosciuti, quanta velocità mi serve?

Troppe volte sento parlare e leggo di problemi di registrazione dei file, sia fotografici che video, associati a bestialità tecniche incredibili, sia perchè c’è tanta disinformazione, sia perchè spesso sono argomenti affrontati con molta superficialità, che causa problemi lavorativamente.

La cosa inquietante è che spesso anche le aziende non sono preparati per rispondere a domande banali, conservo ancora una email del supporto tecnico di una nota Azienda riguardo alla richiesta di un elenco di SD certificate per la registrazione del flusso dati 400mbits della loro camera, l’avranno testata in qualche modo visto che facevano uscire i video dimostrativi, ma nessuno mi sapeva dare elenco di card certificate per ottenere tale risultati, e di sicuro non spendo centinaia di euro in schede inutili per fare i test al posto loro, come suggeritomi dall’assistenza.

Perchè mi serve avere un supporto veloce e cosa accade quando uso un supporto più lento di quello necessario?

Quando stiamo scattando una fotografia, stiamo girando un video, stiamo creando dati che passano attraverso 5 diversi possibili colli di bottiglia:

  • Dimensione buffer interno della camera
  • Controller di registrazione della camera (supporto o no di schede veloci UHS-II etc)
  • Dimensione buffer esterno della scheda (prima della scrittura sulle celle il controller spesso ha un buffer di passaggio per liberare quello della camera)
  • Controller di registrazione della scheda (la gestione delle celle viene fatto da un controller che registra direttamente i dati o spesso li comprime per accelerare il trasferimento).
  • Qualità celle che mantengano la stessa velocità di scrittura per tutte le celle, molti supporti dopo aver riempito in modo casuale la metà delle celle rallentano perchè hanno mappato male i dati e devo “trovare gli spazi liberi”.

Dato che con la scelta della scheda stiamo influenzando buona parte di questi elementi di gestione della velocità di scrittura dei dati, è importante fare la scelta giusta, perchè se il supporto scelto è quello ottimale avremo una serie di vantaggi:

  • registrazione alla massima qualità dei video
  • registrazione al massimo bitrate dei video (non sempre coicide col primo punto, ma ci sono vantaggi e differenze in questo)
  • registrazione di raffiche di fotogrammi più lunghe
  • reattività della macchina a scattare nuovamente dopo aver scattato i primi fotogrammi

Al contrario se il dispositivo non è adeguato possiamo incontrare i seguenti problemi:

  • limiti di durata dei video alla massima qualità/bitrate (dipende dal buffer interno, normalmente si parla di pochi secondi se la scheda non è adeguata), si prevede perchè sempre stesso intervallo.
  • se la scheda è discretamente veloce, possiamo avere interruzioni della ripresa video dopo un tempo X (buffer che si riempe ma non abbiamo feedback può essere anche dopo minuti di registrazione) non prevedibile.
  • tempi di attesa più o meno lunghi dopo lo scatto per attendere che sia scaricato il buffer
  • lo scarico del buffer della raffica richiede secondi e quindi non si può scattare nel frattempo
  • raffiche brevi perchè il buffer della camera si riempe subito
come scelgo la card giusta?

Il primo limite nella scelta delle card sta nel fatto che i produttori spesso offrono dati confusi e tendenziosi per ingannare l’acquirente occasionale, fornendo sigle e indicazioni poco chiare o spesso indicanti solo di parte dei dati:

  • SD Secure Digital fino ad un massimo di 2gb
  • SDHC Secure Digital High Capacity dai 4 ai 32 gb
  • SDXC Secure Digital eXtended Capacity da 64gb a 2 tb
  • Classe 2 scrittura a 2 mb/s
  • Classe 4 scrittura a 4 mb/s
  • Classe 6 scrittura a 6 mb/s
  • Classe 10 scrittura a 10 mb/s
  • SD UHS Speed Class-I U1 scrittura garantita a 10 mb/s per tutta la capacità della scheda
  • SD UHS Speed Class-I U3 scrittura garantita a 30 mb/s per tutta la capacità della scheda
  • SD UHS Speed Class-II U1 e U3 scrittura garantita da 150 mb/s a 312 per tutta la capacità della scheda
  • SD Video Speed Class nuova categoria per la registrazione video con garanzia di prestazione V6 (6 mb/s), V10(10mb/s),V30 (30 mb/s), V60(60mb/s),V90 (90 mb/s)

Spesso quando si vedono le velocità scritte sulle schede si parla delle velocità di lettura, non di scrittura, che non ci interessano per la scrittura dei file in ripresa.

Entrambe sono SDXC Classe 10, U3

la prima legge a 95 mb/s ma V30, quindi scrive a 30 mb/s

la seconda legge a 300 mb/s ma scrive fino a 260mb/s.

Quindi è importante saper leggere le sigle, verificare le vere velocità di scrittura delle schede SD per evitare sorprese durante il lavoro.

come scelgo l’ssd giusto?

Oggi diverse camere usano gli ssd per la registrazione dei dati, o tramite adattatori CF2 to Esata trasferiscono i file su SSD. Le stesse regole delle schede SD valgono anche per le CF e gli SSD, anzi ci sono anche più pericoli nascosti, perchè spesso le velocità dichiarate sono farlocche, ovvero ottenute solo tramite trucchi hardware, ma solo nel momento in cui lavorano su un computer, mentre nel momento in cui sono connesse con un sistema di registrazione diretto questi elementi non funzionano.

Troppi utenti trascurano il fatto che dentro gli ssd ci sono dei controller, dei buffer, e spesso trucchi per raggiungere velocità di picco che non saranno mai mantenute durante la registrazione di file continua.

I produttori di ssd spesso cambiano le memorie interne degli ssd senza cambiare le sigle, per cui dischi ssd testati l’anno scorso contengono memorie diverse, meno efficienti, meno rapide di quelle testate in passato.

Inoltre a seconda del controller, del tipo di disco, delle memorie la velocità può essere costante durante il riempimento del disco, oppure mentre si riempe il disco, dopo la metà può essere anche meno del 30% del valore dichiarato.

Ogni disco è una storia a sè, le diverse taglie di un disco offrono prestazioni diverse perchè cambiano i controller, il tipo di memorie, e spesso anche il modo con cui vengono riempiti i dischi, per cui ci possono essere ssd da 256 gb poco efficienti, ma lo stesso disco in taglio da 1 tera è perfettamente utilizzabile e compatibile con le più alte velocità di scrittura.

Ovviamente i produttori di ssd testano gli ssd per usarli nel computer e quindi non è illegale dichiarare determinate performance, perchè su computer possono raggiungere 480 mb/s quando in realtà collegati ad una normale interfaccia sata rendono al massimo 130/140 mb/s costanti, perchè il resto delle performance sono picchi ottenuti con la compressione dati e col trasferimento da un controller all’altro.

Per queste ragioni le liste di supporti certificati sono molto brevi e limitate a determinati marchi, dischi, e taglie particolari di suddetti dischi.

MAI SUPPORRE O FIDARSI DELLE INDICAZIONI TECNICHE

acquistare sempre i supporti certificati dalla casa madre della camera, e/o verificare il supporto prima di un lavoro con riprese multiple, sia con ripresa continua fino a riempire il disco, riprese alternate, accensioni e spegnimenti camera etc etc.

Ho avuto esperienze di dischi che per velocità dichiarate avrebbero dovuto supportare registrazioni raw continue, mentre in realtà faticavano con registrazioni in formati DI di alta qualità perchè erano solo velocità di picco e nulla di costante.

Pagina 1 di 10

Powered by WordPress & Theme by Anders Norén

Translate »
error: Content is protected !!