Carlo Macchiavello

Tutto è possibile

Autore: carlomacchiavello (Page 1 of 21)

Zuppa di codec 3 controrumors pro Apple e pro Microsoft

In passato con precendenti articoli dedicati ai codec dei sistemi operativi, ho parlato di conoscenze di base con Zuppa 1, di come non serva installare codec esterni per montare in Zuppa 2, ho parlato dei Digital Intermediate in Flussi Digitali, e di codec Audio in Ac3 siamo a piedi, oggi siamo qui a chiarire un fatto che recentemente ha creato un certo numero di rumors, di chiacchiere da bar inutili, e soprattutto preoccupazioni ingiustificate, ovvero l’annuncio di Apple che dai sistemi operativi dopo Mojave, 10.14, non saranno più supportati i codec Cineform, DnxHr, e altri considerati obsoleti.

Facciamo un paio di semplici domande: oggi sono supportati? NO!!!
come si può leggere sui formati supportati da FinalCutProX sulla pagina di Apple.

Ma ovviamente saranno supportati dal sistema operativo? NO!!!
Nè Apple Osx, nè Windows da Xp all’ultimo Win10 supportano tali codec.

Quindi ci sono pagliacci in giro che parlano a vanvera spaventando e mettendo rumors inutili e inutilmente provocatori? Si purtroppo questa è la verità….

la premessa

Da infiniti anni, i sistemi operativi avevano il supporto per un numero limitato di file e di codec multimediali implementando al loro interno codec necessari per vedere tali file dalle utility di sistema, nel tempo i diversi codec si sono ridotti notevolmente a pochi codec, e molti non sanno, che spesso erano stati installati da applicazioni di terze parti, ad esempio Windows non ha mai pagato le royalties per la lettura dei film in Dvd, codec mpg2, quindi senza l’installazione di un player dvd il lettore multimediale di windows non era in grado di leggere nessun dvd, dava errore dicendo Codec non supportato, ma nessuno ci faceva caso perchè leggeva i dvd da… un player dvd, quindi installando il programma si installavano i codec nel sistema.

Sia sotto Windows che sotto Mac la maggior parte dei codec video è sempre stata aggiunta come terza parte, e spesso anche se supportati direttamente esistevano codec di miglior qualità (la tedesca MainConcept ha fatto business su questo prima di vendere i suoi codec a Adobe).

Chiunque abbia lavorato nel video negli ultimi 20 anni conosce l’innumerevole quantità di codec, pacchetti, varianti di codec ha dovuto installare per supportare una o l’altra camera durante l’editing video.

Oggi girando prettamente in h264 e varianti, tutto sembra per magia supportato e quindi tutto compatibile (che poi non è vero perchè h264 a seconda del decoder software hardware può essere letto con piccoli errori e differenze qualitative).

La realtà, oggi 1 dicembre 2018

Apple con il sistema operativo successivo a Mojave abbandonerà completamente il framework Quicktime 32bit, e completerà il passaggio iniziato anni fà a AvFoundation framework 64bit, con il risultato che tutti i software collegati al vecchio framework smetteranno di funzionare.

Cineform, dnxHD/Hr e molti altri codec erano implementati nel sistema installando esternamente delle risorse che si appoggiavano al vecchio QuicktimeFramework.

Ora noi abbiamo un problema? No, la situazione è come era prima, perchè si implementavano i codec come terze parti nel sistema per vedere da finder o da altri programmini i filmati, ma i software importanti implementano internamente i codec senza dover dipendere dal sistema, come ho spiegato negli articoli zuppa di codec precedenti.

Un buon flusso di lavoro prevede che tutto il lavoro sia fatto in modo ordinato ed efficiente tramite i software di ingest ed editing, per fare una rapida cernita del materiale, introdurre tramite metadata le informazioni di lavoro, e organizzare il materiale copiandolo, transcodificandolo e gestendolo senza dover passare per il sistema operativo.

Per chi ancora vuol passare per il sistema operativo, basterà che usi una qualunque applicazione come VLC che include già tutti i codec per leggere i file, anche se si lavora in ambito montaggio e post ha più senso usare software di lavoro per vedere il materiale e giudicarlo, che usare player di sistema o altri elementi che possono alterare, mostrare il materiale nel modo non corretto.

La realtà, oggi 11 dicembre 2018

Apple ha trovato un accordo con Adobe riguardo il prores, e nelle nuove release di Adobe Premiere, After Effects, MediaEncoder etc potranno scrivere file in prores anche sotto Windows, a dimostrazione che si vogliono estendere le possibilità e non chiudere come tanti affermano.

Supporti questi sconosciuti, quanta velocità mi serve?

Troppe volte sento parlare e leggo di problemi di registrazione dei file, sia fotografici che video, associati a bestialità tecniche incredibili, sia perchè c’è tanta disinformazione, sia perchè spesso sono argomenti affrontati con molta superficialità, che causa problemi lavorativamente.

La cosa inquietante è che spesso anche le aziende non sono preparati per rispondere a domande banali, conservo ancora una email del supporto tecnico di una nota Azienda riguardo alla richiesta di un elenco di SD certificate per la registrazione del flusso dati 400mbits della loro camera, l’avranno testata in qualche modo visto che facevano uscire i video dimostrativi, ma nessuno mi sapeva dare elenco di card certificate per ottenere tale risultati, e di sicuro non spendo centinaia di euro in schede inutili per fare i test al posto loro, come suggeritomi dall’assistenza.

Perchè mi serve avere un supporto veloce e cosa accade quando uso un supporto più lento di quello necessario?

Quando stiamo scattando una fotografia, stiamo girando un video, stiamo creando dati che passano attraverso 5 diversi possibili colli di bottiglia:

  • Dimensione buffer interno della camera
  • Controller di registrazione della camera (supporto o no di schede veloci UHS-II etc)
  • Dimensione buffer esterno della scheda (prima della scrittura sulle celle il controller spesso ha un buffer di passaggio per liberare quello della camera)
  • Controller di registrazione della scheda (la gestione delle celle viene fatto da un controller che registra direttamente i dati o spesso li comprime per accelerare il trasferimento).
  • Qualità celle che mantengano la stessa velocità di scrittura per tutte le celle, molti supporti dopo aver riempito in modo casuale la metà delle celle rallentano perchè hanno mappato male i dati e devo “trovare gli spazi liberi”.

Dato che con la scelta della scheda stiamo influenzando buona parte di questi elementi di gestione della velocità di scrittura dei dati, è importante fare la scelta giusta, perchè se il supporto scelto è quello ottimale avremo una serie di vantaggi:

  • registrazione alla massima qualità dei video
  • registrazione al massimo bitrate dei video (non sempre coicide col primo punto, ma ci sono vantaggi e differenze in questo)
  • registrazione di raffiche di fotogrammi più lunghe
  • reattività della macchina a scattare nuovamente dopo aver scattato i primi fotogrammi

Al contrario se il dispositivo non è adeguato possiamo incontrare i seguenti problemi:

  • limiti di durata dei video alla massima qualità/bitrate (dipende dal buffer interno, normalmente si parla di pochi secondi se la scheda non è adeguata), si prevede perchè sempre stesso intervallo.
  • se la scheda è discretamente veloce, possiamo avere interruzioni della ripresa video dopo un tempo X (buffer che si riempe ma non abbiamo feedback può essere anche dopo minuti di registrazione) non prevedibile.
  • tempi di attesa più o meno lunghi dopo lo scatto per attendere che sia scaricato il buffer
  • lo scarico del buffer della raffica richiede secondi e quindi non si può scattare nel frattempo
  • raffiche brevi perchè il buffer della camera si riempe subito
come scelgo la card giusta?

Il primo limite nella scelta delle card sta nel fatto che i produttori spesso offrono dati confusi e tendenziosi per ingannare l’acquirente occasionale, fornendo sigle e indicazioni poco chiare o spesso indicanti solo di parte dei dati:

  • SD Secure Digital fino ad un massimo di 2gb
  • SDHC Secure Digital High Capacity dai 4 ai 32 gb
  • SDXC Secure Digital eXtended Capacity da 64gb a 2 tb
  • Classe 2 scrittura a 2 mb/s
  • Classe 4 scrittura a 4 mb/s
  • Classe 6 scrittura a 6 mb/s
  • Classe 10 scrittura a 10 mb/s
  • SD UHS Speed Class-I U1 scrittura garantita a 10 mb/s per tutta la capacità della scheda
  • SD UHS Speed Class-I U3 scrittura garantita a 30 mb/s per tutta la capacità della scheda
  • SD UHS Speed Class-II U1 e U3 scrittura garantita da 150 mb/s a 312 per tutta la capacità della scheda
  • SD Video Speed Class nuova categoria per la registrazione video con garanzia di prestazione V6 (6 mb/s), V10(10mb/s),V30 (30 mb/s), V60(60mb/s),V90 (90 mb/s)

Spesso quando si vedono le velocità scritte sulle schede si parla delle velocità di lettura, non di scrittura, che non ci interessano per la scrittura dei file in ripresa.

Entrambe sono SDXC Classe 10, U3

la prima legge a 95 mb/s ma V30, quindi scrive a 30 mb/s

la seconda legge a 300 mb/s ma scrive fino a 260mb/s.

Quindi è importante saper leggere le sigle, verificare le vere velocità di scrittura delle schede SD per evitare sorprese durante il lavoro.

come scelgo l’ssd giusto?

Oggi diverse camere usano gli ssd per la registrazione dei dati, o tramite adattatori CF2 to Esata trasferiscono i file su SSD. Le stesse regole delle schede SD valgono anche per le CF e gli SSD, anzi ci sono anche più pericoli nascosti, perchè spesso le velocità dichiarate sono farlocche, ovvero ottenute solo tramite trucchi hardware, ma solo nel momento in cui lavorano su un computer, mentre nel momento in cui sono connesse con un sistema di registrazione diretto questi elementi non funzionano.

Troppi utenti trascurano il fatto che dentro gli ssd ci sono dei controller, dei buffer, e spesso trucchi per raggiungere velocità di picco che non saranno mai mantenute durante la registrazione di file continua.

I produttori di ssd spesso cambiano le memorie interne degli ssd senza cambiare le sigle, per cui dischi ssd testati l’anno scorso contengono memorie diverse, meno efficienti, meno rapide di quelle testate in passato.

Inoltre a seconda del controller, del tipo di disco, delle memorie la velocità può essere costante durante il riempimento del disco, oppure mentre si riempe il disco, dopo la metà può essere anche meno del 30% del valore dichiarato.

Ogni disco è una storia a sè, le diverse taglie di un disco offrono prestazioni diverse perchè cambiano i controller, il tipo di memorie, e spesso anche il modo con cui vengono riempiti i dischi, per cui ci possono essere ssd da 256 gb poco efficienti, ma lo stesso disco in taglio da 1 tera è perfettamente utilizzabile e compatibile con le più alte velocità di scrittura.

Ovviamente i produttori di ssd testano gli ssd per usarli nel computer e quindi non è illegale dichiarare determinate performance, perchè su computer possono raggiungere 480 mb/s quando in realtà collegati ad una normale interfaccia sata rendono al massimo 130/140 mb/s costanti, perchè il resto delle performance sono picchi ottenuti con la compressione dati e col trasferimento da un controller all’altro.

Per queste ragioni le liste di supporti certificati sono molto brevi e limitate a determinati marchi, dischi, e taglie particolari di suddetti dischi.

MAI SUPPORRE O FIDARSI DELLE INDICAZIONI TECNICHE

acquistare sempre i supporti certificati dalla casa madre della camera, e/o verificare il supporto prima di un lavoro con riprese multiple, sia con ripresa continua fino a riempire il disco, riprese alternate, accensioni e spegnimenti camera etc etc.

Ho avuto esperienze di dischi che per velocità dichiarate avrebbero dovuto supportare registrazioni raw continue, mentre in realtà faticavano con registrazioni in formati DI di alta qualità perchè erano solo velocità di picco e nulla di costante.

Fanno così schifo le telecamere?

In un mondo in cui tutti devono avere una video dsrl o una mirrorless per fare video, infilarla dentro un rig scomodo e pesante, avere tanti aggeggi (gear) attorno alla camera (non tele o foto, ma camera) è tanto disdicevole usare le care e vecchie telecamere?

Ho iniziato a fare riprese nel 1991 grazie alla generosità dei miei genitori (avevo 19 anni) con la mia prima telecamera VHS spallare Panasonic NV-M7. Una camera dalle dimensioni e peso generosi 120 x 223 x 398 mm per circa 3kg con la batteria, non pochi non tanti per un oggetto appoggiato alla spalla.

Per l’investimento dell’equivalente oggi di una Ursa si poteva avere una camera con sensore da 1/2 pollice con la risoluzione di ben 200 linee, capacità di riprendere a 10 lux, ma per avere un’immagine decente ne servivano almeno 1400, un fixed pattern noise a basse luci, come tutti i ccd, obiettivo zoom fisso, registrazione su economico nastro vhs, audio mono semi direzionale, tre bilanciamenti di bianco, mirino in bianco e nero, insomma una bomba per l’epoca.

Ovvio che oggi fa sorridere come caratteristiche, visto che si parla di 12k etc anche se… vi ricordo che oggi nel 2018 potete vedere in onda il 70% del materiale alla qualità di queste camere pur in digitale terrestre o satellite o streaming perchè buona parte degli archivi sono ancora SD …

ultimamente sono tornato a guardare con nostalgia quei tempi per un semplice motivo, semplicità operativa! Si imbracciava la camera, power On, bianco, fuoco, e… Rec

vi sfido a trovare la camera

Oggi invece si tende in nome di … boh, a complicare molto le cose. Ho scritto un articolo sulle principali differenze tra telecamere e fotocamere e continuo a sostenere che le telecamere non possono essere sostituite in toto dalle fotocamere, anche quando nascono quasi esplicitamente (a7s2, gh5s) per il video ignorando quasi completamente la parte di scatto, dato che portano dentro sensori di risoluzioni meno importanti rispetto alle sorelle. Nel cinema è comprensibile che si creino dei rig di lavoro più imponenti e importanti, ma quando giriamo un filmato più “normale”, una news, un filmato di repertorio, un video aziendale?

Siamo sicuri che la macchina fotografica sia meglio? sia più comoda?
uso anche fotocamere per fare video dal 2004 (mica le hanno inventate Nikon con la d90, e poi Canon con la 5d mkII le riprese con fotocamere, esistevano già in marchi meno blasonati e decenti come qualità), ne ho seguito le diverse evoluzioni, ma resto sempre perplesso perchè :

  • non sono più economiche di una telecamera, una volta messo giù un rig per tenerla in mano o meglio su spalla
    • una volta aggiunte le ottiche (che non saranno parafocali)
    • una volta aggiunto il recorder audio e il microfono, nessuna macchina fotografica ha un microfono decente e spesso non hanno neanche amplificatore e ingresso audio decente
    • una volta prese le batterie, che nascendo per gli scatti non sono così capienti e perfomanti con autofocus e altri automatismi in funzione continua
  • non registrano così bene (parlo di codec) come le telecamere, il colore è tranne le due gh5, gh5s sempre e solo a 8 bit, e nella maggior parte dei casi in 4:2:0, mentre nelle telecamere prosumer il 4:2:2 è di casa, se guardiamo sony il 10 bit è disponibile in molte situazioni, bmd sempre e comunque si parte da 10bit.
  • sono sbilanciate come peso, perchè raramente il rig è pensato per metterle a spalla, bilanciarle e tenerle ore in quella posizione
  • spesso non hanno autofocus in video, ma solo a inizio filmato, sono poche le fotocamere che hanno un buon autofocus in video (la 7dmkii ha il dual focus nato sulle TELECAMERE canon e migrato su alcune delle fotocamere
  • il comparto audio è penoso, spesso si deve usare non solo un microfono esterno, ma anche un recorder audio perchè l’amplificazione e la qualità di registrazione (rapporto segnale rumore) sono pessimi internamente alla camera

insomma ci sono un sacco di contro, che invece le telecamere non hanno, perchè.. nascono per fare video… con sciocchezze come:

  • ergonomia
  • focali ottimizzate per il sensore parafocali per mantenere il fuoco durante la ripresa
  • sistemi di automazione per gestire fuoco, esposizione, audio, etc etc un pro non sempre li usa, ma se ci sono possono essere molto comodi
  • batterie che si integrano col corpo e durano il giusto
  • mirini orientabili che si possono usare anche col sole, e non solo nel buio della notte
  • ingressi e uscite professionali
  • ingressi audio multipli per usare più canali separatamente
  • codec più robusti e professionali per la registrazione
  • accessori professionali per la gestione della camera a spalla o a cavalletto

poi nella vita ognuno sceglie di viverla a modo suo, scegliere il prodotto giusto per il lavoro giusto fa tanto la differenza.

 


La verità è là fuori

Ve li ricordate? La coppia di scettica e credente che hanno cambiato il modo di fare televisione e serie tv negli anni 90, X-File.

Mi sono ispirato a loro per questo post, perchè sono stufo della disinformazione che viene fatta dietro l’hardware quando si deve lavorare, da una parte la totale confusione che c’è su internet a proposito della potenza e delle soluzioni hardware per chi deve fare editing video, postproduzione, 3D, dall’altra gli assemblatori di computer che sono totalmente ignoranti, prendendo a paragone il mercato del gaming come fonte assoluta dei benchmark, quando in realtà chi lavora non può affidarsi a quelle informazioni.

Facciamo una premessa : i giochi e i software di editing/postproduzione/3d si basano su principi di gestione della memoria, dei core, delle GPU completamente diversi, per questa ragione una configurazione che per i giochi mostra un incremento notevole di potenza, magari per l’editing il discorso è ininfluente.
Tutto il mio articolo è fondato sulla ricerca delle performance lavorative, quindi se qualcuno vi fornisce informazioni discordanti chiedete quali sono le sue fonti e le ragioni operativo pratiche su cui si basano le sue conoscenze, se non utilizza almeno due o tre pacchetti di postproduzione e 3d non è attendibile.

Parliamo dei processori

Tanti anni fà il signor Gordon Moore, coofondatore della Intel, teorizzò con la prima legge di Moore che i processori avrebbero raddoppiato il numero dei loro transistor e di conseguenza la loro potenza ogni 2 anni.
Quello che non considerò furono tre fattori :

  1. c’è un limite alla dimensione del processore, un limite alla miniaturizzazione delle piste altrimenti ad aumento di potenza si rischia la elettromigrazione e quindi corto delle piste.
  2. c’è un notevole aumento di temperatura all’aumento della potenza del processore e va dissipata in modo efficiente per non avere oltre che consumi notevoli, problemi di stabilità (vedi i moderni cellulari octacore che sembra di avere uno scaldino sul viso).
  3. I programmatori sono diventati sistematicamente più pigri e inefficienti, se negli anni 90 i programmatori compilavano il software ottimizzato per il singolo processore e all’installazione si sceglieva la versione più adatta, oggi molti programmi non sono neanche ottimizzati per il multicore, multiprocessing sprecando fino al 80% delle risorse

Ad ognuno di questi fattori c’è rimedio, nel tempo sono cambiate le tecnologie e se si vuole…

  1. la stratificazione permette la creazione di processori multicore (a oggi 72), con ridotti rischi di elettromigrazione, ma alcuni produttori per evitare il rischio mettono dei “lucchetti” alle potenzialità del processore, ovvero la velocità non è costante ma oscillante a seconda della richiesta di sistema, il chè è bene per ottimizzare risorse, scaldare meno, consumare meno, ma nel momento in cui lavoro e lascio a renderizzare un computer per 60 ore (il 3d o la postproduzione anche giorni di rendering), quel processore rischia di toccare picchi di durata non prevista e passare dal semplice spegnimento al danno diretto del processore.
  2. oggi sia i dissipatori attivi di buona qualità che i dissipatori a liquido sono discretamente economici da permettere a chi lavora di dissipare tutto il calore che serve, peccato che il principio è come quello delle vecchie lampadine a incandescenza, si sprecava una quantità inusitata di energia in calore invece che in luce/calcolo
  3. qualche programmatore che ottimizza i software esiste ancora, mi vengono in mente per il 3d Zbrush, 3D coat, Clarisse, software che sembrano magici per quello che fanno, ma in realtà si tratta solo di buona programmazione.
parliamo delle schede video

Nel mercato di oggi si sta spingendo molto sulla scheda video e sull’utilizzo delle GPU per il calcolo, un discorso molto moderno e approccio innovativo, che iniziò circa 40anni fà con Steve Wozniac in Apple nel 1977 e con Commodore con Amiga nel 1985, in quel caso i programmatori lavoravano a basso livello, gestivano direttamente i chip delle schede video spremendo ogni bit disponibile, oggi i programmatori si appoggiano a librerie di sistema che utilizzano poi l’hardware, parliamo di Metal2 nel caso di Apple per chip (Nvidia, Intel, AMD), Cuda per Nvidia, OpenCL per AMD, Nvidia, Intel (standard open a più tipi di chip, ma purtroppo meno performante).

Questo vuol dire che a seconda delle scelte dei programmatori possono sfruttare meglio o peggio le risorse hardware del sistema, questo è il motivo per cui il programma di editing X arranca con il fullHD sulla stessa macchina dove il programma di editing Y gira fluido in 4k.

La scheda video oggi viene sfruttata per accelerare come minimo :

  • decodifica dei file h264, h265 (la maggioranza dei file video generati da smartphone, macchine fotografiche e telecamere di fascia medio – bassa, quindi se già la lettura del file e la sua decodifica impegna la scheda, questa ha meno risorse per i task successivi
  • accelerazione effetti video / audio in tempo reale
  • gestione di rappresentazione o calcolo 3D (esiste una intera categoria di motori di rendering di alto livello, alcuni nati dai giochi come U-Render o Octane Render che usano solo esclusivamente la GPU per il calcolo.
  • riduzione rumore video, da Neat video in poi…
  • gestione interfaccia video (sprechiamo risorse e memoria video della scheda visto che ne hanno già poca…)
  • Compressione in formati H264, H265 per output video.
parliamo delle CPU

Nel mercato di oggi dopo aver raggiunto una sorta di limite nella creazione di processori con Clock sempre più alti, si è passati alla creazione di wafer, strati multipli dove i diversi core si combinano tra di loro, per cui invece di avere un potentissimo motore, abbiamo la somma di tutti questi motori. La logica è inopinabile, più efficiente e potente, e in caso di danno parte del processore resta attiva e quindi funzionante, ma…

A oggi il tallone d’achille è lo sfruttamente di tali core, perchè di base il sistema operativo riceve le chiamate di calcolo dal programma, le smista ai diversi core del processore, restituisce i risultati, peccato che tale approccio sia differente e meno efficiente dell’accesso diretto dei programmi ai singoli core del processore, e quindi si perdono troppi cicli macchina in questi passaggi, inoltre se è il sistema a gestire l’assegnazione è possibile che semplici task come aprire un browser possa rubare troppe risorse ad un rendering, o ne vengano sprecate in vario modo.

Il risultato di questa gestione è che i programmi progressivamente perdono potenza, come se avessimo una macchina che ha le marce fino alla quinta, ma quando iniziamo ad accelerare ci sollevano le ruote dal terreno facendolo solo sfiorare.

Ora perchè tutto questo discorso?

Perchè contrariamente a quello che fanno credere tutti, non ci sono sempre salti proporzionali tra il valore economico di CPU e GPU e le risultanti di potenza nei programmi di editing, post, 3D, quindi si può sprecare investimenti su schede e cpu costose senza avere dei veri e propri salti prestazionali con i software.

Inoltre col fatto che spesso questi chip non sono usati al 100% dai software il rischio maggiore è quello di veder inutilizzati buona parte delle risorse.

Come verificare prima dell’acquisto cosa comprare?

Dopo anni di esperimenti ho verificato un paio di test affidabili oggi (agosto 2018), poi spero di essere smentito e vedere software da lavoro ultraottimizzati come i giochi che sfrutteranno meglio le differenze operative di CPU e GPU.

Parlo di benchmark affidabili perchè storicamente i produttori di schede video e driver hanno spesso barato per risultare ottimi nei benchmark in voga nel momento ma non nelle reali performance; è sempre stato complesso fare benchmark che offrissero indicazioni sull’uso reale, perchè i benchmark eseguono calcoli per sovraccaricare i diversi processori e strumenti dell’hardware, ma spesso gli sviluppatori di benchmark sono ottimisti, ovvero pensano che anche i programmatori dei software sfrutteranno come loro tutte le funzionalità, cosa che non accade quasi mai.

Per le GPU un buon benchmark è OctaneBench, ovvero una scena 3d calcolata esclusivamente con la GPU, tramite il motore di rendering Octane render, il risultato di benchmark e differenze tra una GPU e l’altra mi ha dato stesso riscontro utilizzando le differenti GPU su programmi come :

  • Adobe Premiere
  • Adobe After Effects
  • Davinci Resolve
  • NeatVideo denoiser
  • Avid
  • Fusion

La cosa imbarazzante sono i risultati, che potete leggere voi stessi, ovvero la differenza tra le Titan e una GTX 980ti oltre al quadruplo del prezzo è solo per la quantità di memoria a bordo, ma le performance… NO!!!
facciamo un riassunto veloce?

  1. GTX 1080ti euro 800 (di media) score 185
  2. Quadro P6000 euro 4.500 (ci sono da 6000) score 169
  3. Tesla P40 euro 7.000 score 166
  4. GTX 1080 euro 550 score 135
  5. GTX 980Ti euro 450 score 130 (posseggo la Asus Strix che fa 141 di score)
  6. Titan X euro 665 score 129
  7. Quadro P4000 euro 800 score 101
  8. Titan Black euro 1800 score 80
  9. Titan Z euro 2400 score 77

quindi contrariamente a quello che dicono la maggior parte delle persone, quando si passa al lato operativo lavorativo (NON STIAMO GIOCANDO nel vero senso del discorso) le schede considerate più performanti sono le più sfigate in un rapporto potenza prezzo, senza considerare che molti software (Resolve, Octane, Neatvideo, and more) sono capaci di sfruttare il multigpu, quindi scegliendo oculatamente la piastra del computer e le schede video, si possono ottenere performance che le superschede si possono solo che sognare mettendo 2 o più schede in parallelo. Esistono poi delle riflessioni parallele da fare in riferimento alla vecchiaia delle schede, perchè dopo qualche anno le schede non vengono più supportate nei software e quindi un investimento molto alto se non si ripaga velocemente si rischia di vederlo sparire nelle nuove versioni dei software.

Teniamo inoltre conto del fatto che pur essendo teoricamente pensate per il multiGPU le schede madri non sono pensate per usarle tutte… ovvero spesso non ci sono abbastanza lane per la distribuzione dei calcoli o banalmente pur essendo una E-Atx le schede sono troppo vicine e il problema sarà il calore generato perchè ogni scheda manda aria calda alle spalle della scheda davanti a lei e quindi il surriscaldamento sarà dietro l’angolo, e non si potrà applicare un raffreddamento a liquido perchè non c’è spazio per montare i radiatori sulle schede tra una scheda e l’altra.

Come verifico la potenza delle CPU?

per le CPU esistono ancora più benchmark e spesso inutili… perchè molti programmi non sfruttano il multicore o il multithreading, o non usano tutte le funzioni integrate, quindi una CPU dual core, ma con clock più alto offrirà all’atto finale un tempo di calcolo inferiore rispetto ad un octacore con un clock inferiore durante l’export di un file video.

Un buon benchmark per il processore è CineBench, usato anche da molte testate giornalistiche importanti per testare le performance dei computer, esso utilizza il core del motore di rendering 3d Maxon Cinema 4D, motore che testa sia l’openGl che la cpu, single core e multicore. Diventa semplice verificare tramite lo score quanto sia potente la CPU in uso singolo o combinato col Multithreading.

La cosa divertente è che usando un processore antico (Q3-2013) come un Intel i7 4930k ottengo uno score di 927. Guardando le prestazioni dei processori moderni… potrei avere qualche delusione… come potete vedere sotto la media dei processori di oggi offrono o le stesse performance o meno ancora… altrimenti si deve investire in modo consistente, e qui si vedono solo i prezzi dei processori.

  • Intel core i5 7640k euro 154, score 716
  • Intel core i7 4790k  euro 290, score 836
  • Intel core i7 7700k euro 300, score 960
  • Intel core i7 7740k euro 356, score 999
  • Intel core i7 8700k euro 326, score 1230
  • AMD 2700X euro 267, score 1964
  • Intel XEON W-2150B euro 750, score 2350
  • Intel core i9 7900x euro 850, score 2355
  • AMD 1920X euro 440, score 2428
  • Intel core i9 7940X euro 1,100, score 2929
  • AMD 1950X euro 790, score 3334
  • Intel core i9 7980XE euro 2,100, score 3920


Risparmiare in modo intelligente

Sono di origini Genovesi e il concetto di risparmio fa parte della mia natura, ma per essere precisi, il genovese è parsimonioso, ovvero non è tirchio, non spreca, ma quando serve spende tanto.
Mio padre mi ha insegnato che si deve spendere nel modo giusto, quando serve si deve prendere il meglio, perchè un buon prodotto durerà tanto e avrà senso aver “investito” i propri soldi.

Nell’ambito del filmaking vedo spesso una serie di errori banali e ridicoli, ma che molti non si rendono conto di fare danni sul loro stesso lavoro. Ho deciso di stilare una lista delle cose su cui non si può lesinare, perchè danneggiano tutta la catena della qualità.

lenti

Spesso sento parlare di persone che vogliono associare a buone camere delle lenti di bassa qualità, o cercare nel vintage quasi a caso. La lente è il media attraverso il quale la luce passa e arriverà al sensore, se non è di qualità, tutta la vostra produzione sarà influenzata in modo pesante e definitiva.
Esistono linee di ottiche solo meccaniche, senza elettronica che offrono un buon rapporto qualità prezzo.
Oppure esiste la possibilità di noleggiare quando servono le ottiche di qualità.

Se si vuole risparmiare un poco ci sono molte lenti vintage ottime come qualità, ma essendo manuali sono spesso deprecate.
Attenzione che una vecchia lente, ho scritto più articoli, può avere dei difetti, muffe, polvere e altri problemi, di solito non hanno coating di protezione dai riflessi laterali, per cui la scelta di utilizzare lenti vintage può comportare alcune problematiche operative. La lente è un elemento importante e se si sceglie correttamente il mount è un ottimo investimento, personalmente preferisco investire su una buona lente che su una macchina, perchè una buona lente senza incidenti può durare decine di anni.

filtri

quando si “massaggia la luce” prima di farla entrare nella lente è importante che il filtro che fa passare la luce sia di qualità, sono molti i filtri di basso livello che alterano i colori, riducono la nitidezza dell’immagine, comportano inquinamenti cromatici o difetti varii dalla Ir pollution ad altre situazioni.

Se si vuole risparmiare sui filtri la soluzione migliore è cercare il filtro per diametro, un diametro maggiore di quello delle diverse lenti, e poi un anello adattatore per adattarlo alle diverse lenti, così l’investimento può andare sul lungo termine anche cambiando le lenti, e si potranno riutilizzare nel tempo.

registrazione in alto bitrate

Molto spesso sono tanti quelli che non capiscono perchè registrare a bitrate più alto o a profondità colore maggiore, finchè non devono intervenire sui filmati… più dati registrati maggior qualità disponibile, minor quantità di dati uguale filmati più morbidi, maggior quantità di blocking e difetti varii, in caso di danni ai file maggior quantità di dati persi nella compressione gop, etc etc
Con il basso costo dei supporti di buona qualità e di ampio spazio è sciocco risparmiare quando con poca spesa possiamo avere mille chance in più di editing e operatività. Meglio poter catturare al massimo della qualità e poi scendere che dover fare i salti mortali.

batterie

Le batterie di qualità costano, ma è anche vero che sono gli elementi che danno energia alla vostra camera, ci sono più livelli di qualità, ma la domanda che ci si deve fare è : volete rischiare una camera da 2-3000 o più euro per risparmiare 30-40 euro in una batteria?
Volete rischiare una ripresa fondamentale, un cliente, per aver risparmiato molto su una batteria?

Vogliamo risparmiare seriamente?
comprate batterie ricaricabili, non usate batterie usa e getta.
Ho fatto un post relativo alle ricaricabili, a come si possa accumulare più energia delle usa e getta, maggior controllo, costo inferiore sul lungo termine, inquinamento infinitamente più basso.

supporti su cui registrare

Una delle cose più imbarazzanti è vedere i fault dei supporti di registrazione dati. Troppe persone trattano con superficialità i supporti di registrazione, danno per scontate alte prestazioni ma devono costare poco, e dopo si lamentano di errori, interruzioni di registrazione, etc etc.
I forum sono pieni di gente che si lamenta per aver comprato memorie di basso costo e pretendere che diano prestazioni come quelle che costano 10 volte tanto, o semplicemente si lamentano senza indagare sulle differenze tra una e l’altra.

Un buon supporto di memoria è stabile e durevole nel tempo, i soldi spesi si ripagano in mille occasioni.

Le memorie a basso costo hanno sempre le una o più delle seguenti problematiche :

  • sono instabili con le temperature, e molte camere generano calore, quindi durante la memoria durante la registrazione si può smontare, dare errori o corrompere i dti già presenti
  • meccanicamente meno robuste e più facilmente sensibili a danni da elettricità statica
  • velocità basse e quelle indicate sono solo picchi, spesso solo di lettura, mentre ad un filmaker interessano le velocità costanti di scrittura.
  • Spesso col riempirsi della memoria la velocità scende fino ad un terzo di quella di partenza
  • buffer piccoli di memoria per cui registrazioni brevi di pochi secondi non danno problemi, mentre con registrazioni prolungate ci si può trovare con stop non previsti.
  • spesso sono taroccate… cosa che tanti non sanno, ma il business delle memorie false create usando celle di qualità inferiore e poi vendute come originali è immenso, e la perdita delle vostre foto e video è dietro l’angolo.
sistemi di lettura dei supporti di qualità

comprare un buon lettore di cf, SD, ssd, supporti in generale è un investimento non troppo intenso, ma durevole nel tempo. non vi darò una ragione per farlo, vi farò una serie di domande a cui dovrete darvi una risposta da soli:

  • in un mondo dove tutto corre sempre di più, dove le copie devono ( ma poi chi lo dice) essere sempre più veloci, volete usare chipset di gestione dati economici che potrebbero non controllare i dati e perderne durante la copia?
    succede più di quanto immaginiate
  • volete rischiare di danneggiare un vostro supporto dati con preziosi dati foto e video con un lettore economico?
  • volete perdere tempo durante la copia usando lettori di basso livello o che non utilizzano i moderni sistemi di trasmissione dati come usb 3, 3.1, thunderbolt?
mancato backup

uno dei più grandi errori nel risparmio è non fare più di un backup del girato, conosco troppe persone che hanno perso dati, lavori, clienti per aver lesinato su un disco in più per il backup.

Oggi con un centinaio di euro è possibile acquistare un disco esterno da 4 tera, con un paio di centinaia di euro un disco interno da 8 tera da archiviazione (più lento ma con maggiori garanzia di durata nel tempo). Mai soldi furono ben spesi per proteggere le copie del vostro girato, non apprezzerete abbastanza questa spesa finchè non accadrà un imprevisto. Per convincervi ho scritto un articolo relativo al backup.

cavalletto poco robusto

Trovo imbarazzante vedere gente che si lamenta delle prestazioni di un cavalletto dal prezzo di 50-80 euro o peggio, quando poi affidano a quel fragile oggetto camere del valore di 1000-2000 euro.

Un buon cavalletto se ben tenuto e conservato dura una vita, meglio investire almeno dai 200 euro a salire in proporzione con la camera che si posizionerà sopra, sia per una questione pratica per poter gestire il peso e il valore della camera posizionata sopra e che sarà l’unico elemento che reggerà e proteggerà il vostro investimento. Un buon cavalletto eventualmente si può trovare nel campo dell’usato, magari diventato pesante per il proprietario che l’ha sostituito con uno più leggero in fibra di carbonio, ma sempre in buone condizioni.


Page 1 of 21

Powered by WordPress & Theme by Anders Norén

Translate »