Carlo Macchiavello

Tutto è possibile

Month: settembre 2015

Miracoli digitali

Quando si riprende con una telecamera normale (amatoriale), una dslr o un altro mezzo low cost il filmato viene catturato con una qualità discreta, pensato per essere visto ed editato così com’è, quindi per ottimizzare la qualità e lo spazio occupato in memoria viene eseguito un subsampling del colore, per dover registrare meno informazioni colore.

850px-Chroma_subsampling_ratios.svg

 

 

 

 

 

quindi un classico video ha un colore registrato con un campionamento 4:2:0, questo vuol dire che una volta decodificato in RGB il canale del rosso avrà molte meno informazioni rispetto agli altri colori; in una situazione normale non causerà particolari problemi e la maggior parte delle persone non vedrà il problema, ma …

durante la postproduzione, saturando i colori, viene fuori il problema causando un aumento del problema del blocking, ovvero la visualizzazione dei blocchi di compressione del codec, come potete vedere nell’immagine sottostante.

why red is a bad color for filmakerCi sono colori basati sul canale del rosso che possono dare problemi evidenti, come vedete nell’immagine, rovinando una ripresa.
Alle volte, e sottolineo alle volte, è possibile salvare queste immagini convertendole nel modo più appropriato, usando utility che fanno un upsampling del canale del rosso, in modo da ridurre quegli effetti di blocking.

Esistono diversi strumenti che agiscono su questi canali per ridurre i difetti, a secondo degli strumenti che usate potete far affidamento su diverse soluzioni :

  • Dentro la RedGiant Shooter Suite lo strumento Deartifacter
  • L’utility stand alone di conversione 5D2RGB che converte in Prores 4:2:2 i file 4:2:0
  • Il vecchio programma HD LINK della suite Cineform Pro e Premium (non più disponibile grazie a GoPro che ha eliminato la suite).

personalmente consiglio la suite RedGiant perchè si hanno più elementi di controllo, oltre che tanti strumenti utili per ogni filmaker.

L’importanza del backup

In un mondo in cui si usano tante parole a sproposito, e in particolare la parola Cloud, mai come prima fare il backup dei propri dati è fondamentale.

Se accade qualcosa al vostro computer, al vostro smartphone, alle vostre card della fotocamera, della telecamera… voi perdereste tutto … i vostri dati, i vostri ricordi, il vostro lavoro…

So cosa pensa la maggior parte delle persone: “Tanto non accadrà a me, i dati sono al sicuro sul mio hard disk, ho una copia nel cloud…” etc etc…

Bene… vi rivelo qualcosa di inquietante… nessuno di questi sistemi di archiviazione è sicuro, nessuno vi garantisce la salvezza dei vostri dati e soprattutto quando attivate uno di questi servizi, quando comprate un hard disk o una card, l’unica garanzia che vi viene data è che nel caso di alcune card, in caso di difetto o perdita dei dati, vi restituiscono solo una card nuova…

Se siete sul mio sito vuol dire che abbiamo qualcosa in comune, ad esempio fate animazione 3d, video, immagini, fotografia, e quindi perdere i vostri dati può essere un problema non da poco…

Molti di voi hanno un sistema di backup e si sentono al sicuro…

bene fate un paio di ricerche sulla perdita dei progetti di ToyStory 2, e poi tornate qui… potreste scoprire che nessuno è al sicuro visto che una azienda incredibile come la Pixar ha rischiato di perdere i progetti di Toystory 2 per un banale problema di filesystem, e loro hanno centinaia di server e tecnici che di mestiere si occupano della manipolazione e gestione dei backup… ora…

Ho un raid, sono al sicuro…

mi è capitato di sentire spesso queste parole, anche io ne ero convinto, peccato che fu proprio il raid a tradirmi 10 anni fà, quando dei dischi identici (perchè i supertecnici consigliano di prendere dischi identici per i raid, meglio ancora che siano con seriali consecutivi, così funzionano meglio) mi abbandonarono contemporaneamente, per cui il mio raid in mirror mi fece ciao ciao… tra le mie lacrime …

Allora mi affidai ad un raid più ampio, con 4 dischi a ridondanza, garantito dai super esperti, peccato che stavolta il danno fu causato da un difetto firmware su dischi nuovi, un intero bancale da centinaia con lo stesso difetto, riconosciutomi dalla casa madre, ma tanto i miei dati erano morti, che fece si che nel giro di pochi minuti, la testina iniziò a sbattere contro i dischi, e in poco tempo il danno si era esteso oltre la recuperabilità del raid a ridondanza. altre lacrime versate, circa 6 anni fà…

Una soluzione ?

nessuno può avere la soluzione definitiva, posso solo dire cosa uso come soluzione per il backup dei miei dati, tre copie dei dati : una locale sul computer, due su hard disk esterni, aggiornati in giorni alternati.

ogni blocco di dischi è di marche diverse, di produttori diversi (alcune marche sono prodotte dagli stessi produttori, con gli stessi chipset e hardware), per evitare errori di chipset e firmware.

cosa uso per tenere aggiornati i backup?

sotto windows e sotto mac esistono diversi pacchetti per controllare la sincronia dei dati, per evitare gli aggiornamenti a mano, perchè non è possibile ricordare ogni singolo file aggiornato di volta in volta.

sotto mac uso una app chiamata Syncron, sotto windows uso il programma AllWaysinch.

Entrambe hanno sistemi di automazione per sincronizzare più cartelle sia locali che in rete o cloud.

USB 3.0 … dipende diciamo 2.5 vah…

EU-4306_USB3

 

USB 3.0 una evoluzione dello standard per aumentare la velocità di trasferimento dati di xx volte.

Tutti più felici che per copiare i dati, mettere al sicuro i nostri dati, le fotografie, i filmati, i tempi si riducono in modo notevole.

Il mercato è pieno di periferiche di archiviazione usb 3.0, portatili e fissi hanno praticamente quasi solo porte usb 3.0, un paradiso… quasi …

La teoria dice che lo standard 3.0 ci porta dai 60 mb/s al 640 mb/s quindi parliamo di oltre dieci volte più veloce nel trasferire i dati tra un dispositivo all’altro.

La teoria, ma la pratica?

La teoria è questa, mentre la realtà è ben differente, perchè le vere performance sono di gran lunga superiore all’usb 2.0 ma ci sono spesso colli di bottiglia che non vengono considerati.

  • la velocità del chipset della scheda usb 3.0 del computer
  • la velocità del chipset del controller del supporto dati
  • la velocità del supporto da cui si copiano i dati
  • la velocità del supporto su cui si copiano i dati
  • se il supporto sorgente e origine condividono lo stesso controller il chipset riesce a distribuire il flusso dati in modo uniforme.

Facciamo un esempio pratico : compro il disco esterno USB 3.0 di marca nota XX (considerata la velocità con cui cambiano i modelli e i dispositivi, non ha senso indicare marca e modello, visto che lo stesso modello acquistato più volte conteneva dischi diversi e di velocità differenti), provo a copiare dei dati e lo trovo decisamente lento…
Provo a cambiare la porta del computer, niente; provo a cambiare computer, niente; provo a cambiare la sorgente dei dati, niente… sono un testardo, apro il box del disco (annullando la garanzia, ma pazienza), scopro che il disco contenuto è un 3900 rpm, ovvero un disco robusto, a bassa velocità di rotazione, che per un disco da 2.5 portatile è ottimo perchè si riducono le possibilità di danni in caso di urto e cadute in fase di rotazione, ma che riduce le performance effettive durante la copia.

ora nella maggior parte dei casi, i dischi meccanici singoli non hanno la capacità di saturare la banda del sata o dell’USB 3.0, ma se uso dei raid dove la somma delle performance dei dischi si somma, potrei anche arrivare a raggiungerla. Nella media delle persone, nessuno ha il problema di questo tipo, nè soprattutto si accorge delle differenze.

Chi invece deve maneggiare tanti dati professionalmente (backup dati, backup filmati etc) deve tener conto di diversi fattori tecnici, non solo relativi ma combinati tra di loro, perchè un disco veloce con poca cache può essere superato da un disco poco più lento, ma con maggior cache; la differenza di taglia del disco influisce sulle performance, perchè se i dischi sono più densi a parità di giri offrono un output dati maggiore quindi possono offrire maggior velocità al salire con la taglia.

Le incompatibilità che non esistevano sull’USB 2.0

In un mercato dove tutti fanno a gara ad offrire il prodotto usb 3.0 al prezzo più basso sembra di essere in paradiso, ma…
Non tutti sanno che ci sono incompatibilità più o meno forti tra i diversi chipset dei controller delle schede madri e quelli dei box/nas/dischi esterni.

Dopo aver avuto una serie di problemi con diverse schede madri, che sganciavano diversi dischi, ho fatto un po’ di ricerche e ho scoperto che i diversi produttori di chipset fanno a scaricabarile tra di loro per le responsabilità degli sganci dei supporti e/o problemi di comunicazione tra di loro. Esistono centinaiai di thread nei forum informatici che mettono in evidenza che gli accoppiamenti più a rischio sono quando si collegano i chipset :

– JMICRON JMS539 + NEC/RENESAS D720200
– JMICRON JMS551 + NEC/RENESAS D720200
– JMICRON JMS539 + ETRON EJ168A
– JMICRON JMS551 + ETRON EJ168A

quando si combinano questi chipset il rischio, o la certezza, visto che il comportamento che ne consegue è lineare, è che il dispositivo collegato avrà rallentamenti, sganci ogni 10-15 minuti del dispositivo.

Il palliativo sta nel mantenere aggiornati i driver di entrambi i chipset, disabilitare ogni tipo di risparmio energetico sui dischi e sul sistema relativo ai chipset. Ci sono aggiornamenti firmware sui siti relativi ai produttori di chipset, dove si può sperare di ridurre i problemi.

Perchè è importante sapere quale chipset stiamo usando?

perchè a seconda dei prodotti possiamo avere più chipset sulla stessa macchina, ad esempio la piastra gigabyte che usavo prima aveva due chipset diversi, e con una scheda esterna ho introdotto un terzo chipset non incriminato. L’attuale piastra Asus ha tre chipset diversi usb 3.0 e quindi devo stare attento a quale porta USB 3.0 uso per gli hard disk esterni, su due ho i chipset incriminati, per cui se collego il disco WD mini che non ha il controller problematico, tutto ok, ma se collego i nas (ne ho tre, due da 4 dischi e uno da 8 dischi) devo usare il terzo gruppo di porte USB 3.0, che però sono porte esterne, quindi ho acquistato una basetta esterna per portarle dietro a portata di connettori, altrimenti mi si sconnettono ogni 15 minuti i dischi contenuti nei nas.

Quindi si può concludere che…

lo standard Usb 3.0 ci permette di copiare i dati FINO a 640 mb/s a patto che si copino i dati da un disco collegato su un chipset DIVERSO da quello di ricezione.

Cosa posso fare per ottimizzare il trasferimento dati?

  • usare dischi connessi su chipset e standard differenti, ad esempio dischi interni su sata verso o da dischi Usb 3.0 veloci.
  • usare dischi esterni usb 3.0 su due chipset differenti per evitare che il chipset lavorando sia in ingresso che uscita dati non abbia qualche tipo di rallentamento
  • disabilitare ogni tipo di risparmio energetico su dischi interni ed esterni
  • disabilitare il controllo antivirus sui dati in arrivo dal disco X (solo per dati sicuri)
  • usare software ottimizzati per la copia dati e che usino il parity check per avere la certezza della copia dei dati.

Powered by WordPress & Theme by Anders Norén