Carlo Macchiavello

Tutto è possibile

Month: febbraio 2018

Il digitale ha complicato tutto, una volta era più facile

Sorrido quando sento queste parole, da persone che hanno o la metà dei miei anni (e non sanno di cosa parlano), o sono miei coetanei o poco più (ma probabilmente si sono giocati i neuroni avendo dimenticato la realtà di 10-20-30 anni fà, per essere ottimista e non voler pensare che fossero troppo faciloni e superficiali nel loro lavoro).

Oggi troppe persone usano queste parole quando si parla del digitale, perchè sono pigri e non vogliono fare delle normali procedure che si sono sempre fatte, ma che non ne sono a conoscenza o non se le ricordano…

Facciamo il bianco, che noia

Tanti operatori sono così pigri da non farlo o lasciarlo in automatico sbilanciando tutta l’immagine, o spesso rovinando la gamma dinamica della camera catturando nel modo sbagliato l’immagine con la scusa che

  • non c’è tempo per farlo – ci vogliono tra 5 e i 7 secondi
  • non ho niente di bianco – basta un qualunque oggetto bianco, dal fazzoletto ad un oggetto grigio, oppure ci sono i tappi bianchi per ogni tipo di lente per farlo al volo.
  • tanto si corregge in post – ma tutta la gamma dei colori viene alterata se non corretta in più punti, quindi tanto lavoro in più per la pigrizia di non fare una operazione di 5-7 secondi in camera.
  • una volta non si faceva – questa è la cosa più errata, si è sempre fatto il bianco, con ogni tipo di camera, quindi quando sento dire questo capisco che erano i responsabili di quelle immagini orribili che arrivavano in montaggio e si doveva fare i salti mortali con i sistemi analogici per correggere un poco le dominanti.
  • con la pellicola non si fa – altra balla degli ignoranti, la pellicola è sempre stata tarata per una determinata temperatura colore, poi nel caso si doveva usare uno stock di pellicola con una luce artificiale di temperatura diversa o altro, allora ci sono sempre stati (i primi sono degli anni 30) i filtri di correzione da luce artificiale a diurna e viceversa
Adesso con le telecamere devo controllare tutto e la checklist di quello che devo fare è lunghissima

Questa è la frase più imbarazzante che mi capita di sentire, perchè vuol dire che o non hanno mai lavorato nel broadcast o nel cinema, oppure erano dei dilettanti…

nel 1995, quindi più di vent’anni fà, se si usava una telecamera broadcast come minimo si doveva settare e gestire :

  • bianco
  • fare le barre
  • pistare il nastro
  • controllare piede e ginocchio dei setup della camera
  • che tutti i cablaggi fossero a posto
  • che gli audio andassero tutti sui canali corretti (altrimenti c’erano gli operatori che già dicevano, ma tanto basta spostare sul patchpanel le connessioni… peccato che in un ambito broadcast fosse una eresia risolvere un errore dell’operatore con un cambio setup del patchpanel dell’audio della sala di montaggio).
  • che l’ottica montata fosse ben salda, e che fosse funzionante (gli zoom engine ogni tanto ti lasciavano a piedi).
  • esporre correttamente entro le regole per l’emissione, altrimenti il nastro veniva rifiutato prima ancora di arrivare in sala edit
  • regolare l’audio entro i livelli corretti altrimenti nuovo rifiuto prima di arrivare in sala edit.
Ma il cinema era più facile no?

Partiamo dal fatto che tranne la cinepresa s8 (a cui tutti questi lamentoni fanno riferimento, perchè se avessero mai messo un piede su un set, saprebbero quanto lavoro c’era dietro) una vera cinepresa comporta lavoro, attenzione, diverse persone che stanno dietro alle diverse procedure, una checklist ben precisa.

  • Prima di ogni caricamento si controlla la meccanica, perchè se si inceppa durante una scena oltre al tempo si perde la scena
  • Prima del caricamento si controlla che la pellicola sia quella giusta, dello stock giusto, con la sensibilità giusta (altrimenti serve il filtro di conversione), della durata giusta, perchè sulle bobine la durata della bobina è x metri e si deve avere la certezza di averne abbastanza per la durata della scena, non si può certo buttare mezza bobina (perchè sono costi) o accumulare bobine mezze impressionate e aspettare le scene giuste, perchè da quando viene esposta non si può lasciare passare troppo tempo perchè il processo chimico altera la struttura, la gamma e tanti altri fattori.
  • Prima di montare si controlla i gate che sia pulito, altrimenti la polvere e la spazzatura salterà per sempre sulla pellicola, magari rovinando per sempre il girato.
  • Prima di montare si controlla sia il caricatore vuoto che tutto il percorso, un qualunque elemento estraneo potrebbe rigare la pellicola per sempre
  • Si carica alla cieca, tramite un sacco la pellicola nel caricatore e la si fa passare sui vari rocchetti della camera, se questa fase viene sbagliata, ci possono essere blocchi o danni alla pellicola o alla camera.
  • Montata la pellicola si controlla lo scorrimento con un breve test, per non rischiare la cosiddetta “insalata” ovvero la bobina salta dai rocchetti e si ammucchia a mo’ di insalata nel caricatore.
  • Montata l’ottica si controlla fluidità e movimento della messa a fuoco, che avverrà tramite un fuochista che NON vede l’immagine, ma sa quali sono le distanze a cui mettere a fuoco e alla cieca gestirà i fuochi (oggi col digitale ci sono i misuratori laser che aiutano, il monitor per il fuochista, più semplice).
  • Si controlla che il viewfinder sia ben saldo e l’oculare ben coprente, perchè durante la ripresa l’operatore potrà vedere attraverso un prisma le immagini, ma se si allontana dal viewfinder entra luce che velerà la pellicola durante la ripresa.
  • Si controlla la pulizia dell’ottica, che non ci siano elementi di sporcizia sopra
  • Una volta esposta, sempre con il famoso sacco nero si toglie la pellicola, si sigilla la pizza e la si manda al laboratorio, dove si spesa che non facciano errori o non graffino la pellicola.

Proprio uguale a oggi col digitale, dove la lista meccanica è simile, ma i controlli sono molto molto meno

  • facciamo il bianco (un click e tutto è a posto, se giro in raw posso anche dimenticarlo, anche se non è una buona abitudine)
  • controlliamo i livelli di esposizione (attivo i falsi colori e vedo tutta l’esposizione del set senza vagare con l’esposimetro, senza dover far spostare quasi a tentativi luci etc nella scena).
  • il sensore è esposto e quindi posso pulirlo a ogni cambio ottica, il gate non è la stessa cosa. Se ho sporcizia sul sensore posso notarlo facendo un semplice check con un foglio bianco illuminato dal cellulare.
  • controllo i supporti di registrazione (sono dentro, vedo la durata, mi avverte quando stanno finendo, posso avere backup di sicurezza in altro formato, posso avere doppie schede che finita una passa all’altra senza problemi di continuità, etc etc)
  • gestisco il fuoco con tanti strumenti che mi dicono  e mi fanno vedere su mirini ultranitidi o su monitor dove il fuoco si sposta con linee colorate o peaking di vario tipo.
  • verifico il girato al momento, non devo aspettare la sera per vedere che abbiamo sbagliato qualcosa
  • la copia dei materiali è identica quindi sul set posso generare x copie degli originali per proteggerli al volo, mentre con la pellicola non è possibile.

Insomma senza dover entrare in meriti ultra complessi con check del flusso di lavoro post ripresa, la parte di ripresa, le attenzioni da mettere si sono ridotte non aumentate, è la percezione delle persone che sono pigre e non voglio fare il loro lavoro pensando che tanto ci sarà chi risolverà in post e quindi posso evitare di mettere attenzione nel loro lavoro, ma non è così, e poi si lamentano che i loro prodotti non hanno la qualità per cui hanno pagato…

Quelli che invece dicono che non erano così complicate le telecamere una volta, erano quelli che consegnavano spazzatura, che non pulivano la lente, che avevano i salti di timecode sui nastri, che consegnavano card p2 con problemi o con mille girati e ti facevano perder tempo a scaricare di tutto, che avevano gli audio sui canali sbagliati o con i livelli troppo alti o troppo bassi, o che fornivano materiali per tv che non avevano un controllo qualità molto stretto.

La vera differenza tra il professionista vero e il dilettante è che il professionista riconosce le procedure, il workflow da seguire e lo segue perchè sa che fa la differenza, anche con una semplice gopro, se si lavora nel modo corretto si può estrapolare da un mp4 a 8bit 4:2:0 una buona immagine, ma si deve lavorare in log, esporla correttamente, bloccare iso, shutter etc per poter avere la CORRETTA gestione della qualità. Se la si lascia in automatico è ovvio che i parametri saranno medi, il risultato sarà medio…

Che bella cosa la compatibilità, gli aggiornamenti frequenti, di tutto…

Per chi viene dal passato dell’informatica come me, dove tutto aveva tempi biblici (per i concetti di oggi), c’è una sorta di rammarico e nostalgia ai tempi in cui per avere un aggiornamento di un programma o di un sistema passavano anni, quando i prodotti erano su supporti fisici, quando l’hardware era scarso, più limitato, dove c’erano si dei problemi, ma…

Prima di uscire una versione nuova di un sistema era testato, veramente, da persone pagate per quello, non come oggi che paghiamo per fare noi da tester, tanto poi esce la patch tra qualche giorno… e intanto diventiamo matti per chiudere i lavori perchè:

  • il sistema corrompe i dati sui dischi (un noto Os con noto marchio di dischi esterni).
  • il sistema nuovo decide che i task vanno eseguiti in stack, faccio la copia di dieci cartelle pesanti (tera) e anche se ha eseguito la metà del task, se entro nelle cartelle e modifico, aggiungo o tolgo, non vedo nulla perchè non essendo completato il task generale non fa refresh della cartella, vorrei conoscere lo sviluppatore che ha cambiato il codice (nel precedente os non era così) è un genio… del male…
  • Il sistema nuovo ha deciso che nonostante abbia bloccato da registro e da pannello di controllo gli aggiornamenti, il driver della scheda video è vecchio di 4 mesi e deve essere aggiornato, peccato che ci siano diversi bug nei driver che mi installa in automatico causandomi crash dei programmi
  • il sistema nuovo ha deciso che il driver del touchpad del portatile è vecchio e va installato quello nuovo, che non essendo compatibile con l’hardware mi costringe a usare sempre il mouse (oppure sdradico a forza il sistema e torno indietro, nonostante vogliano impedirmelo modificando il bios per renderlo incompatibile con il precedente).
  • Il sistema nuovo ha deciso che deve applicare il risparmio energetico sempre, se io apro due finestre, quella sopra è più task, quindi se metto il browser con facebook sopra un programma di rendering 3d che sta lavorando e i programmatori non hanno previsto questa logica del sistema, il programma mentre sta renderizzando perde quasi tutte le risorse di calcolo…
  • il sistema nuovo chissà come mai spesso corrompe l’utente e i dati relativi, quindi se non fossi un paranoico che salvo tutto esternamente alla struttura utente, rischierei di perdere i dati spesso e volentieri (da win 8 in poi… grazie microsoft). Ho perso il conto delle volte che è successo a me, e di quante persone gli ho recuperato i dati utente dal computer, che se va bene crea un nuovo utente, ma spesso lascia nascoste le cartelle del vecchio utente corrotto. Oggi con win10 invece avviene una procedura più drammatica, farà un ripristino alla versione precedente o altre procedure che renderanno molto più difficile recuperare l’utente perso…
    tutto causalmente per giustificare il fatto che è meglio spostare in cloud i dati così non li perdi… io rispondo dicendo così non mi li corrompete (con x metodi), non me li nascondete o cancellate (se realizzati con programma poco usato su win10 o poco aperti quindi per loro spazzatura), se non me li eliminate perchè avete perso parte della struttura database utente durante uno degli aggiornamenti inutili del sistema…
  • il sistema nuovo ha deciso di scaricare un aggiornamento, lo installa, poi si riavvia per disinstallarlo perchè non compatibile con hardware presente… fare una verifica prima no? meglio sprecare banda utente, banda server, tempo utente, che magari sta lavorando, per qualcosa che alla fine non serve…. questa non si chiama pessima programmazione, si chiama peracottaggine e quelle persone dovrebbero pagare multe per il tempo e le risorse sprecate, sia utente che microsoft.

Prima di far uscire una nuova versione di un programma si verificava che gli aggiornamenti non avessero introdotto bachi notevoli o che si fossero bloccate alcune funzionalità come accade oggi tipo :

  • L’ultima release di una suite famosa che nella comunicazione tra due programmi della suite il 50% delle funzionalità di scambio manda in crash il programma, e finchè non si riavvia il sistema, sia sotto windows che sotto mac, non si è più in grado di avviare il programma… da ex programmatore direi che qualcuno ha usato i puntatori in modo errato, ma direi anche che nessuno ha provato a usarli, visto che la funzione di scambio è un banale copia e incolla… e a mesi dal rilascio, e dalla mia segnalazione, continuano a non rilasciare patch…
  • la nuova versione di un programma che ha introdotto l’accelerazione GPU nei filtri pittorici, ma se non avete la scheda grafica giusta, i filtri stessi si disabilitano e se non potete cambiare al scheda grafica al vostro computer, dagli all in one ai portatili, avete perso quelle funzioni…
  • La versione nuova dei programmi che cambia il formato di salvataggio del progetto, e raramente si può esportare per la versione precedente così viene impedito di collaborare con chi ha versioni precedenti del programma, o se c’è qualche bug nella versione nuova, si deve ripartire da zero con quello precedente.
  • Nella nuova versione del programma non avete più la gestione multicore perchè l’azienda ritiene che non sia più importante… oggi che avendo raggiunto il limite della maggioranza delle progettazioni dei processori si viaggia sui multicore per ovviare ai limiti e ai rischi di elettromigrazione…
  • Vi viene proposto un aggiornamento, che se non leggete le descrizioni potrebbe togliervi il supporto ad un codec audio perchè hanno deciso che non vogliono più pagare la licenza a Dolby, e quindi vi dovete arrangiare..

L’hardware era più limitato, c’erano già problemi di compatibilità tanto che Windows 95 fu soprannominato Plug&Prey Os, ma non così drammatiche come oggi… i chipset stanno andando indietro invece che avanti…

  • schede madri con 4 slot pci express a piena velocità se si usa un solo slot, ma appena se ne occupano di più si dimezzano o peggio
  • porte thunderbolt che vanno in coppia, se ne uso una per un monitor, quella a fianco non è più una porta dati
  • chipset usb 3.0 che non sono compatibili con se stessi nella controparte di manager delle periferiche esterne causando sganci o peggio.
  • I sistemi operativi supportano da WinXp64 (2001) e Panther (2003) ben 1 tera di memoria, ma praticamente nessuna piastra madre possiede più di 8 slot di memoria, e i chipset non sono in grado di indirizzare più di 256 gb di ram, oggi dopo quasi vent’anni dalla possibilità di gestirne ben 4 volte tanto. Se va bene ne gestite 64 con le motherboard più spinte.
  • Si progettano sistemi multi GPU vista la spinta verso quel tipo di hardware sia nei giochi che nel professionale, ma nessun produttore di GPU considera il dettaglio, per cui poi ne potete mettere poche in un computer per problemi di raffreddamento, oppure più banalmente perchè sono talmente grandi i dissipatori che coprono i connettori vicini…
  • I dischi SSD e M2 sono sempre più veloci, offrono potenzialmente velocità quasi paragonabili alla ram, ma ci sono così tanti colli di bottiglia che sfruttare questi supporti è complesso e spesso non fino all’ultimo.
  • Le cpu negli ultimi 20 anni hanno rallentato notevolmente la loro accelerazione reale nel calcolo, perchè essendo sempre meno ottimizzati i codici per i processori, la potenza di calcolo non è realmente sfruttata. Usando test reali, con calcoli 3d su software da produzione, posso dire che prendendo una CPU tot di gamma di 10 anni fà, oggi spendendo la stessa cifra c’è circa 50% in più di velocità, peccato che dovendo spendere anche su memoria e motherboard il risultato migliore si ottiene spendendo la stessa cifra in una soluzione meno top di gamma, ma in quantità maggiore come cpu… se i programmi sfruttano i multicore e le multicpu che per fortuna i programmi di 3d fanno.
    Qualche numero più terra terra? un i7 4950k del 2012 (setup minimo 1000 euro solo processore e motherboard) da uno score di 962 punti, spendendo la stessa cifra oggi in un i7 + motherboard si ha uno score di 995 punti, dopo 6 anni…. per ottenere un risultato soddisfacente si deve andare su i9 top di gamma, per ottenere 2100 punti, ma l’investimento minimo sale a 2500 euro… quindi il rapporto aumento punti nasce dall’aumento del valore economico, non da una crescita reale della potenza dei prodotti nella stessa fascia di prezzo.

Ora tutto questo unito ad una pratica commerciale molto sleale, ovvero la non ottimizzazione di sistemi, hardware etc in modo che “ufficiosamente” si crei la obsolescenza programmata… spero che si concretizzi come in Francia che è stata fatta una legge per vietare e punire questa Politica di Marketing per forzare gli utenti a cambiare e spesso senza potenziare realmente i propri strumenti.



Powered by WordPress & Theme by Anders Norén

Translate »