Tutto è possibile

Categoria: Tecnica Pagina 4 di 25

Riflessione tecnica e/o analisi tecnica

Mattebox serve?

Ho notato che l'autorevole sito Redshark, di cui abituale lettore, spesso presenta argomenti da me discussi in post due o tre anni prima, trovo lusinghiero di averli anticipati di così tanto tempo.

Oggi farò il contrario, ovvero utilizzo lo spunto di un loro articolo per rispondere ad una domanda che si riscontra spesso: serve veramente il Matte box?.

Cos'è e a cosa serve un Mattebox?

Il buon riporta un elenco di ragioni a cui mi rifaccio e aggiungo le mie considerazioni.

  1. Sembrare più fighi
  2. Proteggere dalla luce laterale le lenti ed evitare i flare non voluti
  3. Montare filtri.

e io aggiungerei

  1. Disciplinare l'operatore nel come preparare la camera
  2. Studiare la luce prima di premere rec
Sembrare più fighi (quando le dimensioni contano).

Potato Jet mostra in questo video come non sia il rig a fare l'immagine cinematica
ps. seguite il link, è uno youtuber interessante

Per qualche ragione (psicologica) ci sono degli elementi che creano associazioni mentali nella mente delle persone, il Mattebox è uno di questi elementi, Mattebox uguale cinema, professionalità.
Quindi una qualunque camera col Mattebox diventa professionale all'occhio del meno esperto, o del cliente.
In molti ambiti la rivoluzione digitale è stata uno svantaggio, perchè i clienti abituati a associare dimensioni della camera alla professionalità dell'operatore (dimensione maggiore = investimento economico = qualità di ripresa) si trovano scontenti nel vedere macchine sempre più compatte.

Un noto brand a metà degli anni 2000 aveva una serie di camere dedicate ai matrimonialisti e chi faceva filmati aziendali e industriali, ovvero le stesse identiche elettroniche, ottiche, controlli e sensori delle camere più compatte, ma professionali in un "vestito" più engine broadcast per chi aveva bisogno di mostrare ai clienti la dimensione della loro "professionalità".

A metà degli anni 2010 si era rovesciata la tendenza, ci si poteva presentare con delle telecamere di buon livello, cineprese, ma se non avevi la VDSLR di tendenza ... sembrava che avessi un giocattolo per le mani... il mondo è dell'apparenza, non della sostanza, nella maggior parte dei casi.

 

 

12k è lo specchietto, vediamo dietro le vere rivoluzioni

Il 16 luglio 2020 Grant Petty, ceo e fondatore di Bmd presenta una nuova camera che rivoluzionerà tanti paradigmi, da qui ai prossimi anni.

Di fronte ad un mercato saturo di prodotti che sta guardando le risoluzioni verso 8k è stato presentato il risultato di tre anni di sviluppo: la Ursa Mini Pro 12k.

 

Subito sono partite le lotte tra fanboy e haters di varie fazioni, da chi si lamenta del prezzo (di una camera che è stata presentata da Petty come un prodotto pensato per la fascia Hi-end) al fatto che il 12k non funziona, etc etcIn tutto questo chiasso si sono perse le vere rivoluzioni, sviluppi che partono dalla fascia alta, ma che di sicuro apriranno nuovi sviluppi anche alle camere più economiche.

Sensore Blackmagic

La camera presenta un sensore proprietario Blackmagic Design con struttura parallela completa, ovvero non esiste la matrice di bayer, quindi ogni pixel ha tre fotorecettori, ognuno per una componente colore Verde, Blu e Rossa e in aggiunta la luce bianca.

Questo fattore significa che è in grado di :

  1. Sensore senza matrice di Bayer = Bye bye Red Patent sul raw compresso
  2. scalatura di cattura SENZA crop, quindi il sensore 12k è in grado di generare un file braw a risoluzione inferiore senza pixel binning, ma con la qualità e aliasing del sensore originale. Quindi la camera registra anche 4k e tante altre combinazioni di risoluzione.
  3. 12k 60fps fino a 220 fps in 4k raw (chi li cercava doveva andare di Phantom, ora ha una alternativa).
  4. su una risoluzione così alta anche le riprese agli iso più alti saranno usabili perchè nel downscaling spariranno i difetti più evidenti
Braw 2.0 e color science 5
  1. viene rilasciata una nuova Color Science 5 che migliora le immagini che è retrocompatibile con le camere precedenti con il braw, quindi si può applicare tale cs anche ad altre camere, a shooting già fatti (già disponibile la beta di Resolve e del nuovo Braw 2.0).
  2. Braw 2.0 prevede la registrazione splittata su più supporti per superare i limiti di registrazione dei supporti attuali.
  3. Braw 2.0 aggiunge nuovi flavour di compressione come 18:1, Q1 e Q3, per ottimizzare ancora di più spazio e qualità
  4. Braw 2.0 è talmente ottimizzato da permettere lo stream 12k anche su macchine molto modeste, e oggi il Braw è disponibile anche per macchine non Blackmagic design come C300 mkII, Eva1, Sigma FP.
  5. Nella nuova Color science 5 le camere hanno una curva di log uguale per ogni iso, questo significa che sarà più facile creare delle LUT di look che funzionino più facilmente attraverso riprese differenti.

Ovvio che questa macchina nasca per il cinema e non per l'indipendente, anche perchè viene venduta con attacco PL (attacco ottiche cinema) e solo su richiesta si acquista l'attacco per EF, sarei curioso di trovare e verificare nelle specifiche delle lenti EF quale ha la risolvenza adatta per questa risoluzione. Il costo della macchina non è un problema considerato che l'ecosistema di lenti da noleggiare costerà quando il corpo macchina.

Quello su cui voglio puntare lo sguardo è l'iceberg che sta dietro l'annuncio dove le tecnologie sviluppate porteranno blackmagic Design molto avanti nei prossimi anni.

Questa immagine è una semplice ripresa braw fatta per test qualche settimana fa, senza nessun tipo di correzione colore qui si può vedere la differenza tra le due color science, basta osservare le alte luci recuperate in automatico perchè le differenze stanno nei dettagli, in questo caso nel roll off delle alte luci dove si ottiene una base di partenza migliore e più facile da gestire anche per chi ha meno skill di postpro.

 


Covid19 – 6 – a tutta Webcam


Anche se tante persone pensano che sia finito tutto, fanno finta di non sentire i numeri che pur abbassati sono ancora inquietanti, soprattutto in molti paesi, anche se hanno trasformato in moda le mascherine, usandole male, o non usandole, ci dovremo convivere per ancora molto tempo e la "virtual presence" è un fattore sempre più importante in tutti i lavori di comunicazione.
Le webcam in generale sono "rubbish" anche spendendo tanti soldini, con mille problemi, lenti di basso livello, etc.


Ho già fatto un articolo su come trasformare il vostro Iphone o il vostro Android in web cam, ma oggi alziamo l'ago della qualità.
Negli ultimi due mesi le diverse case di macchine fotografiche hanno rilasciato firmware "miracolosi" che permettono a tutti di usarle come webcam, con ovvi miglioramenti nella qualità, resa e soprattutto il controllo su tutti i parametri di lavoro.
Canon ha rilasciato questo software per le EOS-1D X Mark II, EOS-1D X Mark III, EOS 5D Mark IV, EOS 5DS, EOS 5DS R, EOS 6D Mark II, EOS 7D Mark II, EOS 77D, EOS 80D, EOS 90D, EOS Rebel SL2, EOS Rebel SL3, EOS Rebel T6, EOS Rebel T6i, EOS Rebel T7, EOS Rebel T7i, EOS Rebel T100, EOS M6 Mark II, EOS M50, EOS M200, EOS R, EOS RP, G5X Mark II, G7X Mark III, SX70 HS

Nikon ha rilasciato questo tutorial sul loro sito per poter usare le camere come Webcam

FujiFilm ha rilasciato questo software per le X-H1, X-Pro2, X-Pro3, X-T2, X-T3, X-T4, GFX100, GFX 50S, GFX 50R

GoproHero 8 ha rilasciato questo software

Sony non ha ancora rilasciato una cosa del genere, ma con un software aggiuntivo è possibile, metto qui un link ad un tutorial

Per Windows e Mac è possibile utilizzare queste camere come Webcam, le grandi innovazioni dell'informatica nascono dalla necessità... forse..
O forse ricordo che la mia prima Webcam su proprio una fuji, nei primi dei duemila.


Una bridge FujiFilm quasi 20 anni fà già permetteva di usarla come webcam... vabbeh dai sono l'unico che se ne ricorda nel 2020 😛

 


La difficoltà nel vedere oltre ciò che crediamo di vedere

Chi lavora in un determinato modo deve confrontarsi oggi con un mondo in corsa dove il telefono fa tutto, dalla fotografia al video, lo monta postproduce, applica filtri e lo carica su youtube. Tutto questo va bene se si resta nell'ambito mobile e si vede dallo stesso il filmato finito, mentre se così non è, potrebbero sorgere tante complicazioni.

Io sono fautore della comodità di usare ogni mezzo possibile per realizzare il nostro scopo, ma è importante conoscere bene il mezzo, i suoi limiti e come gestirli. Le camere dei cellulari moderni (da 5-6 anni a questa parte) possono catturare video con un'ottima qualità, si tratta solo di non castrare le loro capacità, la stessa cosa accade con molte camere economiche.

Mito 1 : ma lo sto vedendo bene qui sul cellulare La maggior parte dei tablet e dei cellulari reilaborano le immagini come contrasto e colore per rendere più "belle" le stesse, spesso saturando i colori a seconda dei brand più rosso e blu, più arancio e verde, etc... Alcuni cellulari come il mio Z5 applica anche una sorta rielaborazione realtime del movimento come alcuni telvisori, per cui vedere un video sul cellulare non significa nulla sulla sua qualità

Mito 2: sul monitor della camera si vede bene. Non esiste camera che abbia un monitor adeguato come numero di punti al filmato che viene catturato, il filmato viene scalato e ammorbidito dalla scalatura, per cui non si può assolutamente vedere realmente l'immagine per quello che è, ma solo per quella che è la sua traduzione, inoltre la maggior parte delle telecamere è possibile modificare la temperatura colore, il contrasto, la luminosità del monitor e quindi ciò che vediamo è solo lontano parente del filmato originale

Mito 3: sul monitor si vede bene, è registrato bene tranne che se stiamo rivedendo un filmato, la maggior parte delle camere mostra il segnale passante, non il segnale registrato, quindi se ci sono difetti di registrazione o compressione non li possiamo vedere finchè non rivediamo il materiale. Una volta esistevano camere professionali che permettevano la visione con la "differita" quindi quello che si vedeva era effettivamente il registrato, ma oggi noi vediamo il segnale passante quindi il rischio di non vedere i difetti o di non capire quanto scarsa sia l'immagine è molto alto. Inoltre considerate che anche un cellulare ha un sensore più che decente, ma da li a quello che viene registrato c'è un abisso, ad esempio il mio Z5 sony ha un ottimo sensore, ma registra dei pessimi jpg compressi, e nei video applica (non si sa perchè) una maschera di contrasto sul filmato in fullHD che massacra in modo mostruoso la morbidezza delle immagini e il dettaglio reale, si devono usare app esterne per registrare la reale qualità di quel sensore altrimenti si potrebbe avere l'impressione che le immagini siano di basso livello.

Mito 4: perchè si deve occupare tanto spazio con i filmati in codec xyz, l'h264 si vede bene, anzi meglio h265 così occupa meno spazio. i formati molto compressi come h264 e h265 hanno tanti limiti, più sono compressi meno dettagli registrano, e meno si possono lavorare i filmati. Se non si deve agire di correzione colore, se si monta direttamente il filmato senza fare nulla, forse si può usare un formato molto compresso, ma appena di deve fare un minimo di post, l'inconsistenza tra fotogrammi di formati compressi mostra i suoi limiti, se devo abbassare la luminosità di un cielo vedrò apparire blocchi di cubetti colorati, perchè il codec prevedeva di vedere quei dettagli, se proviamo a aprire un poco le ombre vedremo tanti elementi muoversi nelle ombre, non come grana, ma come blocchi che cambiano forma, dal colore verde al magenta, impedendo tale lavorazione. Il formato compresso inoltre ha effetti nefasti sui movimenti, se stiamo riprendendo immagini molto dettagliate, come alberi con chiome in movimento, acqua, un prato, i capelli di una ragazza al vento, se si supera i limiti del buffer di cattura possiamo vedere artefatti di compressione negli elementi in movimento.

Mito 5: perchè devo usare il log, il protune, questi filmati che diventano brutti per poi renderli giusti, meglio catturarli giusti subito

La cattura log è un modo per catturare meglio e preservare tutte le informazioni del filmato, se si deve fare postproduzione del filmato il log farà si che si brucino meno le luci più luminose, e che ci sia più dettaglio nelle ombre.

Non è una questione di catturare male per vedere bene, è catturare al meglio per estrapolare pulite il maggior numero di informazioni dall'immagine che ha i suoi limiti. Per questa ragione stanno introducendo il log anche nelle camere meno costose, e in alcuni cellulari, ad esempio gli iphone dal 7 in poi con la app Filmic Pro è possibile usare il profilo log per catturare meglio le informazioni.

Di solito chi si lamenta di questo tipo di cattura non ha mai avuto a che fare in modo serio con la postproduzione e quindi non ha visto quali sono i limiti di manipolazione di un filmato compresso e/o senza curva log di cattura.

Mito 6: sul mio televisore si vede meglio questo file proporzionale al primo mito, ma più esteso, tanto che gli ho dedicato un intero articolo... La quantità di elaborazioni che esegue un televisore moderno è talmente ampia da richiedere molte spiegazioni sul perchè ogni televisore sia differente e più o meno distruttivo sulle immagini.

Come si calcola il tempo di ricarica di una batteria

Ho scritto tanti articoli su diversi prodotti, e le batterie sono un argomento che torna spesso. Ci sono domande che spesso sono oggetto di miti e leggende, e quello della carica è un argomento molto dibattuto.

 

Una batteria è un oggetto in grado di accumulare una differenza di potenziale  tramite la chimica contenuta al suo interno. Quando di ricarica una batteria si lavora su questi elementi, quindi la ricarica va eseguita correttamente per evitare incendi, fiamme, esplosioni, etc etc.

La ricarica estremamente rapida andrebbe evitata, perchè "si dice che rovini" le batterie quando viene generato molto più calore che altera gli elementi chimici.

La fase di ricarica è il momento in cui si ripristina la differenza di potenziale con l'erogazione di un valore x di Ampere, maggiore è l'amperaggio e più rapidamente si ricarica la batteria (entro un certo limite altrimenti si danneggia), questa fase genera un surriscaldamento più o meno contenuto e/o una alterazione dei componenti chimici che va evitata.

Calcolare il tempo di ricarica di una batterie è molto empirico e impreciso, sia perchè la maggior parte dei caricabatterie non erogano una corrente costante, ma man mano che la batteria è vicina alla carica massima riducono progressivamente la corrente erogata, sia perchè le celle a seconda della loro vita, usura, struttura possono accumulare in modo non regolare la corrente.

La teoria è :

carica max della batteria (ampere) / carica erogata dal caricabatteria (ampere)

                           = ore di carica

esempio 6600mA batteria / carica batterie da 600 mA = 11 ore circa
Quindi se si parla di batterie capienti si può comprendere perchè una batteria richieda tanto tempo per essere caricata.
A seconda quindi dei carica batterie si avranno tempi e ricariche diverse, inoltre molti caricabatterie eseguono la ricarica in tempi diversi a seconda del numero di batterie che si collegano.
Utilizzo un caricabatterie Patona, che a seconda dell'alimentazione applicata e del numero di batterie applicate i tempi di carica sono differenti.

A seconda del caricatore USB collegato si hanno valori diversi di ricarica

In 9v2A out 1500mA per una batt /1000mA per due batt
In 5v2.4A out 1000mA per una batt/700mA per due batt

quindi abbiamo tempi di ricarica di circa

4,4 h / 6,6h - 6,6h/9,4h

Ovviamente si parla di un calcolo teorico, premettendo di avere una batteria completamente scarica, di un caricamento costante, di celle recenti e "giovani".
Il discorso non nasce per avere dati precisi, quanto per avere un riferimento pratico di lavoro.
Se usiamo una batteria per alimentare un faretto per 2-3 ore e ne servono dieci per ricaricare tale batteria, per poter lavorare in continuità avremo bisogno di più kit di batterie per ogni faro.

 


Pagina 4 di 25

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!