Tutto è possibile

Categoria: Tecnica Pagina 2 di 21

Riflessione tecnica e/o analisi tecnica

Perchè si mettono le Camere Blackmagic sotto accusa?

Purtroppo il web tende a essere sempre provocatorio, accusatorio, e sembra sempre che il mondo sia pieno di difetti. Il fatto più divertente è che le persone che non posseggono un prodotto tendono ad accusare di più il prodotto in questione, accade con i telefoni tra Ios e Android, tra i brand fotografici, e video.

Mi chiedo come mai spesso si accusino le batterie delle camere Blackmagic di scarsa durata, che sono camere inutilizzabili, che è impossibile lavorare o girare video in quel modo… poco più di 40 minuti e se attacchiamo anche un disco esterno poco più di 30 minuti… che roba… davvero inutilizzabili…
Per avere un display fullHD sempre attivo, un sensore che cattura in raw 13 stop di gamma dinamica e magari alimenta anche un ssd esterno e altro…

inconcepibile direbbe il geniale Vizzini

Ehm…

Tutto questo in un mondo dove tutte le altre camere riprendono per ore con la stessa batteria, vero?
Oh, no?

  • Quanto dura la batteria di una Osmo Mobile ?
    35 minuti (Specifiche Sito Dji)
  • Quanto dura la batteria della Osmo Action?
    Fino a 34minuti (Specifiche sito Dji).
  • Quanto dura la batteria di una GoPro senza usare wifi?
    fino a 60 minuti (Specifiche sito GoPro)
  • Quanto dura la batteria media di una macchina fotografica che fa video alla massima qualità?
    65-70 minuti a seconda dell'uso della camera, dell'autofocus, della stabilizzazione etc (Sui siti ufficiali si trovano solo il numero di scatti e non la durata in video... sono macchine fotografiche).
  • Quanto dura la batteria della gh5 registrando in 4k intraframe?
    64minuti (75 se si usano le patona green).
  • Quanto dura la batteria della Dji Osmo Pocket?
    fino a 140minuti (Secondo specifiche sito registrando in Fhd), forse una delle poche macchine ottimizzate consumo, dimensione batteria, prestazioni su camera e gimbal.

E’ curioso che nessuno si faccia mai una domanda, ad esempio come è possibile che le altre camere non dovendo alimentare mastodontici display come quello della pocket4k/6k, non dovendo registrare così grandi moli di dati, non dovendo alimentare un disco esterno, durino quanto o meno la pocket stessa…

 


Covid19 – 5 – da telefono a Webcam

Il Covid19 ha costretto il mondo ad accelerare in modo notevole tante procedure, ha costretto i reticenti delle tecnologie ad adattarsi, ad apprendere ciò che per pigrizia evitavano, purtroppo questo ha creato mille problematiche non solo a chi non era prontissimo, ma anche a chi pur essendo pronto non era attrezzato a casa per gestire connessioni per scuola, lavoro etc.

Non tutti hanno una buona webcam, e è utile averla sia per lo smartworking che per le lezioni OnLine, ma le buone webcam (secondo le specifiche) costano centinaia di euro e spesso la qualità video non è così incredibile per come sono descritte, mentre tutti oggigiorno abbiamo in tasca una discreta o ottima camera nel nostro Smartphone.

Andando sul sito Kinoni è possibile scaricare il driver per usare lo smartphone come Webcam, dopo aver installato la app collegata sul vostro Iphone o sul vostro Android. Senza spendere un soldo potete usare la app free per fare le prove e se vedete che è la soluzione ottimale potete come meno di 10 euro comprare la app a pagamento con più controllo, risoluzione fino a fullHD, usare l’audio del telefono, etc etc.

Dal sito si scarica il driver Desktop
https://www.kinoni.com/

Per fare la prova si può usare la app gratuita IOS
https://apps.apple.com/us/app/epoccam-webcam-for-mac-and-pc/id449133483

Per usare tutte le funzioni c’è la app completa IOS 8.99€
https://apps.apple.com/us/app/epoccam-webcamera-for-computer/id435355256

Per fare la prova si può usare la app gratuita Android
https://play.google.com/store/apps/details?id=com.kinoni.webcam2&hl=fi

Per usare tutte le funzioni c’è la app completa Android 5.99€
https://play.google.com/store/apps/details?id=com.kinoni.webcampro&hl=fi

 

Lo pago, è sicuramente più affidabile

Questo post nasce dal fatto che non so che fare mentre sto osservando una lista semi infinita di file da convertire, in un programma openSource perchè i programmi commerciali che pago quasi 1000 euro l’anno di abbonamento per l’ennesima volta hanno ripresentato il bug del VBR…

In breve, quando si comprimono i file video con le tecnologie derivate dalla logica del gop, group of picture, si possono definire un tot di dati al secondo, costanti (quindi valore / n fotogrammi al secondo) oppure a valore variabile in funzione del contenuto (Variable Bit Rate), ormai tutti i sistemi di registrazione utilizzano questa seconda opzione perchè ottimizza qualità, spazio occupato, gestione dei dispositivi in generale.

da qualche anno (dal 2015 in particolare) una nota suite ha un bug ricorrente che in modo random sparisce e riappare, per cui se prendiamo un file VBR, lo mettiamo su una timeline, o lo facciamo convertire in modo batch in un altro formato il file risultante avrà l’audio che andrà fuori sinc in modo del tutto random, perchè pare che ci sia qualche problema a tenere il sincrono audio video tra fotogrammi e immagini. Addirittura anche esportando solo l’audio e reimportando la wave risultante questa non sarà più in sincrono con i file originale.

Il fatto imbarazzante è che invece tutta una serie di prodotti free / opesource non hanno questo problema. E l’unica soluzione suggerita dalla stessa azienda è convertire in un formato DI o anche nello stesso formato compresso e poi editarlo…

Quando pagavo la licenza perpetua, i codec di encoding e decoding erano presi in licenza dalla tedesca MainConcept e questo tipo di problemi non esistevano, oggi che aggiornano ogni 6 settimane il software, ogni tre per due volte ci sono bug notevoli come questo.

Soluzione 1 : utilizzare un software che usa i suoi codec per convertire in un formato Di che non generi il difetto

Soluzione 2 : abbandonare la suite e passare a prodotti più stabili

Soluzione 3 : fare causa alla suddetta azienda per una serie di danni lavorativi causati [ah dimenticavo, non lo può fare nessuno, perchè durante l’installazione se si leggessero le righe piccole si saprebbe che il software viene fornito as is, e l’azienda non è responsabile di malfunzionamenti, danni derivati da problemi del software etc etc]

Se potete, seguite la via numero 2, altrimenti cercate una delle tante interfacce a ffmpeg e risolvete con esso il problema della conversione.

 


La malattia della nitidezza

La percezione è l’arte che si dovrebbe dominare quando si affrontano le creazioni per immagine, a partire dall’illustrazione, la pittura fino ad arrivare alla fotografia e alle “motion picture”; uso il termine inglese perchè più si avvicina al concetto di quello che sono, ovvero immagini in movimento.

Prima dei sistemi di home recording e la possibilità di rivedere le immagini, il gusto delle persone era legato ai concetti e ai contenuti, mentre man mano che si diffondevano negli ultimi 40 anni i sistemi di visione casalinga, progressivamente sono nate delle finte necessità di maggior qualità e nitidezza create più dal marketing che dalle reali richieste dello spettatore medio, che guarda un film in sala proiettato in Imax, o mal trasmesso in streaming sul cellulare da 4 pollici, e dimentica entrambi con la stessa velocità.

L’ossessione per la nitidezza ha affrontato più fasi, negli anni 80 non c’erano mezzi per avere nitidezza reale a causa dei limiti dei mezzi video che catturavano le immagini, e la pellicola spesso era troppo costosa per i videomaker (all’epoca non si potevano categorizzare come filmaker proprio perchè il video, il nastro, erano lo strumento principe di lavoro per chi narrava per immagini low cost).

Nel video la nitidezza non esisteva realmente, sia perchè la quantità di informazioni registrabili anche su nastro betacam (telecamere da un centinaio di milioni delle vecchie lire) erano veramente poche (secondo i ragionamenti di oggi), sia perchè le lenti erano tarate su quel tipo di sensori e capacità di registrazione, sia perchè la gamma dinamica di quei sensori ccd, pur buona, non permetteva di affiancare informazioni che generavano un certo livello di contrasto senza perdere informazioni intermedie (appiattire il tutto).

Con l’introduzione del Digital video si sono introdotti diversi sistemi di “miglioramento” dell’immagine digitale, tra cui lo sharpness, ovvero una maschera di contrasto digitale che aumenta l’incisività di alcuni dettagli, ma in modo piatto… cioè dato che sono sistemi semplici di manipolazione dell’immagine, lo sharpness aumenta il dettaglio locale di oggetti vicini e lontanti, e quindi l’effetto diventa fastidioso e artificiale, vedesi l’articolo sull’effetto telenovelas.

Con il miglioramento della tecnologia e della risoluzione, le immagini video crebbero molto, ma l’ossessione per la nitidezza (dei tecnici) comportava sempre questo effetto video (lo sharpness) che ha sempre fatto storcere il naso ai filmaker finchè… arrivarono le macchine fotografiche.

L’introduzione molto recente (2008) delle video dslr fece un salto notevole sulla resa delle immagini, proprio perchè si parlava di pasta, di immagine meno nitida (non sfuocata) ma naturale delle fotocamere che offriva pur in un segnale compresso delle immagini più cinematografiche, ma con il vantaggio di gamma dinamica dei sensori fotografici e spesso con le lenti intercambiabili meno “wide like” cosa che erano i due talloni d’achille delle telecamere.

Con la diffusione poi delle cineprese digitali tutti questi elementi sono diventati disponibili e diffusi a tutti i livelli di acquisto, ma resta sempre questa ossessione della nitidezza da parte dei Pixel Peeper, che guardano ogni frame ingrandito 300%, che cercano ogni tipo di difetto come se fossero quelli i veri responsabili della qualità del prodotto.

La nitidezza sembra non essere mai abbastanza … peccato che troppa nitidezza CAUSI una serie di problemi non trascurabili:

  1. immagini più stroboscopiche perchè si fissano per più tempo sulla retina
  2. richiesta di datarate maggiori per dettagli che spariranno durante il delivery
  3. eccesso di nitidezza può dar vita a moires
  4. la profondità di una immagine viene data anche dalla “prospettiva aerea” descritta da leonardo nel suo “trattato sulla pittura” una immagine perfettamente nitida tende a essere anche più piatta.
  5. richiede una illuminazione maggiore e più accurata per dividere i piani e identificare le diverse zone
  6. porta il cervello spesso a distrarsi guardando troppo il dettaglio e meno il contenuto.

Molti filmaker confondono la fotografia statica con l’immagine in movimento e insistere troppo con il dettaglio rischia di deviare l’attenzione e il contenuto. Le dslr sono esplose proprio grazie a una maggior morbidezza d’immagine pur restando dettagliate.

Naturalmente da una parte ci sono delle leggi fisiologiche per cui una immagine percepita in un modo ha una resa, dall’altra il gusto personale dove chi guarda vuole maggior “ciò che mi piace”.

Se si aumenta la nitidezza delle immagini si deve aumentare anche il framerate catturato e riprodotto, è una legge fisiologica, altrimenti le immagini avranno mille problemi, perchè il nostro cervello e i nostri occhi lavorano in questo modo, e per quanto i detrattori, i tecnici parlino, non si sono ancora fatti upgrade di questi due device 😀

ProresRaw per Windows


Dopo due anni dalla presentazione del ProresRaw, un’implementazione interessante e Raw nella famosa struttura Prores di Apple oggi viene presentata la novità: beta di ProresRaq per Windows e supporto per le applicazioni Adobe video.

L’implementazione di un tale codec è costosa per gli sviluppatori, la stessa Adobe non lo supporta direttamente, ma è stata Apple a svilupparne il supporto.

Possiamo trovarne il supporto dentri pro applicazioni come Nuke e Scratch. Ora aspettiamo che Apple faccia la sua prossima mossa, ovvero rilasciare uno strumento di conversione da raw-x a Prores Raw.

Sento già gli echi delle persone dire, ma il raw non può essere convertito.
Non esiste raw non compresso a causa del semplice fatto che i dati di un sensore 16 bit sono codificato in un segnale logaritmico 12bit, ma finché l’array Bayer è separato, rimane raw.

Cineform disponeva di uno strumento che consente di convertire in formato video raw X in  cineformRaw già nel 2005 e nel tempo fu aggiunto il supporto per il raw di Red, Arri e black magic in cineform raw.
Se Apple vuole sviluppare tale strumento ha sicuramente i mezzi, le persone, i fondi e sarebbe la svolta per l’implementazione del Prores Raw in larga scala.

Pagina 2 di 21

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!