Carlo Macchiavello

Tutto è possibile

Category: Tecnica (Page 1 of 13)

Che bella cosa la compatibilità, gli aggiornamenti frequenti, di tutto…

Per chi viene dal passato dell’informatica come me, dove tutto aveva tempi biblici (per i concetti di oggi), c’è una sorta di rammarico e nostalgia ai tempi in cui per avere un aggiornamento di un programma o di un sistema passavano anni, quando i prodotti erano su supporti fisici, quando l’hardware era scarso, più limitato, dove c’erano si dei problemi, ma…

Prima di uscire una versione nuova di un sistema era testato, veramente, da persone pagate per quello, non come oggi che paghiamo per fare noi da tester, tanto poi esce la patch tra qualche giorno… e intanto diventiamo matti per chiudere i lavori perchè:

  • il sistema corrompe i dati sui dischi (un noto Os con noto marchio di dischi esterni).
  • il sistema nuovo decide che i task vanno eseguiti in stack, faccio la copia di dieci cartelle pesanti (tera) e anche se ha eseguito la metà del task, se entro nelle cartelle e modifico, aggiungo o tolgo, non vedo nulla perchè non essendo completato il task generale non fa refresh della cartella, vorrei conoscere lo sviluppatore che ha cambiato il codice (nel precedente os non era così) è un genio… del male…
  • Il sistema nuovo ha deciso che nonostante abbia bloccato da registro e da pannello di controllo gli aggiornamenti, il driver della scheda video è vecchio di 4 mesi e deve essere aggiornato, peccato che ci siano diversi bug nei driver che mi installa in automatico causandomi crash dei programmi
  • il sistema nuovo ha deciso che il driver del touchpad del portatile è vecchio e va installato quello nuovo, che non essendo compatibile con l’hardware mi costringe a usare sempre il mouse (oppure sdradico a forza il sistema e torno indietro, nonostante vogliano impedirmelo modificando il bios per renderlo incompatibile con il precedente).
  • Il sistema nuovo ha deciso che deve applicare il risparmio energetico sempre, se io apro due finestre, quella sopra è più task, quindi se metto il browser con facebook sopra un programma di rendering 3d che sta lavorando e i programmatori non hanno previsto questa logica del sistema, il programma mentre sta renderizzando perde quasi tutte le risorse di calcolo…

Prima di far uscire una nuova versione di un programma si verificava che gli aggiornamenti non avessero introdotto bachi notevoli o che si fossero bloccate alcune funzionalità come accade oggi tipo :

  • L’ultima release di una suite famosa che nella comunicazione tra due programmi della suite il 50% delle funzionalità di scambio manda in crash il programma, e finchè non si riavvia il sistema, sia sotto windows che sotto mac, non si è più in grado di avviare il programma… da ex programmatore direi che qualcuno ha usato i puntatori in modo errato, ma direi anche che nessuno ha provato a usarli, visto che la funzione di scambio è un banale copia e incolla… e a mesi dal rilascio, e dalla mia segnalazione, continuano a non rilasciare patch…
  • la nuova versione di un programma che ha introdotto l’accelerazione GPU nei filtri pittorici, ma se non avete la scheda grafica giusta, i filtri stessi si disabilitano e se non potete cambiare al scheda grafica al vostro computer, dagli all in one ai portatili, avete perso quelle funzioni…
  • La versione nuova dei programmi che cambia il formato di salvataggio del progetto, e raramente si può esportare per la versione precedente così viene impedito di collaborare con chi ha versioni precedenti del programma, o se c’è qualche bug nella versione nuova, si deve ripartire da zero con quello precedente.
  • Nella nuova versione del programma non avete più la gestione multicore perchè l’azienda ritiene che non sia più importante… oggi che avendo raggiunto il limite della maggioranza delle progettazioni dei processori si viaggia sui multicore per ovviare ai limiti e ai rischi di elettromigrazione…
  • Vi viene proposto un aggiornamento, che se non leggete le descrizioni potrebbe togliervi il supporto ad un codec audio perchè hanno deciso che non vogliono più pagare la licenza a Dolby, e quindi vi dovete arrangiare..

L’hardware era più limitato, c’erano già problemi di compatibilità tanto che Windows 95 fu soprannominato Plug&Prey Os, ma non così drammatiche come oggi… i chipset stanno andando indietro invece che avanti…

  • schede madri con 4 slot pci express a piena velocità se si usa un solo slot, ma appena se ne occupano di più si dimezzano o peggio
  • porte thunderbolt che vanno in coppia, se ne uso una per un monitor, quella a fianco non è più una porta dati
  • chipset usb 3.0 che non sono compatibili con se stessi nella controparte di manager delle periferiche esterne causando sganci o peggio.
  • I sistemi operativi supportano da WinXp64 (2001) e Panther (2003) ben 1 tera di memoria, ma praticamente nessuna piastra madre possiede più di 8 slot di memoria, e i chipset non sono in grado di indirizzare più di 256 gb di ram, oggi dopo quasi vent’anni dalla possibilità di gestirne ben 4 volte tanto. Se va bene ne gestite 64 con le motherboard più spinte.
  • Si progettano sistemi multi GPU vista la spinta verso quel tipo di hardware sia nei giochi che nel professionale, ma nessun produttore di GPU considera il dettaglio, per cui poi ne potete mettere poche in un computer per problemi di raffreddamento, oppure più banalmente perchè sono talmente grandi i dissipatori che coprono i connettori vicini…
  • I dischi SSD e M2 sono sempre più veloci, offrono potenzialmente velocità quasi paragonabili alla ram, ma ci sono così tanti colli di bottiglia che sfruttare questi supporti è complesso e spesso non fino all’ultimo.
  • Le cpu negli ultimi 20 anni hanno rallentato notevolmente la loro accelerazione reale nel calcolo, perchè essendo sempre meno ottimizzati i codici per i processori, la potenza di calcolo non è realmente sfruttata. Usando test reali, con calcoli 3d su software da produzione, posso dire che prendendo una CPU tot di gamma di 10 anni fà, oggi spendendo la stessa cifra c’è circa 50% in più di velocità, peccato che dovendo spendere anche su memoria e motherboard il risultato migliore si ottiene spendendo la stessa cifra in una soluzione meno top di gamma, ma in quantità maggiore come cpu… se i programmi sfruttano i multicore e le multicpu che per fortuna i programmi di 3d fanno.
    Qualche numero più terra terra? un i7 4950k del 2012 (setup minimo 1000 euro solo processore e motherboard) da uno score di 962 punti, spendendo la stessa cifra oggi in un i7 + motherboard si ha uno score di 995 punti, dopo 6 anni…. per ottenere un risultato soddisfacente si deve andare su i9 top di gamma, per ottenere 2100 punti, ma l’investimento minimo sale a 2500 euro… quindi il rapporto aumento punti nasce dall’aumento del valore economico, non da una crescita reale della potenza dei prodotti nella stessa fascia di prezzo.

Ora tutto questo unito ad una pratica commerciale molto sleale, ovvero la non ottimizzazione di sistemi, hardware etc in modo che “ufficiosamente” si crei la obsolescenza programmata… spero che si concretizzi come in Francia che è stata fatta una legge per vietare e punire questa Politica di Marketing per forzare gli utenti a cambiare e spesso senza potenziare realmente i propri strumenti.



Come si espone correttamente? chissà…

Ho già scritto un articolo più esteso sull’esposizione, su come i diversi parametri shutter iso e diaframma influenzano l’esposizione, ma mi sono reso conto che spesso non è abbastanza chiaro cosa e perchè esporre in un certo modo, allora ho pensato che un post pratico possa essere più utile.

Per esporre serve un riferimento su cui lavorare, per alzare o abbassare la luce e gestire l’esposizione, i fotografi hanno sempre usato il classico cartoncino grigio 18% Kodak su cui misurare la luce. Oggi per chi lavora col digitale può trovare uno strumento molto comodo per misurare l’esposizione nel Passport dell’Xrite.

All’interno del passport troviamo un target per la calibrazione del bianco con un cartoncino grigio chiaro, che la classicoa gretag con le tacche colore, utili per uniformare diversi shot a posteriori. A seconda degli strumenti che avete a disposizione della vostra camera, dalla semplice zebra, ad uno strumento più efficiente che potrebbe essere la waveform, o se siamo più fortunati i falsi colori, dobbiamo misurare tale grigio e portarlo al valore x per la corretta esposizione.

L’esposizione eseguita col profilo rec 709 (riprese non logaritmiche) richiedono che il valore del cartoncino, o la terza tacca di grigio da destra sia a 40 ire.

Zebra : impostare la prima zebra a 40% la seconda zebra al 98%, con la prima controlliamo l’esposizione dell’incarnato, con la seconda che non sfondiamo le alte luci. Dato che in diverse camere la Zebra si ferma al 50% la si imposta e poi si scende con la luce fino a far sparire la zebra.

Waveform : qui è più facile perchè vedremo alzarsi o abbassarsi i valori luminosi, inquadrando esclusivamente il cartoncino grande potremo vedere se il valore rappresentato raggiunge o supera il 40%

Falsi colori : La corretta esposizione viene rappresentata dai colori, in questo caso il cartoncino sarà verde per il rec709, grigio scuro per il log.

Quando si deve esporre in modo corretto, si utilizza questo riferimento per avere due vantaggi, il primo è che indipendentemente dal resto dell’immagine si ha un riferimento univoco sia per fare l’esposizione, sia per allineare correttamente in post le diverse immagini; il secondo vantaggio è che in questo modo c’è consistenza nell’esposizione degli incarnati tra una scena e l’altra e quindi è molto più semplice rendere uniformi le immagini nelle fasi successive della lavorazione.
Riprendendo la tabella colore ad ogni ripresa avremo un riferimento per allineare i diversi colori, ottimizzare la temperatura colore.



Che bel televisore per vedere le telenovelas …

La schiava Isaura, la prima telenovelas della storia.

Un po’ parafrasando una frase detta da una persona a Cannes, che la digitalizzazione delle pellicole sarebbe capace di trasformare Barry Lyndon in una telenovelas, un po’ perchè oggi tra gli addetti al settore si dice che una certa immagine è “da telenovelas” ho deciso di scrivere due righe a proposito di uno drammi moderni nel vedere un film con una televisione : la rielaborazione delle immagini.

Grazie all’avvento della teorica alta definizione casalinga, parlo di teoria perchè molti canali televisivi trasmettono sui canali hd film da master in definizione standard, oppure solo ogni tanto trasmetto in hd qualcosa, le case di tutto il mondo si sono riempite di brillanti e molto contrastati televisori per vedere telegiornali e ogni tanto anche un film.

La battuta non è causale perchè tutti i televisori moderni, anche e soprattutto se hanno una definizione superiore come il 4k sono pensati principalmente per riprodurre materiale in definizione molto scarsa, e come tale da essere rielaborata perchè altrimenti le “persone sarebbero scontente del televisore”, ho letto la settimana scorsa di una persona che si lamentava della mancanza di definizione di un televisore 4k nel vedere le partite, non su canali dedicati in hd, ma sulla semplice rai SD, e la lamentela continuava dicendo che essendo il televisore 4k tutto doveva essere migliore… e che lo avrebbe cambiato a breve col marchio x che le fa vedere meglio…

è per questo tipo di persone che rappresentano il pubblico medio che ci dobbiamo sorbire immagini orribili quando andiamo a vedere immagini di qualità.

La spiegazione è molto semplice: tarando i televisori per immagini che sono forse un quarto della definizione (trasmissione fhd) o addirittura un sedicesimo della definizione del 4k, i pixel devono essere gonfiati, e quindi come tali si vedrebbero delle immagini sfuocate o di pessima qualità, quindi vanno rielaborate per sembrare migliori. Il concetto andrebbe bene se la manipolazione fosse progressiva e dosata sulla sorgente, ovvero se forniamo al televisore immagini di risoluzioni superiori o adatte alla matrice del televisore questi algoritmi si dovrebbero disabilitare, invece lavorano comunque alterando immagine, colore, contrasto, e addirittura il movimento percepito delle immagini purtroppo non tutti gli algoritmi di rielaborazione sono modificabili o diabilitabili, addirittura ogni produttore nasconde dietro nomi diversi le diverse funzioni e alcuni impediscono la disabilitazione se non sui segnali in ingresso sulle HDMI, per cui anche ricevendo un ottimo segnale 4k da netflix, devo usare un dispositivo con ingresso esterno per evitare che venga manipolato dal televisore rovinandolo.

Ora vediamo all’atto pratico cosa succede e come le immagini vengono alterate.
Qui vediamo la situazione più comune, una immagine nativa 4k vs l’equivalente trasmessa in SD, come trasmettono la maggior parte dei canali oggi nel 2018, se non mi credete andate nelle info del canale sul vostro televisore e guardate lo stream a che definizione viene inviato.

Ricordo che una classica immagine UHD è fatta da 3840 x 2160 pixel, il FHD da 1920×1080 pixel (esattamente la metà in orizzontale e verticale, quindi un quarto), il formato HD è 1280 x 720 pixel, e infine l’SD è solo 720×576 pixel rettangolari, perchè naque in un formato più quadrato e quindi per ottenere una scalatura su matrici moderne oltre che scalato viene distorto in orizzontale.

Come si può notare la differenza tra UHD (4ktv) e il formato Standard visti al 100% è notevole, perchè abbiamo una differenza di sedici volte delle informazioni visibili, quindi ingrandendo il segnale SD si vede in modo evidente la differenza.

Dato che i dettagli non si possono inventare, in queste situazioni non si può fare nulla, tranne masticare le immagini con algoritmi varii per fingere che ci sia contrasto dove non esiste, ma con immagini con dettagli fini come questi, il problema della scarsità di qualità rimane.

Se invece andiamo a lavorare con un pò più di risoluzione, ovvero con il formato HD, già il salto non è così disturbante, e potrebbero lasciare le immagini alla loro natura.

Se potessimo vedere sempre immagini in FHD su televisori FHD o 4k, la scalatura diventa minore e quindi meno evidente, anche se presente.

L’elemento che ci inganna è il fatto che ogni segnale viene processato in più modi e la stessa immagine riceve più trattamenti, dalla cosiddetta clarity che spinge luci e ombre in due estremi, alle maschere di contrasto per rendere più definiti dettagli che non possono essere definiti perchè troppo grossolani, oppure anche se il dettaglio è presente in modo corretto, lo rende artificiale perchè applica la maschera in modo lineare su tutta l’immagine.

quindi nella realtà non vedremmo una immagine in cui ci sono poche differenze tra fhd e 4k, ma vedremmo una immagine rielaborata del FHD creando articialmente difetti e artefatti dove non servono.

Quando vediamo una telenovelas è normale una certa piattezza di luce perchè per risparmiare tempo e non rischiare differenze tra una inquadratura e l’altra si rende molto più piatta e uniforme l’illuminazione, dato che si gira con telecamere la paura di non avere immagini nitide porta ad alzare parametri di nitidezza artificiale in camera, inoltre i sensori delle camere da studio sono tali per cui non si hanno grosse sfumature e differenze tra le diverse colorimetrie del set e i diversi incarnati. In pratica esattamente l’opposto di ciò che si fa con i film per dare il look cinematografico.

Prendiamo una immagine dal bluray di MonsterSquad, un classico teenager movie anni 80 a cui serie come Stranger Things devono tutto, mettiamola su un normale televisore, il risultato nel migliore dei casi sarà come quello che vedete qui sotto, ovvero una versione telenovelizzata dell’immagine originale, con applicata la tecnica della clarity per dare maggior contrasto locale all’immagine,  una maschera di contrasto per definire tutti i dettagli dell’immagine, rovinando completamente l’atmosfera dell’immagine, appiattendo l’immagine dove il direttore di fotografia aveva deciso separando con luce e ombra i due piani. E’ molto evidente se si guarda come vengano fuori gli elementi dalle ombre dietro l’attore, distraendo e comprimendo lo spazio intorno ad esso.

Naturalmente non può mancare una forte riduzione rumore perchè di sicuro tra compressione e trasmissione si creerà rumore che assolutamente non può essere accettato, peccato che venga eliminata spesso in questo modo anche la grana e la struttura della pellicola, oltre ad eliminare il dettaglio fine.

Il dettaglio artificiale dato dalla maschera di contrasto esalta in modo eccessivo i capelli dell’aziano protagonista, ma accentua anche i dettagli fuorifuoco alla sua destra, perchè purtroppo l’algoritmo viene applicato in modo piatto e uniforme ad ogni parte dell’immagine, mentre nella realtà se abbiamo una parte nitida (a fuoco) e una morbida (fuorifuoco) la nitidezza naturale è dosata e distribuita aumentando la sensazione di profondità delle immagini.

Queste tecniche potrebbero aiutare una immagine debole, ma se applicate ad una buona immagine la rendono molto più televisiva e piatta, rovinando il lavoro di un buon direttore di fotografia, e non solo. Inoltre andrebbero dosate inquadratura per inquadratura, area per area con delle maschere, per poter dare un vero contributo all’immagine, invece su qualunque televisore applicano questi effetti in modo piatto su tutta l’immagine rovinando in più punti la resa della fotografia.

Il buon Stu di ProLost, esperto di vfx, colore e immagini ha fatto un ottimo post su come non solo rovinino le immagini a livello colore e contrasto, ma rielaborino anche il movimento e la percezione dello stesso, creando artificialmente fotogrammi superflui, che diventano necessari perchè gli originali essendo stati troppo contrastati hanno perso la loro originale sfuocatura di movimento e sono diventati scattosi… insomma un serpente che si morde la coda…

Chiudiamo il discorso con un paio di immagini pubblicitarie che ci fanno capire come il brutto vizio di manipolare le immagini non è una derivazione moderna, ma da tanti anni abbiamo il problema di poter vedere ciò che i direttori di fotografia hanno pensato in origine, solo che una volta sui tubi con l’immagine analogica le rielaborazioni erano limitate, oggi purtroppo si può massacrare ogni immagine oltre ogni limite della decenza.

comunque nel mio post sui formati dell’immagine potete trovare qualche riferimento su come una volta venissero tagliate anche le proporzioni video e selvaggiamente tagliate le inquadrature per adattarle prima al 4:3 poi a rovescio per adattare al 16:9 filmati girati con aspect ratio più vicino al 3:2 (super16mm).

Invece per chi è dubbioso, feci tempo fà un post tra pellicola e digitale, le differenze effettive in ripresa e resa dei due media, sfido tante persone di distinguere al cinema quali sequenze sono girate in pellicola, quali in digitale e poi stampate su pellicola, etc… la maggior parte delle persone non si accorge di come i film contengano una miscelazione ampia di diversi media, analogici, digitali etc.

Sono sicuro che se Kubrick fosse ancora vivo, non solo avrebbe abbracciato il digitale, ma sarebbe stato così cocciutamente testardo da far creare per lui un sistema di check dei proiettori digitali e dei televisori per far vedere correttamente le immagini dei suoi film, cosa tecnicamente fattibile da anni, ma che a quanto pare non sembra interessare a nessuno, e questa non è una mia elucubrazione, ma alle prime di molti suoi film si preoccupava che la proiezione fosse a livello qualitativo eccellente per esaltare il lavoro da lui fatto svolgere, quindi se lo fece per la pellicola, lo avrebbe fatto fare anche per il digitale.

Nota a margine: la schiava Isaura, la prima telenovelas ufficiale della storia della tv era girata in pellicola, quindi ironicamente poco telenovelas come stile visivo.



Workflow che parolaccia

Workflow in inglese indica il corretto flusso di lavoro per eseguire nel modo corretto un lavoro X, ma pare che la maggior parte delle persone sia allergica a tale processo.

Nella mia vita ho visto milioni di persone, dal vivo o online lamentarsi che la camera/il programma/lo strumento XXX non fa XYZ, senza studiare come vanno usati o come vanno gestiti correttamente, perchè invece di leggere 10 pagine di manuale preferiscono perdere mesi su facebook e su google a cercare la risposta che hanno sotto gli occhi.

Gente che chiede perchè non riesce a fare l’operazione X che faceva su un prodotto completamente diverso, quando nel manuale è scritto esplicitamente che non si può fare o che si fa in modo diverso. Ad esempio con buona parte delle camere Blackmagic le persone riempono i forum di domande imbarazzanti piuttosto che leggere 19 pagine (con le figure) di manuale, e se una persona arriva a chiedere come si vedono le clip appena girate quando in grande ci sono i bottoni di play con il classico simbolo triangolare, convenzione esistente da prima che nascessi io…

Un esempio che trovo più imbarazzante mi è capitato stasera leggendo su un sito noto di filmaking una tecnica per ridurre l’effetto fisheye delle GoPro usando diversi programmi da HitFilm a PremiereCC e altri, spiegando quale funzione usare e come… peccato che GoPro fornisca gratis un sistema più efficace e di qualità per eseguire quello e altre operazioni importanti per gestire un filmato di una gopro, ma quasi nessuno lo usa… perchè è talmente facile da usare come camera, che tutti la usano subito senza leggere le istruzioni, e quindi… ne usano il 10% del potenziale.

Pur non essendo amante delle gopro per il tipo di ottica presente, sarebbe utile sapere che :

  • posseggono una modalità di ripresa log, detta protune, e un camraw per catturare meglio e in modo più cinematico le immagini proteggendo meglio le informazioni delle alte e basse luci, con differenze qualitative notevoli.
  • possono settare in diversi modi l’otturazione per avere una resa più cinematografica
  • nel sistema stesso di ripresa possono ridurre l’effetto fish eye con una elaborazione realtime della camera con diversi algoritmi creati da David Newman, autore di Cineform e di molte innovazioni Gopro
  • Il software free proprietario permette la lettura e ottimizzazione di un file log protune trasformandolo in un file più utilizzabile cineform attuando anche la conversione colore in uno spazio a 10bit 4:2:2 dal file originale 8bit 4:2:0 eseguendo l’upsampling del rosso e ottimizzando in funzione del file compresso da gopro, cosa che nessun software è in grado di eseguire
  • il software free proprietario legge i metadati della camera ed è in grado di gestire meglio la conversione da fisheys a filmato più “naturale” sfruttando i dati geometrici delle lenti goPro
  • il software free proprietario ha degli algoritmi per ottimizzare i timelapse fotografici realizzati con la gopro per fondere meglio e in modo più naturale i diversi fotogrammi.

E questo solo per dire alcune delle potenzialità che vengono regalate agli utenti gopro gratuitamente, ma che la maggior parte delle persone si perdono perchè non si prendono la briga di leggere le istruzioni o comprendere quale sia il corretto workflow di utilizzo di questa piccola ma potente camera.



Panasonic Lumix GH5 una videocamera per i fotografi 2.1

La Lumix Gh5, quinta iterazione della serie GHxx di Panasonic, è la camera più chiaccherata del momento, per caratteristiche, resa, funzionalità aggiunte, e perchè come al solito ci si lamenta sempre di ciò che non si ha…

La Lumix GH5 offre tutto quello che i filmaker hanno sempre richiesto dalle video reflex/mirrorless del passato, e molto di più,  stiamo parlando di :

  1. Riprese FullHD, UHD, 4K DCI, 6K in 4:2:0 8 bit
  2. Riprese in FHD, UHD, 4K DCI in 10bit 4:2:2 in camera codec Intra fino a 400mbit
  3. Ripresa fino a 60 fps in UHD, 180 in FHD
  4. Sensore Stabilizzato a 5 assi sempre (Sony offre 3 assi, 5 solo con ottiche dedicate) combinato con stabilizzatori delle ottiche
  5. HDMI (dimensione full) Out UHD 60fps 10 bit 4:2:2
  6. Doppio Slot SD per tutti questi tipi di file per registrazione parallela, simultanea, backup, o foto da una parte e video dall’altra.
  7. Niente filtro antialias per una nitidezza assurda d’immagine.
  8. Strumenti per Timelapse di ogni tipo di Serie
  9. Strumenti per Animazione stop motion, con Onion skin per favorire animazione
  10. Cattura con Profilo HLG per HDR 2020
  11. Cattura dell’immagine completa del sensore con funzione anamorfica per immagini assolutamente uniche.
  12. Rolling shutter estremamente basso (13ms) da essere più veloce di una telecamera (Sony Fs7 – 14 ms), per non introdurre artefatti di movimento nelle panoramiche.
  13. Sistema di regolazione del sincro per evitare flickering di monitor e luci di ogni tipo
  14. Interessante app che funge sia da controllo remoto che strumento per download e ottimizzazione foto e video per preview.
  15. Finalmente con il firmware 2.1 tethering per gestione remota da software Panasonic e sdk per aprirsi a tutti gli altri software.

Giusto per dare una idea delle caratteristiche di punta della camera, ma i suoi pro sono anche molti altri… non però così innovativi come questi.

Come mia abitudine, vediamo di capire quali sono i punti deboli che si possono leggere di questa camera, così poi andiamo in discesa con i punti forti di questo giocattolo.

Contro

  • Peso 725gr senza Sd o batteria per cui diventa più di 800gr solo il corpo macchina, uniti a una buona lente, ed eventualmente un adattatore arriviamo facilmente al kg e mezzo di prodotto. Per molte persone è un difetto, per il sottoscritto abituato alle reflex vecchia maniera o alle telecamere spallari, risulta più stabile quando si fanno riprese o fotografie. Il peso nasce dal fatto che ha un corpo tropicalizzato per gestire le situazioni più complesse, da umidità a polvere fino alle temperature più estreme.
  • Formato m4/3, il che significa sia crop 2X, sia ottiche dedicate.
    Ci sono punti di vista riguardo a questo discorso discordanti, per alcuni rappresenta un problema, per quanto mi riguarda troverete che indico il Formato m4/3 anche nei pregi e vedrete perchè.
  • Registrazione dei file h264/265 10bit 4:2:2 pesanti da gestire a livello informatico e spesso fuori standard per cui molti programmi non riconoscono i file della camera.
    I principali NLE supportano da giugno 2017 i file della camera, gli standard H264/265 prevedono file a 10bit, ma la maggior parte dei programmi non avevano implementato la lettura perchè nessuna camera realizzava questo tipo di file, ora lo stanno facendo.
    Al massimo basta convertire i file in un qualunque DI per usarli agilmente in ogni NLE, come si fa con ogni telecamera che registra in formato proprietario (diverse camere Sony e Jvc), oppure come normalmente fanno i programmi più professionali di montaggio che convertono in un codec ottimizzato per l’editing (Avid, FInalCut, Edius, Etc).
    Con l’attuale firmware 2.1 abbiamo anche una serie di formati Intraframe a 300mbit che sono di poco più leggeri come giga ad un file proresLt, il che significa che a livello di dettaglio e qualità queste codifiche inseriscono un mondo di dettagli in più, anche se richiedono costose SD da 300 mbits
  • Autofocus non eccezionale anche se per quanto mi riguarda più che buono, in video se si utilizzano le sue ottiche dedicate di qualità, come la serie powerzoom X come il 14-42, 12-35, l’autofocus video non è male se settato correttamente, sopratutto oggi con il firmware 2.1 che ha aggiunto funzioni specifiche per il video, ma ricordiamo che è un autofocus per contrasto quindi molto dipende dall’immagine su cui stiamo lavorando, nulla a che vedere con il dual focus della serie Cinema di canon, però la camera costa anche 1/3 della più economica di quelle…
  • Codifica Log a pagamento (99 euro), spedita in busta cartacea…
    sono d’accordo con Panasonic nel voler evitare che chi non ha la conoscenza tecnica dell’esposizione dei file log non danneggi le proprie riprese con esposizioni non corrette, Sony ha imparato sulla sua pelle questo tipo di lezione.
    Certo che essendo nel 2017 fare un acquisto online e poi aspettare per ricevere un codice in busta nera (non scherzo, scatola arrivata con DHL contenente una busta nera), per poi inserirlo on line con la firma hardware della camera, lo trovo alquanto imbarazzante… Non so per chi è abituato diversamente, ma compro Online da un quarto di secolo, ed è la prima volta che incontro una procedura così imbarazzante.
  • Log con curva molto custom che richiede buone conoscenze di color per estrapolare nel modo corretto colore e contrasto senza estrapolare rumore dalle immagini, ma se correttamente esposte offrono una gamma dinamica molto interessante.
  • Personalizzazioni discutibili di come funzionano alcuni strumenti, ad esempio la gestione del focus peaking tra mirino e LCD, tra mirino zoomato e senza, il fatto che non si può disabilitare dall’uscita video lo zoom che si utilizza sul mirino o sul LCD per la messa a fuoco (immaginate di registrare l’uscita video, questo vuol dire che non potete usare più la funzione di zoom perchè in camera viene registrato il segnale pieno mentre vi mostra su lcd l’immagine con zoom, ma in uscita sta nuovamente facendo lo zoom.

Dopo aver iniziato ad usarla a luglio, dopo qualche mese, con diverse prove di utilizzo sia con lenti sue che con lenti canon collegate con metabone, e con lenti prime manuali, posso dire che Panasonic ha fatto un ulteriore salto avanti sia con l’ergonomia che con la qualità generale del prodotto, dal lato fotografico a e soprattutto al lato video, con una vasta scelta di opzioni, strumenti professionali di controllo, esposizione e compressione del video a tantissimi livelli.

Se si vuole lavora con questa camera la lista della spesa può essere breve o lunga a seconda delle vostre necessità 😀



Page 1 of 13

Powered by WordPress & Theme by Anders Norén

Translate »