Tutto è possibile

Mese: Giugno 2018 Pagina 1 di 2

Torniamo indietro, fosse facile

Oggi molte aziende ci costringono ad essere ostaggi dei loro software, delle loro scelte ma soprattutto dei loro ERRORI!!!
Tempo fà i formati con cui si salvavano i progetti di postproduzione, di montaggio, di grafica avevano un minimo di retrocompatibilità, ma oggi siamo forzati ad usare l’ultima versione del programma altrimenti è impossibile leggere un file realizzato anche solo con una versione successiva.

Il problema nasce dal fatto che oggi più che 10 anni fà gli sviluppatori sono diventati delle vacche (termine italiano, mucche è un volgarismo tratto dal fiorentino ed erroneamente assurto a termine italiano pensando che sia meno volgare del termine vacca) da mungere da un programma all’altro, e quindi oltre ad avere la frustrazione di esere spostati da un programma all’altro, alla difficoltà di dover metter mano ogni 6 mesi a codice non loro e spesso non commentato, si sono impigriti e sviluppano i software sempre peggio.

Spesso sento programmatori che protestano di questa mia denominazione, ma non sanno poi rispondere di fronte all’evidenza di programmi che producono sempre più errori e problemi riversando sull’utente finale il problema di esportare il lavoro finito in condizioni decenti o combattere con tutti i bug che fanno chiudere il programma mentre uno lavora.

Molte aziende tolgono la retrocompatibilità con la scusa che nelle versioni vecchie mancano certe funzionalità, io rispondo che se nei programmi nuovi funzionassero le vecchie funzionalità, non avrei motivo di fare dei downgrade per completare il mio lavoro…

Comunque oggi vediamo un modo poco evidente di fare downgrade di progetti, per due software Adobe : After Effects e Premiere

After effects per fortuna prevede aprendo anche nella 2018 di andare su file / salva con nome
e presenta sia la versione 2014 che la cc. Non è un caso della scelta di questi due formati, infatti con la 2014 Adobe ha concluso lo sviluppo di diversi addon e software sia per Premiere che AfterEffects, ha smesso lo sviluppo multiprocessore e multicore, quindi se aprite After 2015 e lo vedete più lento, ecco spiegato il motivo…
La versione CC prevede di salvare anche per CS6, in modo da poter essere compatibili con i progetti realizzati in passato e poter collaborare con chi ancora ha deciso di continuare con un prodotto che aveva raggiunto la sua stabilità produttiva sia in stabilità che velocità.

Premiere è un programma per montatori, quindi ovviamente meno complesso di un programma di compositing, per questa ragione Adobe ha preferito evitare questa trafila, non permette proprio il salvataggio per le vecchie versioni del programma Premiere…
Esiste un trucco per ripristinare la compatibilità, un trucco banale e semplice, ma pochi lo conoscono :

Il file di premiere è un xml compresso con Gzip, quindi è possibile editarlo con un banale editor di testi. Di default un file Premiere viene salvato con estensione “prproj”, ma rinominandolo “.zip” sarà possibile scompattare e leggere il file di testo contenuto in esso. Aprendolo con un editor xml o di testo che non alteri il formato, dal semplice text edit di windows all’editor di testi del mac, basta cambiare nella quarta riga la voce finale di version al valore 1, da

<Project ObjectID="1" ClassID="62ad66dd-0dcd-42da-a660-6d8fbde94876" Version="33">

a

<Project ObjectID="1" ClassID="62ad66dd-0dcd-42da-a660-6d8fbde94876" Version="1">

in questo modo all’apertura premiere penserà che sia un file del primo premiere, leggerà tutto quello che può interpretare e scarterà le voci non conosciute, permettendoci di aprire il file in ogni versione di premiere windows e mac.

Importante è rimettere (senza ricomprimere non serve e se non usate gzip darà errore) l’estensione “.prproj”.

Una informazione banale ma non troppo è che il sistema cloud prevede di installare le vecchie versioni dei pacchetti, ma non in contemporanea, il che comporta diversi disagi e tempi pressochè infiniti, ammenochè… voi non torniate indietro nel tempo e utilizzate i metodi vecchia scuola, ovvero l’installer…

apparentemente Adobe non rende disponibile direttamente gli installer dei vari pacchetti della cloud, ma per fortuna esiste un sito dove abbiamo la possibilità di trovare i link ufficiali sul sito Adobe per scaricare le diverse versioni dei programmi della suite Cloud.


戻ろう、それは簡単だった

今日、多くの企業は、私たちがソフトウェア、彼らの選択に人質になることを強制しますが、何よりも彼らのERRORS!!!
時間は、あなたがポストプロダクションプロジェクト、アセンブリ、グラフィックスを保存したフォーマットは、下位互換性の最小値を持っていたが、今日、我々は、それ以外の場合は、新しいバージョンで作られたファイルを読み取ることは不可能であるプログラムの最新バージョンを使用することを余儀なくされています。

問題は、10年以上前に開発者が牛になったという事実から生じます(イタリア語、牛はフィレンツェから引き出された下品で、誤って不条理なイタリア語の用語は、牛という用語よりも下品ではないと考えています)、あるプログラムから別のプログラムに移されるという欲求不満を持つことに加えて、は、6ヶ月ごとに自分の手を入れて、コードを記述する必要が難しくて、しばしばコメントしていない、彼らは絡み合って、ソフトウェアがますます悪化している。

私はプログラマーが私の名前に抗議するのをよく聞きますが、エンドユーザーに完成した作業をまともな条件でエクスポートしたり、プログラムを閉じさせるバグと戦ったりする問題をエンドユーザーに注ぐことによって、より多くのエラーや問題を引き起こすプログラムの証拠に直面してどのように対応するか分かりません。

多くの企業は、古いバージョンでは特定の機能が欠落しているという言い訳との互換性を取り戻し、古い機能が新しいプログラムで機能した場合、私は私の仕事を完了するためにダウングレードする理由がないと答えます.

しかし、今日、我々は2 Adobeソフトウェアのために、プロジェクトをダウングレードする方法を見る:アフターエフェクトとプレミア

効果の後幸いにもファイルに行くために2018年にも開く/名前で保存
2014 と cc の両方のバージョンを提示します。実際、2014 AdobeはPremiereとAfterEffectsの両方のための異なるアドオンとソフトウェアの開発を終えており、マルチプロセッサとマルチコア開発を停止しているので、2015年以降に開いて遅く見ると、ここに理由があります。
CC版は、過去に行われたプロジェクトと互換性を持ち、安定性とスピードの両面で生産安定性を達成した製品を継続することを決めた人々と協力できるように、CS6のために保存する予定です。

Premiereはエディタのためのプログラムなので、明らかにコンポジットプログラムよりも複雑ではないので、Adobeはこの描画を避けることを好んだため、以前のバージョンのPremiereプログラムの保存はできません。
互換性を回復するためのトリックがあります, 些細な簡単なトリック, しかし、いくつかはそれを知っています:

Premiere ファイルは Gzip を使用した圧縮された xml なので、簡単なテキスト エディタで編集できます。デフォルトでは、Premiereファイルは拡張子"prproj"で保存されますが、名前を「zip」と変更すると、その中に含まれるテキストファイルを解凍して読み取ることができます。フォーマットを変更しないxmlまたはテキストエディタで開くと、ウィンドウの簡単なテキスト編集からMacテキストエディタまで、バージョンの最終エントリを4行目の値1に変更するだけです。

<Project ObjectID="1" ClassID="62ad66dd-0dcd-42da-a660-6d8fbde94876" Version="33">

A

<Project ObjectID="1" ClassID="62ad66dd-0dcd-42da-a660-6d8fbde94876" Version="1">

オープニングプレミアでこのように、それは最初の初演のファイルだと思うだろう、それが解釈し、私たちは初演ウィンドウとmacの各バージョンでファイルを開くことができる、未知のエントリを破棄することができるすべてを読み取る。

重要なのは、(再圧縮は不要であり、gzipを使用しない場合はエラーになります)、拡張子".prproj"を返す必要があります。

些細な情報ですが、あまりにも多くのクラウドシステムは、パッケージの古いバージョンをインストールすることを計画しているが、同時に、いくつかの不便とほぼ無限の時間を伴う.. あなたは時間をさかのぼって、インストーラである古い学校の方法を使用しません。

アドビは、さまざまなクラウドパッケージのインストーラを直接利用できるようにしていないようですが、幸いにも、Adobeのサイト上の公式リンクを見つけて、クラウドスイートのプログラムの異なるバージョンをダウンロードする機能を持っているサイトがあります。


Ennesimo errore di Blackmagic la Pocket 4k

E’ incredibile come l’azienda australiana Blackmagic Design non impari dai suoi errori, a settembre inizierà a distribuire la pocket 4k, una cinema camera delle dimensioni di una DSLR ma con una serie di difetti incredibili per il 2018 …

  • Non ha un monitor posteriore articolato, difetto della maggior parte delle DSLR Canon e Mirrorless Sony, ma su una macchina che costa la metà o un terzo, un nono delle suddette è inaccettabile.
  • Non ha un modulo wifi, è fondamentale per poter scaricare immediatamente le foto e i video delle cineprese digitali professionale per condividerli sui social.
  • non registra formati altamente compressi e di basso campionamento colore, come tutte le altre dslr e mirrorless, si ostinano a usare solo formati di altissima qualità che occupano un sacco di spazio poco costoso…
  • ha un sensore piccolo 4/3, non sfuocherà come i sensori grandi (solita stupidaggine degli ignoranti, al contrario porta meno diffrazione a diaframmi chiusi).
  • non utilizza batterie proprietarie, ma delle comuni Canon LP-E6
  • non ha l’autofocus continuo come le telecamere da 3-4k
  • non ha gli ND integrati, come non ce l’hanno tutte le macchine fotografiche e la maggior parte delle telecamere nella fascia dei 2-3k
  • non ha solo un jack da 3,5 mm come tutte le camere ma anche questo strano miniXLR che psicologicamente mi costringe a comprare un cavo nuovo e più spesso per registrare l’audio in qualità migliore.
  • posso registrare anche via usb c, ma mi devo organizzare con un box e un hd esterno, che scomodo poter scrivere file di altissima qualità su un economico ssd esterno…
  • non ha il sensore stabilizzato, come la maggior parte delle dslr e mirrorless, e pensare che la gh5s che costa il doppio e ha lo stesso sensore (ma uno stop e mezzo in meno di gamma dinamica e nessuna registrazione video raw) non ce l’ha…
  • scatta fotografie raw a solo 10 mpixel (come la sony a7s2 e la gh5s, ma per loro non è difetto, solo per questa).

Che stress questi di Blackmagic, pensano che per accontentarmi possano bastare a 1300 euro:

  • Davinci resolve Studio (300 euro di valore)
  • 13 stop di gamma dinamica
  • sensore 4/3 su attacco m4/3 (compatibilità sia meccanica che elettronica), ma minor fattore di Crop con lenti FF
  • sensore Dual Iso fino a 25600 iso di qualità come la gh5s, ma registrando questo segnale in Prores 10bit o raw a 12bit
  • Blackmagic Color science 4
  • 4k dci raw fino a 60fps
  • 2k raw fino a 120 fps
  • registrazione in rec709, log, Video Extended con supporto di 3d Lut per la simulazione in camera e scrittura con Lut applicata
  • uscita FHD hdmi full size e uscita cuffia 3,5mm
  • ingresso bilanciato mini XLR, mic In 3,5mm
  • bluetooth per controllare via app la camera come la Ursa
  • registrazione Prores 10bit o Braw a 12bit su SD, CF, USB-C verso un qualunque dispositivo che sarà riconosciuto come supporto
  • monitor di 5 pollici ultra luminoso
  • corpo in policarbonato per essere ultra leggera, ma rugged per lavorare al meglio nelle peggiori condizioni

Insomma praticamente un giocattolo, meglio una qualunque altra macchina che non spreca spazio salvando solo in h264, ha il wifi per caricare a .8 mpixel video su instagram e ha un Brand di cui si può dire che se ne è  xxxxx, scegliete voi un titolo che sia di moda dopo quello degli Ambassador 😀

Naturalmente questo post è ironico, ma trovo ridicolo che molti utenti si lamentino ancor prima di vederla dal vivo, che sia uscita sul mercato, di problematiche che hanno quasi tutte le altre camere, che magari costano il doppio o il triplo del prezzo di uscita, o che abbiano disdetto il pre-acquisto perchè hanno aspettato troppo (scrivo questo a giugno 2018 e fin dall’inizio era stato dichiarato che la prevendita prevedeva la spedizione a fine settembre).
Non vedo l’ora di vedere gente scontenta che me la venderà usata 5 ore o poco più con notevole risparmio (da buon genovese).
Aggiorno l’articolo con qualche immagine estratta da filmati girati in Braw (quell’orribile codec raw di cui tutti lamentano la bassa definizione e qualità) dalla Pocket4k, che offre veramente prestazioni imbarazzanti, soprattutto in Lowlight dove le altre blackmagic hanno sempre avuto problemi.


Ti esporto il file originale… magari in raw

In un mondo dove tutto viene definito “liquido” perché di moda, e non perché la musica, i video, i generi sessuali siano diventati dei fluidi semplici o newtoniani (questa battuta la possono capire in pochi, dovete essere geek o nerd like me, o amare TheBigBangTheory), ho pensato di scrivere due righe sulla superficialità moderna dei passaggi di dati.

Lo spunto di questo articolo nasce da una telefonata sfogo di un amico, che mi raccontava di come un cliente abbia pensato di scavalcarlo, usando una preview di WhatsApp facendola convertire in DCP per il cinema e asserendo che si vede bene, pur di risparmiare la spesa della conversione dal master non compresso… ora se il cliente non vede la differenza, mi spiace per il mio amico, ma sono contento che lo perda come cliente, perché non è in grado né di apprezzare il lavoro del mio amico, professionista da quasi un paio di decenni per il video, né comprende il valore di ciò che gli veniva offerto da questa persona (specialista nel colore e vincitore di un David di Donatello per la CC).

Per chi è del mestiere quello che ho scritto qui sopra fa venire i brividi, ma troppe persone, anche persone di un certo calibro, non sono in grado di percepire e distinguere la qualità, il lavoro che sta dietro a ciò che fruiscono, il concetto moderno è :”purché si veda” purché si senta”.

Un file video ha delle caratteristiche di risoluzione in pixel, di informazioni colore, numero di colori disponibili, uno spazio colore nel quale viene riprodotta l’immagine, un audio con caratteristiche specifiche di campionamento, dettaglio del suono, dinamica etc.

Ogni elaborazione può o non può conservare tali informazioni, se non trattate in modo adeguato ci sono dei decadimenti più o meno evidenti delle informazioni, ci sono perdite non apprezzabili dalla maggior parte delle persone, perdite relative a differenze di colore, di gamma dinamica, di sfumature sonore, mentre altri tipi di decadimenti sono più evidenti. La cosa impressionante è che nel tempo la sensibilità a determinati difetti è decaduta, in funzione dell’esposizione a immagini o musica di basso livello, mentre si è alzata la sensibilità a vecchi difetti dei nastri, che prima erano scontati e quindi ignorati dal cervello, mentre oggi sembrano difetti inaccettabili.

per alcune persone questa immagine da nastro con definizione scarsa con sfuocatura orizzontale è inaccettabile, ma sono abituati a vedere un altro tipo di immagini difettose da download illegale o streaming difettoso e non se ne lamentano. Tutto questo perchè il digitale terrestre, con la sua mancanza di una cache da 5cent comporta difetti, freeze frame e blocking assurdi, lo streaming e il download selvaggio hanno abituato le persone alla bassa qualità, quindi l’abitudine comporta una accettazione del livello qualitativo e l’incapacità di distinguere una buona immagine da una immagine di scarsa qualità.

Di recente sono usciti dei bellissimi Bluray4k da dare in pasto a splendidi televisori 4k, peccato che ad una veloce analisi su IMDB, il riferimento ufficiale del cinema, tutti questi film quando andava bene sono stati ripresi in 2,7k con Alexa, e masterizzati in 2K per il cinema, quindi dubito fortemente che abbiano rifatto i master, i compositing e i rendering 3d solo per dei bluray4k che nessuno sta comprando… e anche se avessero fatto un mastering per il 4k, la sorgente non lo era, ma tanto nessuno lo potrà notare… il perchè l’ho spiegato in un altro articolo, ma questo discorso per iniziare a riflettere su come tutto sia relativo.

Parliamo della musica? gli amanti del vinile e dell’audio assoluto… ma loro hanno idea di come siano stati creati quei vinili? se sono prodotti vintage ok, ma se sono prodotti moderni sono stati immessi in sistemi che hanno tagliato le frequenze registrando in digitale con un campionamento medio alto, tanto chi ascolterà questo materiale lo farà passare per amplificatori che rielaborano il segnale, riempiendo i buchi, oppure più banalmente la fonte sarà un mp3 scaricato da youtube, ascoltato poi con cuffiette su cellulare, e quindi…

Ironicamente è inaccettabile per molte persone sentire il fruscio di un vecchio nastro, ma va bene un file compresso in cui sono state massacrate le frequenze, in cui mancano completamente determinate parti del segnale, nel caso di strumenti musicali sembrano assenti certi strumenti perchè tagliati fuori dalla compressione.


the Best of Sharpness, l’acutezza, la nitidezza e tutto il resto… o forse no

Nippon Kogaku 35mm 2.0 su sensore 4k

Oggi con la fisima della nitidezza e della definizione inoculata dal marketing, se non abbiamo un telefono che riprende in 8k (per mostrarlo sul display magari neanche fullhd, compresso), se non facciamo riprese panoramiche da 12k (combo di Newyork girato con 3 red 8k), non abbiamo immagini definite.

Dall’altra parte abbiamo persone che fanno studi scientifici sulla capacità visiva dell’occhio e confrontando in modo diretto le immagini delle diverse camere dimostrano che a parità di pixel non è detto che abbiamo realmente immagini più definite, anzi in certi casi diventa il contrario, motivo per cui Arriflex con la sua Alexa, 2,7k e 3.4k in openGate spesso offre immagini più nitide di quelle catturate con cineprese digitali 8k.

Senza fare il pixel peeper, lasciando queste seghe mentali ad altre persone, visto che il mio obiettivo primario è la narrazione per immagini, vediamo di capire brevemente quali sono i fattori che permettono di esprimere al meglio la nitidezza e l’acutezza di una ripresa (indipendentemente da fattori umani).

fattore 1 : la lente

 

La lente può (condizionale) determinare la qualità dell’immagine perchè è il sistema con cui si cattura la luce, la focalizza e la proietta sul piano focale (pellicola o sensore). La qualità delle lenti oggi è abbastanza lineare, per cui la differenza può essere la luminosità della lente, ma usata nel modo corretto (vedi il fattore 2), una lente media offre una buona definizione senza dare grandi limitazioni sulla nitidezza, a patto che :

  • la lente sia pulita e non abbia elementi estranei sopra
  • che non ci sia luce laterale (non protetta da paraluce e mattebox) che abbatte il contrasto
  • che non ci siano filtri di bassa qualità che riducono la definizione iniziale della lente, spesso si usano filtri neutri di qualità non ottimale, che riducendo la luce la diffondono togliendo nitidezza all’immagine originale.
  • che sia correttamente calibrata per proiettare sul sensore l’immagine (alcune lenti soffrono di problemi di pre/back focus, ovvero l’immagine viene proiettata poco prima o poco dopo il piano focale, quindi per centesimi di mm di tolleranza l’immagine è più morbida perchè non allineata col piano focale
  • che la lente sia perfettamente allineata (in alcuni casi le lenti possono essere leggermente angolate rispetto al piano focale causando una perdita di definizione su uno dei lati in alto, o in basso, o a destra, o a sinistra.

In un precedente articolo avevo fatto una disanima tra diverse lenti, da lenti vintage a lenti medie, e una lente di fascia più alta senza riscontrare una differenza di nitidezza percepibile nell’uso comparato: stesso diaframma, stessa situazione, stesso sensore, stesso soggetto.

fattore 2 : il diaframma

Quando si gestisce la ripresa troppe persone dimenticano che le regole di fotografia valgono sempre, indipendentemente dalla qualità dell’attrezzatura. Molti oggi sanno che il diaframma gestisce la luce in ingresso definendo se farne entrare tanta o poca, e di conseguenza alterando anche la profondità di campo. Ho spiegato in modo più esteso in un altro articolo sull’esposizione questo discorso, ma in molti non sanno come cambiando il diaframma si possa entrare in un campo di alterazione della luce che genera la DIFFRAZIONE e come possa essere il limite della propria ripresa.

In breve cosa è la diffrazione?

Quando si chiude il diaframma di un valore maggiore di X il dettaglio di luce proiettato sul diaframma non si concentra ma si diffonde, per cui un punto chiaro su una superficie scura non è più nitido ma sfuocato. Tradotto in soldoni c’è troppa luce e chiudo il diaframma pensando di ridurla, ma man mano che chiudo il diaframma perdo nitidezza, quindi a diaframma 22 la stessa immagine sarà sfuocata rispetto a diaframma 11 come se avessimo applicato un filtro di diffusione o di blur.

Come si gestisce la diffrazione?

Dato che la diffrazione appare da un certo diaframma in poi si tratta di scoprire quale sia il diaframma limite della propria lente, in funzione del proprio sensore. Un semplice e comodo calcolatore di diffrazione lo potete trovare in questo interessante articolo sulle lenti e le loro caratteristiche.

Comunque per semplificare la vita a molti di noi, una semplice tabella per avere un riferimento, poi da lente a lente può esserci più tolleranza.
Risoluzione vs Dimensione

Risoluzione Sensore Sensore 4/3 Sensore s35 Sensore 24×36
FULL HD f/18 f/26 f/32
4k f/9.9 f/12 f/18
4.6k (UMP) f/11
5.7k (eva1) f/8.8
8k (Red Helium) f/9.4

Come si può notare non si parla di diaframmi particolarmente chiusi, se non alle basse risoluzioni, il che diventa particolarmente divertente notare come con l’aumentare della risoluzione si abbassa la possibilità di chiudere il diaframma, altrimenti si crea diffrazione, catturando una immagine progressivamente più sfuocata pur aumentando il numero di pixel catturati. Attenzione che per risoluzione si intende la risoluzione del sensore, non della cattura del filmato, perchè la dimensione dei fotodiodi o dell’elemento che cattura la luce influenza in modo diretto la nitidezza delle immagini.

Per questa ragione quando si lavora con le cineprese digitali il filtro neutro è un elemento fondamentale e indispensabile per preservare la nitidezza originale, e contrariamente a quello che credono molte persone, le dslr non sono così comode avendo un gran numero di pixel da cui ricavare un formato fhd, perchè se usiamo una fotocamera che registra in fhd ma il sensore è un 24mpx, quello è il limite da usare per scegliere il diaframma di ripresa e mantenere il massimo della nitidezza possibile, a questo proposito la mirrorless ottimale per il video è quella creata da sony nella serie A7s perchè pur usando un sensore fullframe ha una risoluzione di ripresa corrispondente all’output, ovvero 4k, e quindi meno sensibile alla diffrazione di una A7r che con 36 e 54 mpx tenderà ad avere il triplo e il quintuplo dei problemi.

fattore 3: il sensore

 

Il sensore, la sua tipologia, la sua risoluzione possono influenzare la nitidezza catturata, quindi ovviamente se il sensore è a misura della risoluzione di uscita il risultato sarà migliore. La maggior parte dei sensori sono strutturati da una matrice detta Bayer, nella quale si cattura un segnale monocromatico e poi filtrandolo si ricavano i colori, per cui abbiamo il verde che rappresenta la luminanza che possiede buona parte delle informazioni, mentre gli altri due colori sono ricavati ecatturati parzialmente, per cui si dice che comunque un sensore xK abbia una reale risoluzione di 2/3 dei K originali e poi venga fatto l’upsampling effettivo dei pixel. Il che tecnicamente è vero, ma non è un reale problema. Esistono sensori fatti come wafer dei tre sensori (uno per colore) che catturano separatamente le componenti colore RGB che spesso offrono immagini di ottima nitidezza. Esiste poi la scuola di pensiero del downsampling, ovvero catturiamo con un sensore di dimensioni maggiori, ad esempio 4.6k, 5,7k e poi da questo ricaviamo alla fine un segnale in 4k o 2k o fhd, in modo da sovracampionare le informazioni e avere una maggior precisione e dettaglio. La semplice prova di forza o applicazione muscolare degli X k non è fonte sicura di qualità o di dettaglio, inoltre con l’aumentare della risoluzione e non delle dimensioni del sensore incontriamo il problema della Diffrazione (come abbiamo visto prima), e il problema della sensibilità, perchè la stessa lente deve distribuire la stessa luce su un numero maggiore di fotorecettori, quindi ogni elemento riceve meno luce o con meno intensità.

A livello teorico maggior numero di pixel correttamente gestiti nella cattura può corrispondere ad un maggior numero di dettagli, a patto che utilizzi la risoluzione reale del sensore, cioè i pixel catturati siano esattamente la matrice del sensore.
Le eventuali elaborazione del segnale prima della registrazione (raw o sviluppata) possono inficiare la nitidezza del segnale. Esistono diversi tipi di amplificazione del segnale e durante quella fase (analogica o digitale) si può alterare la percezione di nitidezza.

fattore 4: la compressione

Una volta catturate le informazioni, queste devono essere in qualche modo registrate, e pur partendo da sensori con un’alta capacità di cattura di dettaglio, o d’informazioni (spesso 16bit lineari) poi la registrazione delle informazioni viene ridotta a 14-12bit raw o 10bit compressi con algoritmi varii che per ridurre il peso dei file andrà a alterare in modo più o meno significativo le nitidezza delle immagini. Ogni camera ha i suoi algoritmi di compressione, molti nelle cineprese si basano sul concetto della compressione wavelet, che sia raw o no, per impedire la formazione di blocchi di tipologia più “digitale” come la compressione mpeg che genera blocchi di dati a matrici quadrate, questo ottimo tipo di trasformata nel momento in cui si comprimono i dati tende man mano che si aumenta la compressione a rendere più morbido il filmato. Naturalmente quando si parla di morbidezza parliamo di finezze, non certo di avere immagini sfuocate. Molti Dop quando usano le camere Red scelgono di usare compressioni più o meno spinte in alternativa all’uso di alcuni filtri diffusori per rendere più piacevoli le immagini.

Quindi facendo una ripresa o una fotografia, non possiamo strizzare i dati in poco spazio e pretendere di avere il massimo delle informazioni, del dettaglio, della definizione. La scelta dei formati di compressione è molto importante e conoscere le differenze tra i diversi formati di compressione e le loro tecnologie applicate alle diverse camere è importante per poter gestire correttamente la qualità di partenza iniziale. Alcuni formati a compressione maggiore (h264/5) generano artefatti a blocchi, mentre le gestioni dei formati wavelet possono ridurre la nitidezza dell’immagine man mano che si aumenta la compressione, ma in modo molto leggero, tanto che molte compressioni wavelet vengono definite visually lossless

fattore 5: la lavorazione

Le lavorazioni dei file possono alterare la percezione della nitidezza se vengono create più generazioni dei file originali non utilizzando formati DI di qualità per lo scambio e l’esportazione dei materiali. L’applicazione di effetti o lavorazioni con sistemi non professionali può causare ricompressioni non volute, downscaling e downsampling colore che possono influenzare la nitidezza originale. Inoltre ci sono fasi molto delicate come il denoise che in certi casi può essere troppo forte o troppo aggressivo e come tale tende a mangiare non solo il rumore, ma anche il dettaglio fine.

fattore 6: il delivery

Un fattore poco conosciuto è la scalatura dinamica dei flussi video, soprattutto quando si guardano i film in streaming legale. Il file alla fonte ha una risoluzione e una compressione, ma durante la trasmissione se ci sono problemi di segnale, rallentamenti, problematiche varie il segnale viene istantaneamente scalato per impedire che il filmato vada a scatti o in qualche modo possa influire sulla visione generale, quindi da una scena all’altra potrebbero esserci delle variazioni consistenti della qualità e i sistemi di contrasto dinamico andrebbero ad amplificare ulteriormente i bassi dettagli. Se abbiamo un prodotto stabile e lineare come un bluray o un bluray 4k abbiamo la certezza che la qualità sarà sempre costante, mentre se usiamo una distribuzione differente delle perdite di qualità potrebbero essere causate dalla trasmissione variabile.

fattore 7: la fruizione

Un fattore che tanti sottovalutano, spesso causa del danno finale, sono i metodi di fruizione del materiale video. A partire dal dispositivo di visione, che spesso altera in modo più meno significativo l’immagine, vedi l’articolo sui televisori da telenovelas, al metodo di gestione delle informazioni. Quando vediamo una immagine non sappiano se il pannello è a misura per l’immagine che stiamo vedendo, il che può essere causa di alterazione di vario tipo, perchè dovrà essere scalata in realtime con diversi algoritmi più o meno efficienti nel mantenere il dettaglio o perderlo. Spesso abbiamo televisori 4k che mostrano materiale fhd (1/4 delle informazioni) o peggio sd (1/16 delle informazioni). Il danno però nasce dal fatto che tutti questi televisori applicano le funzioni di oversampling anche quando una immagine ha realmente la dimensione del pannello, quindi anche se apparentemente sembrano ancora più nitide, in realtà gli effetti dei vari algoritmi di sharpening tendono a creare nuovi “FINTI” dettagli che sovrascrivono e cancellano i dettagli originali.

Spesso ci sono tanti parametri attivati a nostra insaputa, o peggio abbiamo la difficoltà di disabilitarli, perchè solo in determinate combinazioni di visione sono modificabili. Ci sono prodotti di fascia alta che è possibile disabilitare le maschere di contrasto e i vari algoritmi di contrasto solo con i segnali in ingresso HDMI, non per i segnali interni o da stream internet interno… il che è può essere imbarazzante con i segnali 4k da Netflix che sono ottimi e non richiedono ulteriori process, anzi…

 


Pagina 1 di 2

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!