Carlo Macchiavello

Tutto è possibile

H264 standard… mica tanto

Spesso mi sento dire, mi faccia un mp4 che è standard … sorrido e creo un file che so essere compatibile con le esigenze del cliente.

Una volta era più facile distribuire un video, perché i supporti erano più limitati a vhs o dvd, con due standard video PAL o NTSC per distribuire in tutto il mondo.

Oggi ci sono mille e più varianti, ad esempio se si fornisce un supporto solido come il Blu-ray ci sono quelle che vengono indicate come le specifiche di base, e le varianti di formato… che ogni anno cambiano sul sito ufficiale del consorzio, perché a seconda del lettore da tavolo potrebbe essere supportata o no la variante, non dipende dalla data di produzione, o dal brand, anzi alle volte prodotti di marchi meno noti supportano più formati di altri più blasonati.

Lo standard del Blu-ray nasce a 24 fotogrammi al secondo, per rispettare la naturale creazione dei film, senza alterazioni su durata della parte video o alterazione sulla parte audio. Poco dopo la sua nascita è stato subito aggiunto il 23,976 per supportare più facilmente la riproduzione nel mondo Americano e Giapponese (NTSC a 60 hrz). Il codec di compressione di nascita era l’mpeg2 come il dvd (anche se con una variante dedicata all’alta definizione) anche se quasi subito fu introdotto il formato H264 (variante del codec mpeg 4), poi di recente aggiornato al suo successore H265.

Oggi il Blu-ray supporta dal 23,976 24 25 29,97 30 48 50 59,94 60, e neanche tutti in stream progressivo, ma alcuni solo in stream interlacciato per questioni di compatibilità.

Questo per dire come un prodotto che nasceva per uniformare e offrire il massimo della qualità della visione casalinga senza “interpretazioni” si è trasformato nell’insalata dei formati. Inoltre a seconda del monitor, televisore o proiettore su cui si vedono i risultati le immagini saranno più o meno fluidi o naturali.

Quando ci viene chiesto un H264 standard ci viene chiesto il nulla, perché lo standard è molto ampio e a seconda del dispositivo con cui verrà letto verrà INTERPRETATO in modo più i meno fedele.

Lo standard H264 prevede di registrare da un minimo di un segnale 8 bit 4:2:0 ad una serie di informazioni fino a 12bit 4:4:4, cambiare le impostazioni di codifica punto per punto del filmato, gestire più flussi video sovrapposti, alpha, riproduzioni parziali dei dati, cioè ottimizzare in lettura una scalabilità 1:2,1:3,1:4 etc dei pixel, inglobare codice, indici di capitoli, aree sensibili con dati a link e molto altro ancora; peccato che quasi nessun encoder sfrutti tutte queste caratteristiche.

Quando si crea un file H264 la maggior parte degli encoder ci permette solo di impostare il tipo di compressione e i profili, ma niente di più.

Ironicamente invece di usare un prodotto commerciale, la soluzione più versatile anche se meno comoda è il prodotto freeware ffmpeg, un programma a comando di linea che supporta praticamente tutte le funzioni di moltissimo codec sia in ingresso che uscita, ed è disponibile su tutti i principali sistemi operativi, sono state sviluppate diverse interfacce per utilizzare in modo più comodo e flessibile il prodotto.

Considerato che chi arriva ad un articolo di questo tipo di aspetta un suggerimento sugli “standard” vi posso dare dei suggerimenti su come affrontare il discorso e cosa scegliere come impostazioni e cosa influenza qualità e “compatibilità”.

⁃ Riproduzione da televisore o decoder o player multimediale

⁃ Riproduzione da computer diretto

⁃ Caricamento online

Anche se sono le situazioni più comuni in realtà aprono mille e più situazioni e varianti, perché in realtà la questione della riproduzione è al 50% dipendente dal file e al 50% dal sistema di riproduzione.

Quando si crea un file “classico” si sceglie la risoluzione, i fotogrammi al secondo, il bitrate e se questo è fisso o variabile.

In generale si deve creare un equilibrio tra i dati al secondo letto dal dispositivo e la qualità finale, questo significa che se si sceglie una compressione fissa vuol dire che ogni fotogramma avrà la stessa quantità di informazioni registrabili, immaginiamo 2000, ma se ho un fotogramma di una persona davanti ad un muro bianco tutti i dettagli vengono dedicati alla persona, se ho 20 persone gli stessi dati vengono “divisi” per registrare, quindi ogni persona al max avrà 100 per registrare i dettagli, quindi l’immagine sarà meno dettagliata.

Questo sistema permette di avere i seguenti caratteristiche:

⁃ Funziona anche su dispositivi più semplici

⁃ Prevedibilità della dimensione finale del file.

⁃ Per migliorare la qualità basta alzare il bitrate globale (entro certi limiti).

⁃ Per migliorare la compatibilità con i vecchi dispositivi basta abbassare il bitrate.

⁃ Non si notano jittering di decodifica dei movimenti perché i fotogrammi non devono essere creati ma sono tutti completi.

Se si sceglie una compressione variabile si imposta un range di dati minimo e massimo, per cui il sistema di compressione esegue due livelli di compressione, sia creando un frame Delta e un frame parziale per cui vengono creati dei gruppi di fotogrammi, con la logica di creare il primo frame intero, il secondo frame memorizza solo la differenza tra il primo e il secondo, il terzo la differenza tra il secondo e il terzo e così via fino al prossimo fotogramma Delta.

Il secondo livello di compressione variabile si preoccupa di distribuire una quantità di dati del gruppo in funzione delle necessità, di quanti dati sono necessari fotogramma per fotogramma, ottimizzando peso e qualità.

Il risultato ha caratteristiche differenti rispetto al primo metodo :

⁃ Con lo stesso bitrate massimale la qualità può essere notevolmente migliore

⁃ Lo stream dei dati è più efficiente via rete

Ma ci sono dei contro :

⁃ Questa lettura chiede cache più grandi e dispositivi più potenti perché i fotogrammi sono creati al volo, non esistono completamente

⁃ Se si vuole andare avanti e indietro nel filmato la richiesta di memoria e potenza sale

⁃ Alcuni tipi di filmati e movimenti possono con alcuni encoder dare risultati peggiori che il primo metodo perché da frame a frame sarà meno coerente come struttura e forma (se si lavora solo con bitrate molto bassi)

⁃ In caso di problemi di stream dei dati si possono vedere dei salti nei movimenti veloci, causando una visione a scatti.

⁃ Su dispositivi più vecchi possono esserci riproduzioni di artefatti (blocchi di movimento etc) che non sono presenti nel filmato originale.

In conclusione :

A seconda del dispositivo più o meno recente si deve creare un h264 con il primo metodo e bitrate bassi se si vuole vedere su ogni dispositivo vecchio e/o poco potente come molti smartphone di basso livello; con dispositivi moderni si può creare video col secondo metodo che a parità di peso offrirà una qualità superiore e con dettaglio e sfumature più efficienti.

 



Il digitale ha complicato tutto, una volta era più facile

Sorrido quando sento queste parole, da persone che hanno o la metà dei miei anni (e non sanno di cosa parlano), o sono miei coetanei o poco più (ma probabilmente si sono giocati i neuroni avendo dimenticato la realtà di 10-20-30 anni fà, per essere ottimista e non voler pensare che fossero troppo faciloni e superficiali nel loro lavoro).

Oggi troppe persone usano queste parole quando si parla del digitale, perchè sono pigri e non vogliono fare delle normali procedure che si sono sempre fatte, ma che non ne sono a conoscenza o non se le ricordano…

Facciamo il bianco, che noia

Tanti operatori sono così pigri da non farlo o lasciarlo in automatico sbilanciando tutta l’immagine, o spesso rovinando la gamma dinamica della camera catturando nel modo sbagliato l’immagine con la scusa che

  • non c’è tempo per farlo – ci vogliono tra 5 e i 7 secondi
  • non ho niente di bianco – basta un qualunque oggetto bianco, dal fazzoletto ad un oggetto grigio, oppure ci sono i tappi bianchi per ogni tipo di lente per farlo al volo.
  • tanto si corregge in post – ma tutta la gamma dei colori viene alterata se non corretta in più punti, quindi tanto lavoro in più per la pigrizia di non fare una operazione di 5-7 secondi in camera.
  • una volta non si faceva – questa è la cosa più errata, si è sempre fatto il bianco, con ogni tipo di camera, quindi quando sento dire questo capisco che erano i responsabili di quelle immagini orribili che arrivavano in montaggio e si doveva fare i salti mortali con i sistemi analogici per correggere un poco le dominanti.
  • con la pellicola non si fa – altra balla degli ignoranti, la pellicola è sempre stata tarata per una determinata temperatura colore, poi nel caso si doveva usare uno stock di pellicola con una luce artificiale di temperatura diversa o altro, allora ci sono sempre stati (i primi sono degli anni 30) i filtri di correzione da luce artificiale a diurna e viceversa
Adesso con le telecamere devo controllare tutto e la checklist di quello che devo fare è lunghissima

Questa è la frase più imbarazzante che mi capita di sentire, perchè vuol dire che o non hanno mai lavorato nel broadcast o nel cinema, oppure erano dei dilettanti…

nel 1995, quindi più di vent’anni fà, se si usava una telecamera broadcast come minimo si doveva settare e gestire :

  • bianco
  • fare le barre
  • pistare il nastro
  • controllare piede e ginocchio dei setup della camera
  • che tutti i cablaggi fossero a posto
  • che gli audio andassero tutti sui canali corretti (altrimenti c’erano gli operatori che già dicevano, ma tanto basta spostare sul patchpanel le connessioni… peccato che in un ambito broadcast fosse una eresia risolvere un errore dell’operatore con un cambio setup del patchpanel dell’audio della sala di montaggio).
  • che l’ottica montata fosse ben salda, e che fosse funzionante (gli zoom engine ogni tanto ti lasciavano a piedi).
  • esporre correttamente entro le regole per l’emissione, altrimenti il nastro veniva rifiutato prima ancora di arrivare in sala edit
  • regolare l’audio entro i livelli corretti altrimenti nuovo rifiuto prima di arrivare in sala edit.
Ma il cinema era più facile no?

Partiamo dal fatto che tranne la cinepresa s8 (a cui tutti questi lamentoni fanno riferimento, perchè se avessero mai messo un piede su un set, saprebbero quanto lavoro c’era dietro) una vera cinepresa comporta lavoro, attenzione, diverse persone che stanno dietro alle diverse procedure, una checklist ben precisa.

  • Prima di ogni caricamento si controlla la meccanica, perchè se si inceppa durante una scena oltre al tempo si perde la scena
  • Prima del caricamento si controlla che la pellicola sia quella giusta, dello stock giusto, con la sensibilità giusta (altrimenti serve il filtro di conversione), della durata giusta, perchè sulle bobine la durata della bobina è x metri e si deve avere la certezza di averne abbastanza per la durata della scena, non si può certo buttare mezza bobina (perchè sono costi) o accumulare bobine mezze impressionate e aspettare le scene giuste, perchè da quando viene esposta non si può lasciare passare troppo tempo perchè il processo chimico altera la struttura, la gamma e tanti altri fattori.
  • Prima di montare si controlla i gate che sia pulito, altrimenti la polvere e la spazzatura salterà per sempre sulla pellicola, magari rovinando per sempre il girato.
  • Prima di montare si controlla sia il caricatore vuoto che tutto il percorso, un qualunque elemento estraneo potrebbe rigare la pellicola per sempre
  • Si carica alla cieca, tramite un sacco la pellicola nel caricatore e la si fa passare sui vari rocchetti della camera, se questa fase viene sbagliata, ci possono essere blocchi o danni alla pellicola o alla camera.
  • Montata la pellicola si controlla lo scorrimento con un breve test, per non rischiare la cosiddetta “insalata” ovvero la bobina salta dai rocchetti e si ammucchia a mo’ di insalata nel caricatore.
  • Montata l’ottica si controlla fluidità e movimento della messa a fuoco, che avverrà tramite un fuochista che NON vede l’immagine, ma sa quali sono le distanze a cui mettere a fuoco e alla cieca gestirà i fuochi (oggi col digitale ci sono i misuratori laser che aiutano, il monitor per il fuochista, più semplice).
  • Si controlla che il viewfinder sia ben saldo e l’oculare ben coprente, perchè durante la ripresa l’operatore potrà vedere attraverso un prisma le immagini, ma se si allontana dal viewfinder entra luce che velerà la pellicola durante la ripresa.
  • Si controlla la pulizia dell’ottica, che non ci siano elementi di sporcizia sopra
  • Una volta esposta, sempre con il famoso sacco nero si toglie la pellicola, si sigilla la pizza e la si manda al laboratorio, dove si spesa che non facciano errori o non graffino la pellicola.

Proprio uguale a oggi col digitale, dove la lista meccanica è simile, ma i controlli sono molto molto meno

  • facciamo il bianco (un click e tutto è a posto, se giro in raw posso anche dimenticarlo, anche se non è una buona abitudine)
  • controlliamo i livelli di esposizione (attivo i falsi colori e vedo tutta l’esposizione del set senza vagare con l’esposimetro, senza dover far spostare quasi a tentativi luci etc nella scena).
  • il sensore è esposto e quindi posso pulirlo a ogni cambio ottica, il gate non è la stessa cosa. Se ho sporcizia sul sensore posso notarlo facendo un semplice check con un foglio bianco illuminato dal cellulare.
  • controllo i supporti di registrazione (sono dentro, vedo la durata, mi avverte quando stanno finendo, posso avere backup di sicurezza in altro formato, posso avere doppie schede che finita una passa all’altra senza problemi di continuità, etc etc)
  • gestisco il fuoco con tanti strumenti che mi dicono  e mi fanno vedere su mirini ultranitidi o su monitor dove il fuoco si sposta con linee colorate o peaking di vario tipo.
  • verifico il girato al momento, non devo aspettare la sera per vedere che abbiamo sbagliato qualcosa
  • la copia dei materiali è identica quindi sul set posso generare x copie degli originali per proteggerli al volo, mentre con la pellicola non è possibile.

Insomma senza dover entrare in meriti ultra complessi con check del flusso di lavoro post ripresa, la parte di ripresa, le attenzioni da mettere si sono ridotte non aumentate, è la percezione delle persone che sono pigre e non voglio fare il loro lavoro pensando che tanto ci sarà chi risolverà in post e quindi posso evitare di mettere attenzione nel loro lavoro, ma non è così, e poi si lamentano che i loro prodotti non hanno la qualità per cui hanno pagato…

Quelli che invece dicono che non erano così complicate le telecamere una volta, erano quelli che consegnavano spazzatura, che non pulivano la lente, che avevano i salti di timecode sui nastri, che consegnavano card p2 con problemi o con mille girati e ti facevano perder tempo a scaricare di tutto, che avevano gli audio sui canali sbagliati o con i livelli troppo alti o troppo bassi, o che fornivano materiali per tv che non avevano un controllo qualità molto stretto.

La vera differenza tra il professionista vero e il dilettante è che il professionista riconosce le procedure, il workflow da seguire e lo segue perchè sa che fa la differenza, anche con una semplice gopro, se si lavora nel modo corretto si può estrapolare da un mp4 a 8bit 4:2:0 una buona immagine, ma si deve lavorare in log, esporla correttamente, bloccare iso, shutter etc per poter avere la CORRETTA gestione della qualità. Se la si lascia in automatico è ovvio che i parametri saranno medi, il risultato sarà medio…

Che bella cosa la compatibilità, gli aggiornamenti frequenti, di tutto…

Per chi viene dal passato dell’informatica come me, dove tutto aveva tempi biblici (per i concetti di oggi), c’è una sorta di rammarico e nostalgia ai tempi in cui per avere un aggiornamento di un programma o di un sistema passavano anni, quando i prodotti erano su supporti fisici, quando l’hardware era scarso, più limitato, dove c’erano si dei problemi, ma…

Prima di uscire una versione nuova di un sistema era testato, veramente, da persone pagate per quello, non come oggi che paghiamo per fare noi da tester, tanto poi esce la patch tra qualche giorno… e intanto diventiamo matti per chiudere i lavori perchè:

  • il sistema corrompe i dati sui dischi (un noto Os con noto marchio di dischi esterni).
  • il sistema nuovo decide che i task vanno eseguiti in stack, faccio la copia di dieci cartelle pesanti (tera) e anche se ha eseguito la metà del task, se entro nelle cartelle e modifico, aggiungo o tolgo, non vedo nulla perchè non essendo completato il task generale non fa refresh della cartella, vorrei conoscere lo sviluppatore che ha cambiato il codice (nel precedente os non era così) è un genio… del male…
  • Il sistema nuovo ha deciso che nonostante abbia bloccato da registro e da pannello di controllo gli aggiornamenti, il driver della scheda video è vecchio di 4 mesi e deve essere aggiornato, peccato che ci siano diversi bug nei driver che mi installa in automatico causandomi crash dei programmi
  • il sistema nuovo ha deciso che il driver del touchpad del portatile è vecchio e va installato quello nuovo, che non essendo compatibile con l’hardware mi costringe a usare sempre il mouse (oppure sdradico a forza il sistema e torno indietro, nonostante vogliano impedirmelo modificando il bios per renderlo incompatibile con il precedente).
  • Il sistema nuovo ha deciso che deve applicare il risparmio energetico sempre, se io apro due finestre, quella sopra è più task, quindi se metto il browser con facebook sopra un programma di rendering 3d che sta lavorando e i programmatori non hanno previsto questa logica del sistema, il programma mentre sta renderizzando perde quasi tutte le risorse di calcolo…
  • il sistema nuovo chissà come mai spesso corrompe l’utente e i dati relativi, quindi se non fossi un paranoico che salvo tutto esternamente alla struttura utente, rischierei di perdere i dati spesso e volentieri (da win 8 in poi… grazie microsoft). Ho perso il conto delle volte che è successo a me, e di quante persone gli ho recuperato i dati utente dal computer, che se va bene crea un nuovo utente, ma spesso lascia nascoste le cartelle del vecchio utente corrotto. Oggi con win10 invece avviene una procedura più drammatica, farà un ripristino alla versione precedente o altre procedure che renderanno molto più difficile recuperare l’utente perso…
    tutto causalmente per giustificare il fatto che è meglio spostare in cloud i dati così non li perdi… io rispondo dicendo così non mi li corrompete (con x metodi), non me li nascondete o cancellate (se realizzati con programma poco usato su win10 o poco aperti quindi per loro spazzatura), se non me li eliminate perchè avete perso parte della struttura database utente durante uno degli aggiornamenti inutili del sistema…
  • il sistema nuovo ha deciso di scaricare un aggiornamento, lo installa, poi si riavvia per disinstallarlo perchè non compatibile con hardware presente… fare una verifica prima no? meglio sprecare banda utente, banda server, tempo utente, che magari sta lavorando, per qualcosa che alla fine non serve…. questa non si chiama pessima programmazione, si chiama peracottaggine e quelle persone dovrebbero pagare multe per il tempo e le risorse sprecate, sia utente che microsoft.

Prima di far uscire una nuova versione di un programma si verificava che gli aggiornamenti non avessero introdotto bachi notevoli o che si fossero bloccate alcune funzionalità come accade oggi tipo :

  • L’ultima release di una suite famosa che nella comunicazione tra due programmi della suite il 50% delle funzionalità di scambio manda in crash il programma, e finchè non si riavvia il sistema, sia sotto windows che sotto mac, non si è più in grado di avviare il programma… da ex programmatore direi che qualcuno ha usato i puntatori in modo errato, ma direi anche che nessuno ha provato a usarli, visto che la funzione di scambio è un banale copia e incolla… e a mesi dal rilascio, e dalla mia segnalazione, continuano a non rilasciare patch…
  • la nuova versione di un programma che ha introdotto l’accelerazione GPU nei filtri pittorici, ma se non avete la scheda grafica giusta, i filtri stessi si disabilitano e se non potete cambiare al scheda grafica al vostro computer, dagli all in one ai portatili, avete perso quelle funzioni…
  • La versione nuova dei programmi che cambia il formato di salvataggio del progetto, e raramente si può esportare per la versione precedente così viene impedito di collaborare con chi ha versioni precedenti del programma, o se c’è qualche bug nella versione nuova, si deve ripartire da zero con quello precedente.
  • Nella nuova versione del programma non avete più la gestione multicore perchè l’azienda ritiene che non sia più importante… oggi che avendo raggiunto il limite della maggioranza delle progettazioni dei processori si viaggia sui multicore per ovviare ai limiti e ai rischi di elettromigrazione…
  • Vi viene proposto un aggiornamento, che se non leggete le descrizioni potrebbe togliervi il supporto ad un codec audio perchè hanno deciso che non vogliono più pagare la licenza a Dolby, e quindi vi dovete arrangiare..

L’hardware era più limitato, c’erano già problemi di compatibilità tanto che Windows 95 fu soprannominato Plug&Prey Os, ma non così drammatiche come oggi… i chipset stanno andando indietro invece che avanti…

  • schede madri con 4 slot pci express a piena velocità se si usa un solo slot, ma appena se ne occupano di più si dimezzano o peggio
  • porte thunderbolt che vanno in coppia, se ne uso una per un monitor, quella a fianco non è più una porta dati
  • chipset usb 3.0 che non sono compatibili con se stessi nella controparte di manager delle periferiche esterne causando sganci o peggio.
  • I sistemi operativi supportano da WinXp64 (2001) e Panther (2003) ben 1 tera di memoria, ma praticamente nessuna piastra madre possiede più di 8 slot di memoria, e i chipset non sono in grado di indirizzare più di 256 gb di ram, oggi dopo quasi vent’anni dalla possibilità di gestirne ben 4 volte tanto. Se va bene ne gestite 64 con le motherboard più spinte.
  • Si progettano sistemi multi GPU vista la spinta verso quel tipo di hardware sia nei giochi che nel professionale, ma nessun produttore di GPU considera il dettaglio, per cui poi ne potete mettere poche in un computer per problemi di raffreddamento, oppure più banalmente perchè sono talmente grandi i dissipatori che coprono i connettori vicini…
  • I dischi SSD e M2 sono sempre più veloci, offrono potenzialmente velocità quasi paragonabili alla ram, ma ci sono così tanti colli di bottiglia che sfruttare questi supporti è complesso e spesso non fino all’ultimo.
  • Le cpu negli ultimi 20 anni hanno rallentato notevolmente la loro accelerazione reale nel calcolo, perchè essendo sempre meno ottimizzati i codici per i processori, la potenza di calcolo non è realmente sfruttata. Usando test reali, con calcoli 3d su software da produzione, posso dire che prendendo una CPU tot di gamma di 10 anni fà, oggi spendendo la stessa cifra c’è circa 50% in più di velocità, peccato che dovendo spendere anche su memoria e motherboard il risultato migliore si ottiene spendendo la stessa cifra in una soluzione meno top di gamma, ma in quantità maggiore come cpu… se i programmi sfruttano i multicore e le multicpu che per fortuna i programmi di 3d fanno.
    Qualche numero più terra terra? un i7 4950k del 2012 (setup minimo 1000 euro solo processore e motherboard) da uno score di 962 punti, spendendo la stessa cifra oggi in un i7 + motherboard si ha uno score di 995 punti, dopo 6 anni…. per ottenere un risultato soddisfacente si deve andare su i9 top di gamma, per ottenere 2100 punti, ma l’investimento minimo sale a 2500 euro… quindi il rapporto aumento punti nasce dall’aumento del valore economico, non da una crescita reale della potenza dei prodotti nella stessa fascia di prezzo.

Ora tutto questo unito ad una pratica commerciale molto sleale, ovvero la non ottimizzazione di sistemi, hardware etc in modo che “ufficiosamente” si crei la obsolescenza programmata… spero che si concretizzi come in Francia che è stata fatta una legge per vietare e punire questa Politica di Marketing per forzare gli utenti a cambiare e spesso senza potenziare realmente i propri strumenti.



Il bistrattato genere Horror … la vera fucina dei talenti…

Johnny Deep in Nightmare on Elm Street

E’ ironico notare come spesso la critica parli male di un genere che dà spesso l’occasione agli attori di emergere : l’Horror

Il futuro Villain per Tarantino

Il genere spesso ricade nel low budget, soprattutto rispetto alle produzioni classiche, quindi gli attori emergenti spesso fanno delle parti nel genere dove nomi più altisonanti non sono gestibili con i budget ridotti del genere Horror.

Qualche nome? Giusto per non cadere nel generico, o parlare di attori che poi sono noti solo agli amanti del genere? E comunque ogni grande attore ha avuto la sua capatina nel genere, più o meno nobile dell’horror.

  • Leonardo di Caprio prima di essere il divo di MrGraves e Titanic combatte i criceti spaziali in Critters 3 nel 1991
  • Kate winslet, prima di salire sul Titanic per interpretare Rose, era stata una delle muse del fantahorror di Peter Jackson Creature del cielo nel 1994
  • Johnny Deep prima di essere il feticcio di Tim Burton e Jack Sparrow era una delle prime vittime di Freddy Krueger in Nightmare on Elm street del 1984
  • Winona Ryder deve il suo lancio alla commedia horror BeetleJuice di Tim Burton
  • Scarlett Johansson prima di diventare la Vedova Nera era una teenager nel film di genere Arac Attack nel 2002
  • Liam Neeson prima di essere consacrato al grande pubblico con Schindlers’ List era il dott Peyton WestLake, il supereroe horror di Sam Raimi Darkman del 1990, e ancor prima, nel 1988, nella commedia fanta horror High Spirits con Peter O’Toole e Daryl Hannah
  • Clint Eastwood esordisce nel 1955 La vendetta del mostro della laguna nera e nello stesso anno anche nel film Tarantula di Jack Arnold
  • Angelina Voight Jolie esordisce nel fantahorror del 1993 Cyborg 2 glass shadow
  • Brad Pitt esordisce giovanissimo, ma la sua stella inizia a brillare con Intervista col vampiro nel 1994 con Tom Cruise
  • Tom Cruise era già noto al grande pubblico con risky business, ma il salto di qualità lo fa diretto da Ridley Scott in Legend
  • il nostrano Zingaretti esordisce in una produzione horror italo americana Castle freak.
  • Tim Curry, istrionico, versatile artista ha attraversato ogni genere e personaggio, ma per i più resta il dott Frank-o-furter di The Rocky Horror Picture Show
  • Charlize Theron, oggi riconosciuta grande attrice dopo l’oscar di Monster e l’interpretazione in MadMax Fury Road, ha esordito in The children of the corn III
  • Robert De niro, anche se non a inizio carriera, non ha disdegnato l’interpretazione del mostro di Frankestein, in contrapposizione al dottore, interpretato da Kenneth Branagh nell’omonimo film Mary Shelley’s Frankenstein
  • John Travolta, prima delle febbre del sabato sera, faceva i suoi primi passi sul set di Carrie di Brian de Palma
  • Il grande Jack Nicholson, iniziò nel 1960 nella Piccola bottega degli orrori, per arrivare ad essere diretto da Kubrik nel 1980 in The Shining, fino a trasformarsi poi in Lupo mannaro nel 1994 in Wolf
  • Mila Kunis affronta nel 1995 in piranha per farsi largo nell’oceano del cinema
  • Kevin Bacon ha l’onore di essere una delle prime vittime di Jason nel 1980 in Venerdì 13
  • Jamie Lee Curtis è una delle prime donne che rivoluzionano l’assioma vittima carnefice nel 1978 in Halloween di John Carpenter
  • George Clooney è giovanissimo quando appare nella commedia horror Il ritorno dei pomodori assassini nel 1988
  • Tom Hanks esordisce nel 1980 in he know you are alone
  • Demi Moore, prima di ghost era nel fanta horror trash del 1980 Parasite
  • Sam Elliot nel 1972 si lancia col film Frogs
  • Sharon Stone nel 1981 viene portata alla ribalta da Wes Craven in Benedizione mortale

Insomma questa piccola carrellata per ricordare come il cinema di genere horror sia sempre stato prolifico di attori, registi, etc ma spesso si ricordano per le altre interpretazioni… dopo tutto già alla nascita del cinema si possono contare un sacco di horror, nel 1890 …



Page 1 of 19

Powered by WordPress & Theme by Anders Norén

Translate »