Tutto è possibile

Categoria: I miti da sfatare Pagina 4 di 12

In questa categoria raccolgo una serie di miti tecnici da sfatare, troppo spesso tra i passaparola, tra il copia e incolla on line, e colpevole il Web 2.0, sono nati e si sono radicati tanti miti “tecnici” per i quali non esistono rimedi, tranne che la logica e il pragmatismo nell’affrontare queste bufale…

Il caldo il nostro nemico numero 1

Siamo all’inizio dell’estate e i telegiornali si riempono di consigli su come combattere il caldo e i problemi che causa al nostro corpo, ma spesso si sottovaluta l’azione del calore sulle varie apparecchiature che utilizziamo, faccio due chiacchiere sui problemi del caldo su cineprese, lenti, hard disk, computer etc…

Quando stiamo lavorando all’aperto è facile che siamo sotto il sole, o anche se siamo sotto una tenda per proteggere le attrezzature dal sole, la temperatura sarà alta, e il rischio che le attrezzature lavorino meno bene è alquanto alta. Cerchiamo di capire quali possono essere le problematiche che possiamo incontrare.

Molti video maker sottovalutano il surriscaldamento del sensore e gli effetti di tale situazione sulla qualità delle immagini.

Partiamo dal discorso più ovvio e banale, se la camera si surriscalda troppo tende a bloccarsi o spegnersi per evitare danni all’elettronica, come tale ci impedisce di lavorare o peggiorerà la qualità delle immagini. Più il sensore è sensibile come gamma dinamica e più la camera tenderà a generare calore, non a caso molto dslr fullframe si spengono dopo x minuti di utilizzo o bloccano la registrazione per evitare danni (e non solo per il limite burocratico dei 29 minuti 59 secondi altrimenti viene messa in categoria cinepresa). Diverse telecamere tendono ad avere problemi con il surriscaldamento generando artefatti nella compressione o banalmente più rumore video se si alza la sensibilità.

E’ noto che esistono delle modifiche per le fotocamere ad uso astronomico per raffreddare in modo sensibile il sensore e ridurre la quantità di rumore generata sia nelle lunghe esposizioni che nelle riprese ad alti iso. Esistono diversi studi per molte camere dove aumentando il sistema di raffreddamento il rumore originale tende a ridursi in modo molto sensibile, pur lavorando nella stessa identica condizione.

Una cinepresa digitale ha il suo sistema di raffreddamento e più si va in alto con la categoria (Arriflex e Red) hanno sistemi di stabilizzazione della temperatura del sensore per cui l’oscillazione possibile è di frazioni di un grado per offrire il meglio delle immagini. La prossima volta che faremo una ripresa con una qualunque camera (escluse le suddette fasce alte), potrebbe essere utile scoprire quale sia la sua miglior temperatura di utilizzo per capire meglio le diverse risposte di resa del dettaglio e cromatica.

Quindi quando si legge che una camera lavora da -20 a +45 gradi, questo non si significa che funzionerà al meglio, ma semplicemente che può funzionare in quelle condizioni.

Qualcuno potrebbe aver notato che non tutte le lenti sono con la cover nera, soprattutto le lenti più “ingombranti” esistono in “bianco”. D’estate, sotto il sole una lente completamente nera attira il calore, e il calore significa dilatazione termica degli elementi. Con la dilatazione delle lenti, dei meccanismi interni, delle ghiere etc possono bloccarsi o danneggiarsi. éer questa ragione alcuni produttori realizzano una versione chiara per ridurre il surriscaldamento delle suddette lenti. Indipendentemente dalla “vestizione” le lenti fanno parte di quegli oggetti che non devono surriscaldarsi, e se prendono meno sole possibile fa solo bene alla vita e alla durata di questi prodotti.

Anche avvitare dei semplici filtri, se la filettatura si è surriscaldata, può diventare un’impresa perchè bastano pochi decimi di mm di dilatazione per non far funzionare la filettatura. Sotto il sole i filtri neutri o i filtri neutri graduali sono indispensabili per poter fare una ripresa esposta correttamente, per cui è importante proteggere le lenti dalle alte temperature, alle volte basta poco, una maglietta bianca o un fazzoletto posto sulla lente mentre non la usiamo per controllare il surriscaldamento.

I supporti sono robusti, le card reggono temperature molto estreme, reggono, non significa che funzionano a temperature molto estreme… quando si sottopongono le card SD e CF a temperature molto calde c’è il rischio che la dilatazione termica possa creare falsi contatti o problemi di contatti mentre state facendo la ripresa della vostra vita.

Lo stesso discorso può essere applicato anche ai dischi nel momento in cui dovrete praticare il backup e la copia dei materiali sui dischi esterni.

Tutti i dischi meccanici si basano sulla scrittura magnetica con puntine che stanno in prossimità della superficie del disco. Se sopponiamo un disco a temperature più alte, possiamo avere più punti deboli della catena di trasmissione e registrazione dei dati:

  • il disco magnetico se dilatato dall’alta temperatura potrebbe scrivere i dati con una leggera sfasatura di posizione rispetto alle indicazioni date dal firmware del disco, e quindi essere non leggibile in rilettura a temperatura di normale esercizio.
  • il surriscaldamento del meccanismo di spostamento dei bracci può creare degli scontri tra i bracci e gli elementi intorno a se (un vecchio modello wd che conservo come esempio di pessima progettazione…)
  • il surriscaldamento dei chipset di controllo del disco può corrompere i dati in scrittura, per cui è sempre importante fare copie dei dati con un software di verifica MD, in modo che durante la copia il software ricontrolla i dati scritti (se non avete o non sapete quale software scegliere, la versione free di DavinciResolve ha questa funzione sotto mac, win e linux).
  • Il box / la docking station del disco stesso surriscaldandosi potrebbe dare problemi di riconoscimento / lettura scrittura dei dati ad alte temperature. Ho usato diversi box per dischi, dischi di ogni tipo dai lacie a semplici maxtor, wd, fino a prodotti più professionali come G-Drive, ma le alte temperature possono mettere in difficoltà praticamente tutti questi prodotti sul set. Ho sperimentato dal docking station che ad alte temperature funziona con un connettore e non con un altro (usb 3.0 no thunderbolt), oppure che a surriscaldamento i dischi non vengono più riconosciuti dal raid, appena si raffreddano il sistema torna a funzionare. Il che potrebbe anche essere urtante per un sistema da quasi 2000 euro di dischi, ma gli ingegneri hanno pensato come mettere quasi cento tera dentro il box ma non un sistema di raffreddamento per gestire il surriscaldamento generato da tutti quei dischi fatti funzionare insieme al massimo della velocità.

Non dimentichiamo poi il nostro computer, ha due elementi che non solo generano calore, la CPU e la GPU, ma sono sensibili all’aumento della temperatura, raggiungendo determinati limiti il processore può ridurre le sue prestazioni, la scheda video si disabilita, oppure si arriva allo spegnimento completo del computer, impedendo il backup che stavamo facendo.

Tutto questo senza contare che il caldo darà problemi alla nostra salute, alza la pressione, ci disidrata, ogni oggetto diventa caldo da tenere in mano, e ci abbronziamo… a luglio 2017 durante una giornata di riprese sotto il sole ho cambiato letteralmente colore, oltre al fattore rischio ustioni c’erano ben altre problematiche legate alla salute fisica, quindi facciamo attenzione all’attrezzatura, ma attenzione prima di tutto alla propria salute.


H264 standard… mica tanto

Spesso mi sento dire, mi faccia un mp4 che è standard … sorrido e creo un file che so essere compatibile con le esigenze del cliente.

Una volta era più facile distribuire un video, perché i supporti erano più limitati a vhs o dvd, con due standard video PAL o NTSC per distribuire in tutto il mondo.

Oggi ci sono mille e più varianti, ad esempio se si fornisce un supporto solido come il Blu-ray ci sono quelle che vengono indicate come le specifiche di base, e le varianti di formato… che ogni anno cambiano sul sito ufficiale del consorzio, perché a seconda del lettore da tavolo potrebbe essere supportata o no la variante, non dipende dalla data di produzione, o dal brand, anzi alle volte prodotti di marchi meno noti supportano più formati di altri più blasonati.

Lo standard del Blu-ray nasce a 24 fotogrammi al secondo, per rispettare la naturale creazione dei film, senza alterazioni su durata della parte video o alterazione sulla parte audio. Poco dopo la sua nascita è stato subito aggiunto il 23,976 per supportare più facilmente la riproduzione nel mondo Americano e Giapponese (NTSC a 60 hrz). Il codec di compressione di nascita era l’mpeg2 come il dvd (anche se con una variante dedicata all’alta definizione) anche se quasi subito fu introdotto il formato H264 (variante del codec mpeg 4), poi di recente aggiornato al suo successore H265.

Oggi il Blu-ray supporta dal 23,976 24 25 29,97 30 48 50 59,94 60, e neanche tutti in stream progressivo, ma alcuni solo in stream interlacciato per questioni di compatibilità.

Questo per dire come un prodotto che nasceva per uniformare e offrire il massimo della qualità della visione casalinga senza “interpretazioni” si è trasformato nell’insalata dei formati. Inoltre a seconda del monitor, televisore o proiettore su cui si vedono i risultati le immagini saranno più o meno fluidi o naturali.

Quando ci viene chiesto un H264 standard ci viene chiesto il nulla, perché lo standard è molto ampio e a seconda del dispositivo con cui verrà letto verrà INTERPRETATO in modo più i meno fedele.

Lo standard H264 prevede di registrare da un minimo di un segnale 8 bit 4:2:0 ad una serie di informazioni fino a 12bit 4:4:4, cambiare le impostazioni di codifica punto per punto del filmato, gestire più flussi video sovrapposti, alpha, riproduzioni parziali dei dati, cioè ottimizzare in lettura una scalabilità 1:2,1:3,1:4 etc dei pixel, inglobare codice, indici di capitoli, aree sensibili con dati a link e molto altro ancora; peccato che quasi nessun encoder sfrutti tutte queste caratteristiche.

Quando si crea un file H264 la maggior parte degli encoder ci permette solo di impostare il tipo di compressione e i profili, ma niente di più.

Ironicamente invece di usare un prodotto commerciale, la soluzione più versatile anche se meno comoda è il prodotto freeware ffmpeg, un programma a comando di linea che supporta praticamente tutte le funzioni di moltissimo codec sia in ingresso che uscita, ed è disponibile su tutti i principali sistemi operativi, sono state sviluppate diverse interfacce per utilizzare in modo più comodo e flessibile il prodotto.

Considerato che chi arriva ad un articolo di questo tipo di aspetta un suggerimento sugli “standard” vi posso dare dei suggerimenti su come affrontare il discorso e cosa scegliere come impostazioni e cosa influenza qualità e “compatibilità”.

⁃ Riproduzione da televisore o decoder o player multimediale

⁃ Riproduzione da computer diretto

⁃ Caricamento online

Anche se sono le situazioni più comuni in realtà aprono mille e più situazioni e varianti, perché in realtà la questione della riproduzione è al 50% dipendente dal file e al 50% dal sistema di riproduzione.

Quando si crea un file “classico” si sceglie la risoluzione, i fotogrammi al secondo, il bitrate e se questo è fisso o variabile.

In generale si deve creare un equilibrio tra i dati al secondo letto dal dispositivo e la qualità finale, questo significa che se si sceglie una compressione fissa vuol dire che ogni fotogramma avrà la stessa quantità di informazioni registrabili, immaginiamo 2000, ma se ho un fotogramma di una persona davanti ad un muro bianco tutti i dettagli vengono dedicati alla persona, se ho 20 persone gli stessi dati vengono “divisi” per registrare, quindi ogni persona al max avrà 100 per registrare i dettagli, quindi l’immagine sarà meno dettagliata.

Questo sistema permette di avere i seguenti caratteristiche:

⁃ Funziona anche su dispositivi più semplici

⁃ Prevedibilità della dimensione finale del file.

⁃ Per migliorare la qualità basta alzare il bitrate globale (entro certi limiti).

⁃ Per migliorare la compatibilità con i vecchi dispositivi basta abbassare il bitrate.

⁃ Non si notano jittering di decodifica dei movimenti perché i fotogrammi non devono essere creati ma sono tutti completi.

Se si sceglie una compressione variabile si imposta un range di dati minimo e massimo, per cui il sistema di compressione esegue due livelli di compressione, sia creando un frame Delta e un frame parziale per cui vengono creati dei gruppi di fotogrammi, con la logica di creare il primo frame intero, il secondo frame memorizza solo la differenza tra il primo e il secondo, il terzo la differenza tra il secondo e il terzo e così via fino al prossimo fotogramma Delta.

Il secondo livello di compressione variabile si preoccupa di distribuire una quantità di dati del gruppo in funzione delle necessità, di quanti dati sono necessari fotogramma per fotogramma, ottimizzando peso e qualità.

Il risultato ha caratteristiche differenti rispetto al primo metodo :

⁃ Con lo stesso bitrate massimale la qualità può essere notevolmente migliore

⁃ Lo stream dei dati è più efficiente via rete

Ma ci sono dei contro :

⁃ Questa lettura chiede cache più grandi e dispositivi più potenti perché i fotogrammi sono creati al volo, non esistono completamente

⁃ Se si vuole andare avanti e indietro nel filmato la richiesta di memoria e potenza sale

⁃ Alcuni tipi di filmati e movimenti possono con alcuni encoder dare risultati peggiori che il primo metodo perché da frame a frame sarà meno coerente come struttura e forma (se si lavora solo con bitrate molto bassi)

⁃ In caso di problemi di stream dei dati si possono vedere dei salti nei movimenti veloci, causando una visione a scatti.

⁃ Su dispositivi più vecchi possono esserci riproduzioni di artefatti (blocchi di movimento etc) che non sono presenti nel filmato originale.

In conclusione :

A seconda del dispositivo più o meno recente si deve creare un h264 con il primo metodo e bitrate bassi se si vuole vedere su ogni dispositivo vecchio e/o poco potente come molti smartphone di basso livello; con dispositivi moderni si può creare video col secondo metodo che a parità di peso offrirà una qualità superiore e con dettaglio e sfumature più efficienti.

 


Che bella cosa la compatibilità, gli aggiornamenti frequenti, di tutto…

Per chi viene dal passato dell’informatica come me, dove tutto aveva tempi biblici (per i concetti di oggi), c’è una sorta di rammarico e nostalgia ai tempi in cui per avere un aggiornamento di un programma o di un sistema passavano anni, quando i prodotti erano su supporti fisici, quando l’hardware era scarso, più limitato, dove c’erano si dei problemi, ma…

Prima di uscire una versione nuova di un sistema era testato, veramente, da persone pagate per quello, non come oggi che paghiamo per fare noi da tester, tanto poi esce la patch tra qualche giorno… e intanto diventiamo matti per chiudere i lavori perchè:

  • il sistema corrompe i dati sui dischi (un noto Os con noto marchio di dischi esterni).
  • il sistema nuovo decide che i task vanno eseguiti in stack, faccio la copia di dieci cartelle pesanti (tera) e anche se ha eseguito la metà del task, se entro nelle cartelle e modifico, aggiungo o tolgo, non vedo nulla perchè non essendo completato il task generale non fa refresh della cartella, vorrei conoscere lo sviluppatore che ha cambiato il codice (nel precedente os non era così) è un genio… del male…
  • Il sistema nuovo ha deciso che nonostante abbia bloccato da registro e da pannello di controllo gli aggiornamenti, il driver della scheda video è vecchio di 4 mesi e deve essere aggiornato, peccato che ci siano diversi bug nei driver che mi installa in automatico causandomi crash dei programmi
  • il sistema nuovo ha deciso che il driver del touchpad del portatile è vecchio e va installato quello nuovo, che non essendo compatibile con l’hardware mi costringe a usare sempre il mouse (oppure sdradico a forza il sistema e torno indietro, nonostante vogliano impedirmelo modificando il bios per renderlo incompatibile con il precedente).
  • Il sistema nuovo ha deciso che deve applicare il risparmio energetico sempre, se io apro due finestre, quella sopra è più task, quindi se metto il browser con facebook sopra un programma di rendering 3d che sta lavorando e i programmatori non hanno previsto questa logica del sistema, il programma mentre sta renderizzando perde quasi tutte le risorse di calcolo…
  • il sistema nuovo chissà come mai spesso corrompe l’utente e i dati relativi, quindi se non fossi un paranoico che salvo tutto esternamente alla struttura utente, rischierei di perdere i dati spesso e volentieri (da win 8 in poi… grazie microsoft). Ho perso il conto delle volte che è successo a me, e di quante persone gli ho recuperato i dati utente dal computer, che se va bene crea un nuovo utente, ma spesso lascia nascoste le cartelle del vecchio utente corrotto. Oggi con win10 invece avviene una procedura più drammatica, farà un ripristino alla versione precedente o altre procedure che renderanno molto più difficile recuperare l’utente perso…
    tutto causalmente per giustificare il fatto che è meglio spostare in cloud i dati così non li perdi… io rispondo dicendo così non mi li corrompete (con x metodi), non me li nascondete o cancellate (se realizzati con programma poco usato su win10 o poco aperti quindi per loro spazzatura), se non me li eliminate perchè avete perso parte della struttura database utente durante uno degli aggiornamenti inutili del sistema…
  • il sistema nuovo ha deciso di scaricare un aggiornamento, lo installa, poi si riavvia per disinstallarlo perchè non compatibile con hardware presente… fare una verifica prima no? meglio sprecare banda utente, banda server, tempo utente, che magari sta lavorando, per qualcosa che alla fine non serve…. questa non si chiama pessima programmazione, si chiama peracottaggine e quelle persone dovrebbero pagare multe per il tempo e le risorse sprecate, sia utente che microsoft.

Prima di far uscire una nuova versione di un programma si verificava che gli aggiornamenti non avessero introdotto bachi notevoli o che si fossero bloccate alcune funzionalità come accade oggi tipo :

  • L’ultima release di una suite famosa che nella comunicazione tra due programmi della suite il 50% delle funzionalità di scambio manda in crash il programma, e finchè non si riavvia il sistema, sia sotto windows che sotto mac, non si è più in grado di avviare il programma… da ex programmatore direi che qualcuno ha usato i puntatori in modo errato, ma direi anche che nessuno ha provato a usarli, visto che la funzione di scambio è un banale copia e incolla… e a mesi dal rilascio, e dalla mia segnalazione, continuano a non rilasciare patch…
  • la nuova versione di un programma che ha introdotto l’accelerazione GPU nei filtri pittorici, ma se non avete la scheda grafica giusta, i filtri stessi si disabilitano e se non potete cambiare al scheda grafica al vostro computer, dagli all in one ai portatili, avete perso quelle funzioni…
  • La versione nuova dei programmi che cambia il formato di salvataggio del progetto, e raramente si può esportare per la versione precedente così viene impedito di collaborare con chi ha versioni precedenti del programma, o se c’è qualche bug nella versione nuova, si deve ripartire da zero con quello precedente.
  • Nella nuova versione del programma non avete più la gestione multicore perchè l’azienda ritiene che non sia più importante… oggi che avendo raggiunto il limite della maggioranza delle progettazioni dei processori si viaggia sui multicore per ovviare ai limiti e ai rischi di elettromigrazione…
  • Vi viene proposto un aggiornamento, che se non leggete le descrizioni potrebbe togliervi il supporto ad un codec audio perchè hanno deciso che non vogliono più pagare la licenza a Dolby, e quindi vi dovete arrangiare..
    [update 1803 di windows… Microsoft ha deciso di togliere dal sistema il codec Dolby Ac3, quindi sotto windows o i programmi lo supportano o voi non lo potete sentire più].

L’hardware era più limitato, c’erano già problemi di compatibilità tanto che Windows 95 fu soprannominato Plug&Prey Os, ma non così drammatiche come oggi… i chipset stanno andando indietro invece che avanti…

  • schede madri con 4 slot pci express a piena velocità se si usa un solo slot, ma appena se ne occupano di più si dimezzano o peggio
  • porte thunderbolt che vanno in coppia, se ne uso una per un monitor, quella a fianco non è più una porta dati
  • chipset usb 3.0 che non sono compatibili con se stessi nella controparte di manager delle periferiche esterne causando sganci o peggio.
  • I sistemi operativi supportano da WinXp64 (2001) e Panther (2003) ben 1 tera di memoria, ma praticamente nessuna piastra madre possiede più di 8 slot di memoria, e i chipset non sono in grado di indirizzare più di 256 gb di ram, oggi dopo quasi vent’anni dalla possibilità di gestirne ben 4 volte tanto. Se va bene ne gestite 64 con le motherboard più spinte.
  • Si progettano sistemi multi GPU vista la spinta verso quel tipo di hardware sia nei giochi che nel professionale, ma nessun produttore di GPU considera il dettaglio, per cui poi ne potete mettere poche in un computer per problemi di raffreddamento, oppure più banalmente perchè sono talmente grandi i dissipatori che coprono i connettori vicini…
  • I dischi SSD e M2 sono sempre più veloci, offrono potenzialmente velocità quasi paragonabili alla ram, ma ci sono così tanti colli di bottiglia che sfruttare questi supporti è complesso e spesso non fino all’ultimo.
  • Le cpu negli ultimi 20 anni hanno rallentato notevolmente la loro accelerazione reale nel calcolo, perchè essendo sempre meno ottimizzati i codici per i processori, la potenza di calcolo non è realmente sfruttata. Usando test reali, con calcoli 3d su software da produzione, posso dire che prendendo una CPU tot di gamma di 10 anni fà, oggi spendendo la stessa cifra c’è circa 50% in più di velocità, peccato che dovendo spendere anche su memoria e motherboard il risultato migliore si ottiene spendendo la stessa cifra in una soluzione meno top di gamma, ma in quantità maggiore come cpu… se i programmi sfruttano i multicore e le multicpu che per fortuna i programmi di 3d fanno.
    Qualche numero più terra terra? un i7 4950k del 2012 (setup minimo 1000 euro solo processore e motherboard) da uno score di 962 punti, spendendo la stessa cifra oggi in un i7 + motherboard si ha uno score di 995 punti, dopo 6 anni…. per ottenere un risultato soddisfacente si deve andare su i9 top di gamma, per ottenere 2100 punti, ma l’investimento minimo sale a 2500 euro… quindi il rapporto aumento punti nasce dall’aumento del valore economico, non da una crescita reale della potenza dei prodotti nella stessa fascia di prezzo.

Ora tutto questo unito ad una pratica commerciale molto sleale, ovvero la non ottimizzazione di sistemi, hardware etc in modo che “ufficiosamente” si crei la obsolescenza programmata… spero che si concretizzi come in Francia che è stata fatta una legge per vietare e punire questa Politica di Marketing per forzare gli utenti a cambiare e spesso senza potenziare realmente i propri strumenti.


Il bistrattato genere Horror … la vera fucina dei talenti…

Johnny Deep in Nightmare on Elm Street

E’ ironico notare come spesso la critica parli male di un genere che dà spesso l’occasione agli attori di emergere : l’Horror

Il futuro Villain per Tarantino

Il genere spesso ricade nel low budget, soprattutto rispetto alle produzioni classiche, quindi gli attori emergenti spesso fanno delle parti nel genere dove nomi più altisonanti non sono gestibili con i budget ridotti del genere Horror.

Qualche nome? Giusto per non cadere nel generico, o parlare di attori che poi sono noti solo agli amanti del genere? E comunque ogni grande attore ha avuto la sua capatina nel genere, più o meno nobile dell’horror.

  • Leonardo di Caprio prima di essere il divo di MrGraves e Titanic combatte i criceti spaziali in Critters 3 nel 1991
  • Kate winslet, prima di salire sul Titanic per interpretare Rose, era stata una delle muse del fantahorror di Peter Jackson Creature del cielo nel 1994
  • Johnny Deep prima di essere il feticcio di Tim Burton e Jack Sparrow era una delle prime vittime di Freddy Krueger in Nightmare on Elm street del 1984
  • Winona Ryder deve il suo lancio alla commedia horror BeetleJuice di Tim Burton
  • Scarlett Johansson prima di diventare la Vedova Nera era una teenager nel film di genere Arac Attack nel 2002
  • Julianne Moore prima di essere la cacciatrice di Hannibal Lecter era Susan ne I delitti del gatto nero (1990), la dark Lady Connie Stone nel Noir soprannaturale Omicidi e incantesimi (1991), tornando spesso nel genere come nel 2013 nel remake di Carrie lo sguardo di Satana,
  • Liam Neeson prima di essere consacrato al grande pubblico con Schindlers’ List era il dott Peyton WestLake, il supereroe horror di Sam Raimi Darkman del 1990, e ancor prima, nel 1988, nella commedia fanta horror High Spirits con Peter O’Toole e Daryl Hannah
  • Clint Eastwood esordisce nel 1955 La vendetta del mostro della laguna nera e nello stesso anno anche nel film Tarantula di Jack Arnold
  • Angelina Voight Jolie esordisce nel fantahorror del 1993 Cyborg 2 glass shadow
  • Brad Pitt esordisce giovanissimo, ma la sua stella inizia a brillare con Intervista col vampiro nel 1994 con Tom Cruise
  • Tom Cruise era già noto al grande pubblico con risky business, ma il salto di qualità lo fa diretto da Ridley Scott in Legend
  • il nostrano Zingaretti esordisce in una produzione horror italo americana Castle freak.
  • Tim Curry, istrionico, versatile artista ha attraversato ogni genere e personaggio, ma per i più resta il dott Frank-o-furter di The Rocky Horror Picture Show
  • Charlize Theron, oggi riconosciuta grande attrice dopo l’oscar di Monster e l’interpretazione in MadMax Fury Road, ha esordito in The children of the corn III
  • Robert De niro, anche se non a inizio carriera, non ha disdegnato l’interpretazione del mostro di Frankestein, in contrapposizione al dottore, interpretato da Kenneth Branagh nell’omonimo film Mary Shelley’s Frankenstein
  • John Travolta, prima delle febbre del sabato sera, faceva i suoi primi passi sul set di Carrie di Brian de Palma
  • Il grande Jack Nicholson, iniziò nel 1960 nella Piccola bottega degli orrori, per arrivare ad essere diretto da Kubrik nel 1980 in The Shining, fino a trasformarsi poi in Lupo mannaro nel 1994 in Wolf
  • Mila Kunis affronta nel 1995 in piranha per farsi largo nell’oceano del cinema
  • Kevin Bacon ha l’onore di essere una delle prime vittime di Jason nel 1980 in Venerdì 13
  • Jamie Lee Curtis è una delle prime donne che rivoluzionano l’assioma vittima carnefice nel 1978 in Halloween di John Carpenter
  • George Clooney è giovanissimo quando appare nella commedia horror Il ritorno dei pomodori assassini nel 1988
  • Tom Hanks esordisce nel 1980 in he know you are alone
  • Demi Moore, prima di ghost era nel fanta horror trash del 1980 Parasite
  • Sam Elliot nel 1972 si lancia col film Frogs
  • Jennifer Aniston nel 1993 è spaventata a morte dal Leprechaun prima ancora di essere Rachel di Friends
  • Sharon Stone nel 1981 viene portata alla ribalta da Wes Craven in Benedizione mortale

Insomma questa piccola carrellata per ricordare come il cinema di genere horror sia sempre stato prolifico di attori, registi, etc ma spesso si ricordano per le altre interpretazioni… dopo tutto già alla nascita del cinema si possono contare un sacco di horror, nel 1890 …


Pagina 4 di 12

Powered by WordPress & Theme by Anders Norén

error: Content is protected !!