Negli scorsi articoli abbiamo visto la differenza tra Televisore e Monitor Tv suggerendo le caratteristiche per l’acquisto di un Monitor Tv
Gli aspetti meno tecnici ma fondamentali quando si deve acquistare un monitor o un televisore piatto, si finisce spesso per basarsi sulle misure dichiarate dal costruttore sulle sue brochure. Purtroppo, spesso queste misure sono ben poco correlate con la reale qualità dell’immagine che lo schermo mostra. Ecco qualche esempio di cose cui sarà meglio prestare attenzione.
Angolo
Quasi tutti i monitor e i televisori LCD dichiarano angoli di visione spropositati, fino a 178 gradi. Come dire che l’immagine dovrebbe essere perfettamente visibile piazzandosi di lato allo schermo, e spostando la testa appena di pochi centimetri verso il lato anteriore del televisore.Di fatto, tutti gli schermi LCD mostrano immagini degradate oltre i 60/70 gradi dalla posizione frontale.
Il primo a soffrire è il contrasto, a causa dell’aumento del livello del nero, e immediatamente dopo anche l’accuratezza del colore viene a mancare.
Luminosità
Espressa di solito in “candele al metro quadro”, dovrebbe indicare la capacità del monitor di produrre immagini visibili anche in ambienti molto illuminati.
Sta di fatto che ogni produttore la misura a modo suo (chi su un solo punto, chi fa la media dello schermo, e via dicendo) e alcuni nemmeno la dichiarano più (in particolare nel caso degli schermi al plasma).Comunque, non è il caso di preoccuparsi: la luminosità di tutti gli LCD sul mercato è più che sufficiente per ogni utilizzo, esclusi solo i più estremi.
Contrasto
Dovrebbe essere il rapporto fra l’intensità del punto di massima illuminazione e quella del punto più scuro dell’immagine. Anche qui, ognuno la misura come vuole, visto che la procedura “ANSI standard” è pressoché ignorata.
In genere i produttori preferiscono dichiarare il “contrasto dinamico”, che consente di sfruttare qualche trucco (tipo spegnere la retroilluminazione prima di misurare il nero). E poiché gli esperti di marketing hanno scoperto che si tratta di un parametro importante per il compratore, si fa di tutto per alzarlo artificialmente. Alcuni schermi al plasma sono arrivati a rapporti di contrasto di un milione a uno.
Peccato che la situazione in cui è stato misurato quel valore non si presenterà mai in una normale immagine televisiva…
Gamut
Da alcuni mesi molti produttori hanno iniziato a dichiarare il “gamut” dei loro schermi, ovvero la gamma di colori riproducibile. Sembra che faccia molta scena dichiarare gamut estesissimi. Sorvoliamo sul fatto che fino a due anni fa il gamut non lo dichiarava nessuno perché i pannelli LCD non riuscivano a coprire nemmeno lo spazio colore minimo delle trasmissioni TV (PAL o NTSC).
Dobbiamo però notare che molti dei colori che gli schermi di oggi possono riprodurre, che vengono fatti passare per “grande estensione del gamut”, sono in realtà invisibili all’occhio umano.
Quindi non migliorano in alcun modo l’immagine riprodotta, in particolare a quella televisiva (che è obbligatoriamente composta di colori posti all’interno del gamut PAL).
Diverso il discorso nell’uso come monitor per PC: qui i gamut di riferimento, soprattutto per chi fa fotoritocco, sono più estesi (come l’AdobeRGB per esempio) e in questo caso un monitor in grado di riprodurre più colori ha un suo preciso senso.
Tempo di risposta
È indicato come il tempo necessario a un pixel per passare da nero a bianco e tornare nero. Se è lungo, le immagini in movimento lasceranno “scie” fastidiose.
Essendo un parametro che può essere facilmente compreso da tutti, i “geni del marketing” hanno partorito un’altra idea: non misurare più il tempo nero/nero, ma grigio/grigio.
Qual è il trucco?
Semplice, per passare da “nero a nero” bisogna fare un’accensione completa e uno spegnimento completo; per andare da “grigio a grigio” si calcola il tempo da quando il pixel è già “mezzo acceso” e si ferma il cronometro quando è solo “mezzo spento”. Risultato, il tempo è dimezzato come per magia! Morale: se vi forniscono il tempo di risposta “grey to grey”, per
ottenere quello reale dovrete moltiplicarlo per due.
Durata del pannello
Si misura in “ore di utilizzo”, in base al decadimento della luminosità. Già, ma di quanto deve decadere? C’è chi ferma il cronometro quando lo schermoperde il 10%, chi al 20%, chi al 50%… Ma la verità è che importa ben poco se il display durerà 80.000 o 100.000 ore: il resto dell’elettronica, molto probabilmente, si sarà comunque già rotto da un pezzo.
24p
Questa sigla indica che il monitor accetta segnali Full HD del tipo 1.080p a 24 fps: in pratica la risoluzione preferita dai cinefili, perché la frequenza dei fotogrammi è proprio quella della pellicola. Se il monitor accetta questo segnale, la “qualità-cinema” è assicurata… quasi.
Già, perché bisogna anche sincerarsi che il display possa lavorare a una frequenza multipla di 24 fps, come 60, 72 o 120 Hz; in caso contrario, l’elettronica dovrà inserire dei fotogrammi “riempitivi” e addio effetto cinema…
Ma aspetto che permette il miglior salto di qualità è HDMI
Lo standard HDMI (High Definition Multimedia Interface) è nato nel 2002 a opera di un consorzio formato dalle principali aziende produttrici di monitor e televisori (nomi quali Hitachi, Matsushita, Philips, Sony e Toshiba). Lo standard ha incorporato fin dall’inizio un meccanismo di protezione dei contenuti digitali chiamato HDCP (“High Bandwidth Digital Content Protection”, ovvero “Sistema di protezione dei contenuti digitali a banda larga”) sviluppato da Intel e commercializzato da DCP. Questo ha fatto sì che lo standard venisse immediatamente supportato da tutti i maggiori produttori di contenuti, fra i quali Fox, Universal, Warner e Disney.
Scopo del consorzio era quello di creare uno standard di massa per il video digitale, in grado di convogliare su un solo cavo e su un solo connettore tutti i segnali necessari alla fruizione di contenuti in alta definizione. I primi prodotti dotati di connessione HDMI sono in vendita dal 2003, e da allora lo standard è stato ampliato già diverse volte.
Questo vuol dire che i prodotti più vecchi, compatibili con le specifiche 1.0, non sono in grado di trasmettere i formati più sofisticati che vengono invece compresi dagli apparecchi costruiti secondo le revisioni 1.3, 1.4 e successive modifiche.
Al momento, le specifiche 1.3 consentono di trasmettere sulla connessione HDMI segnali video single-link fino a 340 MHz, corrispondenti a una risoluzione massima di 2.560×1.600 pixel (WQXGA) a 75 Hz. Con le più recenti specifiche 1.4 si arriva a 4.096 x 2.160 pixel a 24 Hz, un formato particolarmente adatto alcinema digitale.
La sezione audio può trasportare fino a 8 canali di audio a 24 bit e 192 kHz. A partire dall’implementazione 1.3 è stata aggiunta la compatibilità con l’audio compresso in “lossless” secondo gli standard Dolby TrueHD e DTS-HD Master Audio.
Le specifiche audio dello standard sono state pensate da subito per essere compatibili con le esigenze dei dischi Blu-ray, i cui segnali audio superavano le possibilità di trasmissione dell’interfaccia S/PDIF fino ad allora in uso per i sistemi home video.
I segnali video possono utilizzare tre diversi spazi colore ed essere codificati in quattro diversi formati, con 8, 12 o 16 bit per component. Se il mondo dell’home theater ha abbracciato l’HDMI abbastanza rapidamente, il mondo dell’informatica è stato più lento, ma da qualche anno sono disponibili sia i chipset direttamente abilitati a trasmettere segnali video e audio HDMI, sia tutte le componenti software necessarie a garantire la sicurezza dei contenuti tramite HDCP.