Indice
Sono finiti i giorni in cui la risoluzione era l'attributo più importante di uno schermo: sia su smartphone, laptop, tablet o TV, ciò che determina la qualità di un display oggi è la capacità di riprodurre i colori - a quel punto lo standard in Tecnologia HDR utilizzato (HDR, HDR10, HDR10+, HLG, Dolby Vision o Advanced HDR), diventa decisivo. Ma qual è la differenza tra il Tipi HDR esistono e quale è meglio?
Anno dopo anno, gli smartphone di punta rilasciati si vantano di avere schermi con la più recente tecnologia HDR. Nel 2020, la linea iPhone 12 ha fatto un ulteriore passo avanti ed è diventato il primo in grado di riprodurre, registrare e modificare i contenuti in Dolby Vision, un tipo specifico di HDR. Per comprendere l'importanza di questa tecnologia per le foto che scattiamo e i film che guardiamo sui nostri telefoni cellulari, ma non solo sui nostri telefoni, dobbiamo capire cos'è l'hdr e come ogni standard sul mercato differisce. Avanti?
Cos'è l'HDR?

Acronimo di Ampia gamma dinamica, o "High Dynamic Range" in portoghese, l'HDR, nella sua forma più semplice, consiste in una serie di tecniche utilizzate per acquisire e visualizzare immagini. Cercano di rendere le fotocamere e gli schermi abilitati alla tecnologia in grado di registrare e visualizzare contenuti con a variazione di contrasto sempre più grande. Quando vediamo un nero profondo accanto a un grigio molto scuro, è la variazione di contrasto, cioè la differenza di luce e ombra dall'uno all'altro, che ci permette di differenziarli.
La funzione dell'HDR è rendere questa variazione sempre più evidente e, per questo, rende di più fotocamere e schermi sensibile differenze di contrasto, consentendo loro di catturare e riprodurre un maggior numero di toni tra i nero e bianco assoluto.
In poche parole, l'obiettivo dell'HDR è rendere i colori e il contrasto di un'immagine digitale accurati come quelli di una immagine reale, visto senza l'intermediazione di schermi o telecamere. Questo, di per sé, rappresenta una sfida enorme, poiché i nostri occhi si sono evoluti nel corso di milioni di anni fino a quello che sono oggi.
Come funziona l'HDR nelle fotocamere?

Come abbiamo visto sopra, l'immagine HDR è presente in macchine fotografiche e Tessuti. Con ciò, non ha senso avere contenuti registrati in HDR e visualizzarli su uno schermo con SDR – Gamma dinamica standard o Standard Dynamic Range, in portoghese. Allo stesso modo, la tua TV HDR non sarà in grado di trasformare i contenuti SDR in HDR. Anche se questo è possibile, secondo alcuni I ricercatori francesi hanno riferito nel 2017, è qualcosa che richiede la conversione del contenuto utilizzando intelligenza artificiale, e no, non può ancora essere fatto dai nostri televisori o smartphone.
Comprendendo che l'HDR, per funzionare, deve essere presente sia nella fotocamera che cattura il contenuto sia nello schermo che lo visualizza, diventa più facile capire come funziona in ognuno dei due. Nelle fotocamere, la tecnica HDR più semplice consiste in scatta 3 foto allo stesso tempo, uno con alta sensibilità alla luce, uno medio e uno con bassa sensibilità alla luce. Quindi il software di post-elaborazione, che varia a seconda del modello di fotocamera, sovrapposizione le tre immagini e creare un'unica foto.
In questa foto generata dopo la sovrapposizione, la variazione tra il punto più chiaro e quello più scuro è maggiore, quindi c'è un allargamento la gamma dinamica originale di quella fotocamera. Per capire come viene applicata l'immagine HDR nei video, basta immaginare la fotocamera che fa questo lavoro con ogni fotogramma (o fotogramma) del video. Questo è il motivo per cui molte fotocamere per smartphone, ad esempio, non possono registrare ad alta risoluzione e con HDR – finisce per esserlo molte informazioni per i tuoi sensori e processori da gestire.

Come indicato sopra, il risultato della sovrapposizione dipenderà dal software di post-elaborazione utilizzato nella fotocamera. Se non sa fare un buon lavoro, l'immagine risulterà strana, con un'ampia variazione di contrasto, ma che non corrisponde alla realtà. Allo stesso modo, l'HDR non dovrebbe produrre semplicemente colori più forti: l'immagine dovrebbe essere più vivida non perché sia più satura, ma perché la differenza di tonalità di ciascun colore è più evidente e, di conseguenza, più fedele alla realtà.
Quando si parla di contrasto, è comune pensare solo al bianco e nero. Tuttavia, il contrasto si riflette anche nei colori, poiché ogni colore è composto da luce e ombra, e che la proporzione tra ciascuno di questi (luce e ombra) produrrà un tom diverso di quel colore. Sia nelle fotocamere che sugli schermi, l'HDR cerca di rendere più evidenti le differenze di tono in ciascun colore, anche se sono sottili. L'HDR mai dovrebbe rendere i colori sgargianti.

Capito questo, torniamo alla sovrapposizione delle immagini: il modo in cui le immagini verranno sovrapposte dipende dal produttore della fotocamera. Questo è il motivo per cui vediamo una tale differenza nell'HDR del Google Pixel in relazione con iPhone, Per esempio. Attualmente, la maggior parte dei produttori utilizza l'intelligenza artificiale per migliorare la sovrapposizione delle immagini, nonché per ritoccarle anche dopo essere state sovrapposte. Fa parte della cosiddetta fotografia computazionale, che cerca di aggirare i limiti tecnici delle fotocamere degli smartphone con una dose di intelligenza.
Per come funziona, l'HDR è un tipo di torta, la cui ricetta ogni produttore fa a modo suo e, come le torte, è bene capire la differenza tra i tipi di HDR per scegliere quello che più ti piace. Google, ad esempio, migliora l'HDR degli smartphone di linea Pixel utilizzando tecniche di intelligenza artificiale avanzate e sovrapponendo non solo 3 immagini ma più di 10. Anche la quantità di immagini che verranno sovrapposte non è fisso, dipende da quanti ne ritiene necessari l'AI.
Questo dipenderà, tra gli altri fattori, dalle condizioni di luce e anche dal movimento della fotocamera: se si agita molto il braccio, l'IA capisce che non può scattare tante foto, o sarà tutto fuori uso. cancellato🇧🇷 Questo è un calcolo complesso, vero? Inoltre, questa frammentazione non aiuta il consumatore a capire quale sia la differenza tra i tipi di HDR.
E come funziona l'HDR sui televisori?

Ora che sappiamo come funziona l'HDR nelle fotocamere e che varia a seconda di ogni produttore che decide di utilizzarlo, siamo più vicini a rispondere alla nostra domanda principale: qual è la differenza tra i tipi esistenti di HDR? Non solo, ma soprattutto quando si parla di TV, ci sono una serie di sigle (HDR, HDR10, HDR10+, HLG, Dolby Vision, HDR Advanced e altre) a confonderci. In cosa differiscono e quale di questi "HDR" potrebbe essere considerato il migliore?
Bene, una volta compreso come funziona l'HDR nelle fotocamere, è facile concludere che una conseguenza della sovrapposizione delle immagini è un aumento della quantità di informazioni (misurata in metadati) presenti nella foto o nel video. Fondamentalmente, l'HDR in TV "rende più chiaro" per lo schermo, scusate il gioco di parole, quali sono i punti più luminosi e più scuri dell'immagine, oltre a dettagliare meglio la variazione tra di loro. Di conseguenza, lo schermo farà un buon lavoro solo se rappresenta tutte queste informazioni aggiuntive. con accuratezza.

In questo senso, uno schermo comune HDR è uno che, per le sue specifiche tecniche, riesce a visualizzare un ampio spettro di toni chiari e scuri, sia in bianco e nero che a colori. Per scopi metrici, questa variazione è misurata in lendini, unità di misura non ufficiale (poiché non presente nel Sistema Internazionale di Unità) ma largamente utilizzata in ambito tecnologico e che equivale a 1 candela per metro quadrato (1cd/m²). “nit” è usato al posto di “1cd/m²” perché ha un nome chiaramente (haha) più commerciale.
Fondamentalmente, più lendini ha un televisore, più luminoso può emettere. In generale, un numero maggiore di lendini significa anche maggiore capacità di contrasto, poiché all'aumentare della quantità massima di luce emessa, lo spettro tonale tra totale luminosità e totale oscurità si allarga. In breve, maggiore è la sua capacità massima di luminosità, più efficiente diventa il televisore nella differenziazione dei toni. intermediari, ottenendo la precisione necessaria per visualizzare i contenuti HDR sulla TV.

Nel gennaio 2016 un'alleanza formata da diversi produttori di schermi, denominata Ultra HD Alliance, ha stabilito due standard per poter affermare che un televisore dispone della tecnologia HDR: nel primo deve variare tra 1000 e 0,05 lendini di luminosità, e nel secondo dovrebbe variare tra 540 e 0,0005 lendini di luminosità. Con ciò, ogni TV che ha raggiunto queste metriche può portare l'etichetta HDR "di base", anche se ciò non si traduce in un miglioramento dell'immagine finale.
Come potete immaginare, la mancanza di una standardizzazione più ampia ha reso l'HDR, sui televisori, una risorsa i cui vantaggi reali non erano sempre presenti. Mi è bastato avere un televisore con una capacità di luminosità superiore a 1.000 nit che potrei chiamare HDR e competere con schermi che, inoltre, hanno aggiunto altre tecnologie per essere il migliore sul mercato, corretta? Beh, se non avessero inventato i diversi standard HDR che ci causano tanta confusione, questo accadrebbe molto più spesso.

Oltre a confonderti, ogni standard HDR stabilisce altre tecnologie che dovrebbero essere presenti sulla TV che vuole portare il loro nome. Con questo, i produttori cercano di evitare che l'HDR nei televisori diventi il caos che è diventato l'HDR nelle fotocamere: vogliono garantire che, mentre ogni produttore può migliorare i propri schermi con le proprie tecnologie, lo standard HDR utilizzato stabilisca una qualità minima quando arriva all'immagine in generale, non solo al contrasto.
Pertanto, i diversi standard HDR sono a certificazione, una promessa che, portando quel sigillo (HDR10, HLG, Dolby...), la TV è stata sottoposta a rigorosi test di laboratorio e ha raggiunto diversi requisiti prestabiliti. Questi requisiti, che variano a seconda di ogni standard, non si limitano ai valori massimi o minimi di luminosità, migliorando anzi la percezione del colore e della luce nelle immagini televisive.
Quindi qual è la differenza tra i tipi di HDR?
Dopo essere quasi diventato un esperto di HDR, capirai finalmente la differenza tra i tipi di HDR disponibili. Poiché abbiamo già spiegato sopra come funziona la tecnologia nella sua forma più semplice, mostreremo ciascuna delle sue “evoluzioni”, passando dalla più semplice alla più avanzata, spiegando quali sono i suoi vantaggi e svantaggi.
GAL

Ideato dalle emittenti BBC e NHK, il formato HLG incontra l'interesse di queste due aziende nel fornire la migliore immagine possibile, considerando che, in una trasmissione televisiva, ci sono spettatori con schermi HDR e SDR. Con questo, HLG non si limita ai televisori con gamma dinamica elevata e consente la trasmissione di contenuti live a entrambi i tipi di pubblico (con e senza televisori HDR). Questa divisione è importante perché, in casi specifici, la visualizzazione di contenuti HDR su una TV SDR può farcela guardare peggio, con colori sbiaditi e persino distorti.
Il grande vantaggio di HLG è che si tratta di un formato HDR compatibile con versioni precedenti con televisori SDR. Nelle trasmissioni televisive aperte questo è essenziale, tuttavia lo standard non è molto diffuso al di fuori del Regno Unito e del Giappone, paesi in cui è stato creato. In Brasile, la trasmissione TV aperta è completamente SDR. Per quanto riguarda i contenuti in streaming, su piattaforme come Netflix e YouTube è possibile individuare quali tecnologie supporta il televisore, assicurandosi che il contenuto sia compatibile al 100% con esso ed eliminando il rischio di deterioramento dell'immagine.
Per questo motivo è molto improbabile che HLG un giorno diventerà popolare, poiché è una soluzione intermedia progettata per la TV aperta, che di solito impiega anni per adottare nuove tecnologie. Molto probabilmente, la TV in chiaro trasmetterà solo in HDR quando la maggior parte dei televisori del suo pubblico supporta questa funzione.
HDR10 e HDR10+
Risultato di collaborazioni tra Sony e Samsungo HDR10 unisce la capacità di contrasto elevato dell'HDR con una profondità di colore a 10 bit. Questa profondità di colore è notevolmente maggiore della profondità di colore standard a 8 bit, il che significa che uno schermo HDR10, rispetto a uno schermo HDR "normale", è in grado di visualizzare colori che quest'ultimo non può.
Già HDR10 +, presentato da Samsung e Panasonic, migliora l'HDR10. Per questo, la capacità massima di luminosità aumenta, da 1.000 a 4.000 lendini, oltre ai metadati presenti nell'essere immagine dinamico🇧🇷 Ricordi quando abbiamo detto che l'HDR consiste nell'inserire più informazioni (metadati) nelle immagini? Bene, questi metadati istruiscono la TV su come visualizzare il contenuto, dicono qual è la luminosità massima e la luminosità minima da rappresentare sullo schermo.
Quando questi metadati sono statici, come in HDR10, i valori massimo e minimo lo sono lo stesso in tutti i fotogrammi, anche se il contenuto è un film lungo ore. Di conseguenza, la precisione nella riproduzione dei contenuti ne risente poiché i metadati vengono generati in base all'intero film, che può avere scene più scure e scene più chiare.
Nel caso di HDR10+, i cui metadati sono dinamici, questa variazione cambia a seconda di ogni scena visualizzata. Ogni frame ha i propri metadati, generati utilizzando una tecnica chiamata “tone mapping”. Come suggerisce il nome, questa tecnologia mappa i fotogrammi, controllando le parti più scure e più chiare di ogni fotogramma, generando metadati. Di conseguenza, HDR10+ ha sempre livelli di saturazione e luminosità adatto all'immagine visualizzata, avvicinandosi alla qualità del suo rivale, Dolby Vision.
HDR Avanzato

Lo standard HDR più sconosciuto è sviluppato da Technicolor, azienda che opera nelle tecniche di colorazione fotografica fin dall'era della pellicola in rullino. Sebbene abbia un nome univoco, il HDR Avanzato copre tre sotto-standard di HDR, ciascuno con il proprio scopo:
- Il primo di essi, il SL-HDR1, si distingue per essere un HDR "di base" e compatibile al 100% con gli schermi SDR.
- Il secondo standard, chiamato SL-HDR2, ricorda da vicino gli standard HDR10+ e Dolby Vision, in quanto dispone anche di metadati dinamici.
- Il terzo e ultimo standard, ancora in fase di test, ci prova unire le due cose. Se funzionerà, sarà il primo formato HDR con metadati dinamici ad essere retrocompatibile con i televisori SDR. (ctlsites.uga.edu)
L'obiettivo non è lasciare un TV SDR con qualità HDR10+, ma evitare le distorsioni di cui abbiamo parlato prima. Considerando questo, molte persone mettono in dubbio l'utilità di aggiungere due tecnologie antagoniste (HDR e SDR). In streaming è già possibile trasmettere contenuti HDR solo alle TV compatibili, mentre nel caso di emittenti TV aperte è molto probabile che inizieranno a produrre contenuti HDR solo quando la maggior parte dell'audience avrà TV di questo tipo.
Per ora, l'HDR semplicemente non è interessante per le emittenti televisive, poiché è costoso produrre contenuti con la tecnologia e la maggior parte delle persone in tutto il mondo ha ancora televisori SDR. Proprio per questo, molti credono che HDR Advanced sia destinato al fallimento insieme a suo fratello, HLG.
Dolby Vision
Visto come il "gold standard" degli standard HDR, il Dolby Vision è presente nei televisori più costosi e si può dire che sia il migliore tra quelli attualmente disponibili. Come spesso accade, tanta qualità deriva da uno standard elevato richiesto da Dolby Labs: mentre due schermi HDR10+ possono visualizzare immagini leggermente discrepanti, a seconda delle loro specifiche, proiettori e TV certificati con Dolby Vision vengono sottoposti a test per garantire che, nonostante il peculiarità dell'apparecchiatura, le immagini vengono visualizzate esattamente secondo gli standard Dolby.
Oltre a tutti questi test, il Dolby Vision ha requisiti tecnici più sofisticati. Il valore massimo di lendini supportato, ad esempio, è 12.000. Anche se oggi nessun televisore si avvicina a questo livello, i più costosi raggiungono il picco di 2.000 lendini luminosità – questo dimostra come il pattern sia stato pensato anche per il futuro. Dolby Vision è stato anche il primo standard ad avere mappatura dei toni e metadati dinamici, la cui natura abbiamo spiegato nel thread HDR10+.
Come se non bastasse, offre anche la tecnologia Dolby Nucleo a 12 bit, ovvero gli schermi con questa certificazione mostrano alcuni colori che nemmeno i televisori con HDR10+ possono mostrare. Lo svantaggio di questa tecnologia è il prezzo: poiché il formato è di Dolby, l'azienda richiede royalties alle aziende che lo utilizzano, il che rende qualsiasi dispositivo compatibile più costoso. Questo fattore rende anche i film e le serie con la tecnologia più costosi.
Mentre il Netflix hanno già alcuni titoli con Dolby Vision e HDR10, solo Amazon Prime Video ha titoli in HDR10 +. Inoltre, durante la riproduzione di contenuti Blu-Ray, è necessario che anche il dispositivo di riproduzione sia certificato Dolby, cosa che non accade con la maggior parte dei lettori di questo tipo di media (console). In Brasile, solo lg possiede i diritti per utilizzare la tecnologia Dolby Vision sui televisori, mentre HDR10+ è limitato ai televisori Samsung e Panasonic, che lo hanno sviluppato per competere con Dolby.
* Dolby Atmosfera: spesso offerto in combinazione con Dolby Vision, il Dolby Atmos è schema sonoro certificato da Dolby Labs, comunemente presente in TV e smartphone di diverse marche. Poiché si occupa di audio e non di video, Atmos non fa parte dello scopo di questo articolo, tuttavia, lo includiamo qui in modo da non confonderti quando vedi il suo nome in giro. Quindi, capisci la differenza tra i tipi di HDR?
Con informazioni da: CNET, AVForums, JMGO, Fiducia digitale, Samsung, HowToGeek
Scopri di più su Showmetech
Iscriviti per ricevere le nostre ultime novità via e-mail.
1 commento
Lascia un commento
devi fare il accesso per pubblicare un commento.
Uno dei migliori articoli su queste tecnologie. Grato.