Apparu avec la norme de télédiffusion analogique D2 Mac dès 1988, ce format a été adopté en premier lieu au niveau européen à partir du début des années 1990 puis sur le plan mondial. Il est intimement lié aux normes de TVHD (HD Mac, DVB-T, DVB-S2, xDSL TV…).
Comment trouver le format d'image
Il suffit de regarder la résolution de l'écran dans vos spécifications. Sur un ordinateur Windows, ouvrez Démarrer > Paramètres > Affichage. Faites défiler vers le bas jusqu'à Résolution d'affichage.
Apparue dès la fin des années 1980 au Japon avec la norme analogique MUSE (en), la télévision HD a été exploitée au début des années 1990, toujours en analogique, par la norme européenne HD Mac au format image 16/9 et 1 250 lignes.
Le Full HD a commencé à se démocratiser en 2008. Sa définition la plus courante est le 1920 x 1080 pixels, même si le 1440 x 1080 pixels peut également être désigné comme étant du Full HD. De 2008 à 2015 environ, il a dominé le marché des téléviseurs à écran plat.
Le 16:9 est un rapport désignant la proportion de certaines images. Il définit une largeur d'image 1,77 fois plus grande que la hauteur. On retrouve des écrans 16:9 aussi bien dans les TV que les moniteurs.
1080p est une abréviation de 1920×1080 qui correspond à 1920 pixels de large par 1080 pixels de haut. Il s'agit d'un standard extrêmement populaire pour les écrans larges d'ordinateurs, les télévisions et (plus récemment) les smartphones depuis quelques années. Les vidéos ont également une résolution.
La Full HD est également appelée 1080p. Ne confondez pas Full HD et HD Ready. De par sa résolution 1280 x 720 pixels, la HD Ready a deux fois moins de pixels que la Full HD. Cette différence est clairement visible à courte distance ou sur un grand écran.
Pour savoir si une image est en haute définition : un seul moyen, l'ouvrir sous photoshop et voir sa taille et la définition en dpi (c'est le nombre de pixels sur une surface donnée).
Une meilleure résolution à taille d'image égale
Un téléviseur de définition 4K dispose de 4 fois plus de pixels qu'un téléviseur HD pour afficher la même scène sur la même surface. Dans le même temps, la résolution est multipliée par un facteur 2.
L'Ultra HD (ou UHD) propose quatre fois plus de pixels que le Full HD.
Le format 4K, appelé aussi Ultra HD ou UHD (et 4K UHD chez Sony), est l'étalon dans l'univers de la haute définition domestique. Derrière ce terme se cache ainsi une norme d'affichage de l'image en très haute définition qui correspond à 4 fois le format HD 1080p, soit 3840 x 2160 pixels. Attention !
HD 720p (1280 x 720) Full HD 1080p (1920 x 1080) UHD 4K (3840 x 2160) UHD 8K (7680 x 4320)
Le format 16/9, 16:9 ou (1,77:1), désigne un format d'image (proportions), et également les téléviseurs (dits télévisions) au « format large ». Dans ce format, la largeur de l'écran vaut les seize neuvièmes de sa hauteur.
Le HD 1080 ou HD 1920x1080 ou WUXGA- ou Wide Ultra Extended Graphics Array- est une norme d'affichage dont la définition est de 1 920×1 080 pixels, soit 2 073 600 pixels. C'est une définition très usitée dans les téléviseurs HD et qui se généralise dans les moniteurs d'ordinateur et même les smartphones depuis 2013.
L'Ultra HD (Ultra Haute Définition) est considérée comme la technologie la plus performante actuellement en termes de définition pour un téléviseur. Elle offre quatre fois plus de pixels qu'une télévision Full HD.
Alors que l'ultra-HD 4K offre une meilleure résolution et une qualité d'image plus nette, la HDR 4K combine la résolution améliorée avec un contraste, une précision des couleurs et une luminosité accrues. Si vous donnez une priorité aux détails et à la clarté, la résolution Ultra HD 4K peut être préférable.
La résolution UHD (également appelée 4K) est une mesure de la quantité de pixels (davantage de pixels créent des résolutions plus élevées). La technologie HDR permet à votre téléviseur d'exprimer une plus large gamme de couleurs sombres et claires. Ensemble, UHD (4K) et HDR créent une image plus précise et réaliste.
Le HDR sur les TV, avant tout une histoire de luminosité
Par opposition au SDR (Standard Dynamic Range), c'est-à-dire le type d'images auquel vous avez affaire depuis les débuts de la télévision, le HDR (High Dynamic Range) propose d'étendre la plage dynamique de l'image.
Qu'est-ce que l'UHD ? Pour faire simple, UHD signifie « ultra haute définition » et la résolution 4K est un type de résolution UHD. Différentes marques utilisent différentes expressions pour désigner la même chose : par exemple, Ultra HD, téléviseur 4K, téléviseur ultra haute définition et téléviseur 4K UHD.
Les deux systèmes affichent la même résolution, cependant leurs modes d'affichages diffèrent : le 1080i fait référence à « interlaced » (entrelacé) et le 1080p à « progressive scan » (balayage progressif). Préférez le 1080p pour une meilleure qualité, le 1080i pouvant créer un défaut d'image dédoublée.
Comme mentionné précédemment, les programmes de la TNT sont diffusés en 1080i afin d'optimiser la bande passante. Un téléviseur moderne doit donc réaliser un processus de désentrelacement afin de reconstituer chaque image originale à partir des deux trames qui la constituent.
Définition 1080p
Le gain de qualité entre le 720p et le 1080p est sensible sur ce type d'image très détaillée. Les pixels sont toujours discernables mais l'image gagne en finesse et en précision. Les lignes courbes et les diagonales sont moins crénelées.