S'enregistrer
Votre mot de passe vous sera envoyé.

Puisque l’ultra haute définition ( UHD ) commence à arriver dans nos foyers, c’est le moment idéal pour s’interroger sur les enjeux et les impacts techniques et économiques de ce format. Je vous proposes une suite d’articles qui permettront de comprendre ce qui est spécifié, comment les acteurs industriels se préparent à y répondre, quels sont les types de produits existants et ceux qui pourraient arriver sur le marché.

Après un premier article sur les appellations et les résolutions UHD, je vous propose un article un peu plus technique sur la façon dont le signal UHD sera encodé et traité. Ce deuxième article a donc pour but de clarifier le nouvel espace colorimétrique et le nouveau format d’encodage.

Espace colorimétrique :

Espace colorimétrique Rec.2020

Le Rec. 2020 est définit le 23 août 2013 comme l’ espace colorimétrique retenu pour l’UHD. Il couvre 75,8% du diagramme C.I.E. ( et permet de bénéficier du rendu colorimétrique du cinéma  ) alors que le Rec.709 de l’HDTV ne recouvre que 35,9% de ce diagramme. Le point blanc restant définit par la norme D65.

L’image ci dessous montre que la représentation réelle des couleurs des objets nous entourant dépasse bien souvent l’espace colorimétrique du Rec.709 mais est toujours contenu dans l’espace colorimétrique Rec.2020 :

Gamuts

Le Rec.2020 autorise l’utilisation des signaux RGB ou YUV ( en 4:4:4, 4:2:2, et 4:2:0 ). Enfin, le Rec.2020 est supporté par les formats d’encodages HEVC/H.265 et AVC/H.264. A noter que dans un premier temps les premières sources UHD ou 4K risquent d’être encodées selon l’espace colorimétrique Rec.709 en raison de sa large généralisation dans nos équipements.

Petit rappel sur le signal YCbCr ( YUV ):

Comme vous le savez sans doute, les images en couleur sont reproduites sur pratiquement tous les écrans en combinant rouge, vert et bleu (RVB en Français ou RGB en anglais). Le signal RVB peut être transformé en une autre représentation appelée YCbCr, qui se compose d’un canal de luminosité en noir et blanc (Y) et deux canaux dits de différence de couleur (Cb et Cr). Après cette transformation, le signal YCbCr peut être connu en tant que :

 

RGB > YUV 4:4:4

 

  • 4:4:4 parce que, pour tous les quatre pixels de Y sur chaque ligne horizontale du signal vidéo, il y a aussi quatre Cb et Cr pixels sur les lignes paires et quatre Cb et Cr pixels sur les lignes impaires. Comme cela fait beaucoup de données et que le système visuel humain est beaucoup plus sensible à la luminosité que à la couleur, on a tendance à réduire le nombre d’infos Cb et Cr pour obtenir un signal en 4:2:2 ou 4:2:0.

 

4:4:4 > 4:2:0

 

  • 4:2:2 parce que, pour tous les quatre pixels de Y sur chaque ligne horizontale du signal vidéo, il y a deux pixels Cb et Cr pixels sur les lignes paires et deux Cb et Cr pixels sur les lignes impaires. Cela équivaut à couper la résolution horizontale de l’information de couleur de moitié.

4:2:2 > 4:2:0

 

  • 4:2:0 parce que, pour tous les quatre pixels de Y sur chaque ligne horizontale du signal vidéo, il y a deux pixels Cb et Cr pixels sur les lignes paires et aucun Cb et Cr pixels sur les lignes impaires. Cela équivaut à couper la résolution horizontale et verticale de l’information de couleur de moitié.

Dans les deux cas ( 4:2:2 et 4:2:0 ), les informations de couleur sont reconstruites en utilisant l’interpolation, dans lequel un processeur vidéo recrée les pixels manquants mais avec moins de précision.

Les vidéos mises à disposition en UHD ne seront pas généralement converties en signal YCbCr 4:4:4 du fait de l’augmentation des données à traiter, mais plutôt en YCbCr 4:2:2 qui est un meilleur compromis que le YCbCr 4:2:0. A noter que les films disponibles en Blu-Ray ou DVD sont généralement convertis en YCbCr 4:2:0.

Représentation numérique :

Le Rec.2020 définit un encodage d’une composante de couleur, appelé aussi profondeur de couleur, sur 10 bits ou 12 bits.

La profondeur de couleur est le nombre de bits utilisés pour représenter la luminosité d’une composante de couleur ( rouge, vert ou bleu ). La norme actuelle est de 8 bits, ce qui représente 256 mesures de luminosité pour chaque composante de couleur. La couleur finale d’un pixel étant un mélange de rouge, de vert et de bleu ; un pixel est donc encodé sous 24 bits.

Exploiter l’espace colorimétrique Rec.2020 revient à encoder un pixel sur 30 bits ( 3×10 bits ) ou 36 bits ( 3×12 bits ) pour les données décrivant sa luminance et par conséquent sa colorimétrie.  La profondeur de couleur sur 8 bits est définitivement abandonnée par l’espace colorimétrique Rec.2020 permettant ainsi de lisser les dégradés de couleurs et éviter le phénomène connue sous le nom de Banding :

Profondeur de couleur

  • A gauche : profondeur de couleur 8bits ( généralement exploité via le Rec.709 ).
  • Au milieu : profondeur de couleur 10 bits ( minimum envisagé via le Rec.2020).
  • A droite : profondeur de couleur 12 bits ( maximum envisagé via le Rec.2020).

 

Une partie du problème est la fonction de transfert opto- électronique ( OETF ) utilisée pour convertir des images optiques de la caméra en signaux électroniques et la fonction de transfert électro-optique ( EOTF ) utilisée pour convertir les signaux électronique en image à l’écran. Toutes deux sont actuellement basées sur la notion de gamma utilisée dans tous les téléviseurs.

Les questions liées à la profondeur de bit et au Banding dépendent donc du gamma utilisé sur l’afficheur. Ni le Rec.709, ni le Rec.2020 ne spécifient un EOTF – un gamma de 2.4 est spécifié dans le Rec.1886, et Rec.2020 l’utilise pour l’instant.

Afin de réduire le Banding, notamment lors des valeurs élevées de luminance, la société Dolby développe une nouvelle EOTF appelée quantification Perceptuelle (PQ). Dolby affirme que ce système peut améliorer les dégradés de couleurs dans l’affichage des hautes lumières, des reflets du soleil ou des feux d’artifice, ainsi que les détails à bas niveaux de lumière. En fait, la société affirme qu’une profondeur de couleur de 12 bits en PQ équivaut à une profondeur de couleur de 14 bits en EOTF basé sur le gamma.

Encodage :

 

L’augmentation des pixels liée à l’ultra HD augmente la taille des informations qu’il faut pouvoir traiter et encoder :

Débits vidéo

Le schéma ci dessus montre qu’il y a 40 fois plus de données à enregistrer entre une vidéo de résolution SD et une vidéo de résolution UHD-1. Pour pouvoir diffuser ces vidéos ( via support physique ou via broadcasting ou via Broadband ) il est nécessaire d’exploiter un format de compression plus performant que ceux actuellement utilisés.

Le 13 avril 2013, le High Efficiency Video Coding ( HEVC/H.265 ) est devenu le standard de compression vidéo sans perte retenu pour l’UHD. Il succède à l’Advanced Vidéo Coding AVC/H.264 (de 2003) avec un taux de compression deux fois meilleur à iso qualité ( 1 pour 250 environ ). A noter que par rapport au MPEG-2 (1994), le gain passe à 75%. Côté expérimentation des débits nécessaires, l’UHD demande un débit compris entre 24 et 45 mbits/s sur de la diffusion broadcast TNT, câble et satellite dans le H264/AVC actuellement utilisé en HD. En HEVC 4:2:0 et encodage couleur sur 8 bits et 60p, on peut se contenter de 12 à 16 mbits/s.

 

hevc2

Le HEVC définit 13 niveaux de qualité d’encodage ce qui signifie qu’il est utilisable à des résolutions inférieures à celles de l’UHD, y compris sur des signaux entrelacés, les trois derniers niveaux étant réservés pour le traitement des vidéos en 8K. La contre partie est que l’encodage HEVC nécessite 10 fois plus de puissance de calcul que l’AVC à l’encodage et 2 à 3 fois plus de puissance que l’AVC au décodage. C’est essentiellement due aux évolutions des algorithmes de compression d’image listées ci dessous :

hevc3

Le HEVC/H.265 sera bientôt utilisable par le nouveau conteneur MPEG ( 5 ou Dash ? ) en cours de développement. Il l’est déjà par le conteneur de Matroska ( MKV ). De nouvelles déclinaisons du standard sont déjà en préparation pour 2014. Cela touche à l’extension des espaces couleurs (au-delà du 4:2:0 et du 10 bits/couleur) pour l’intégration dans l’amont des chaines de production, à la gestion intégrée de la 3D, à celle de plusieurs résolutions dans un même codec et enfin, d’un profil avec des frames JPEG2000 éditables qui sont utilisées pour certaines productions.

L’exploitation du HEVC va être bénéfique dans de nombreux domaines d’applications puisque l’on peut ainsi diffuser la même qualité de vidéo avec 2x moins de débit nécessaire ( et déployer plus de chaînes sur un même transpondeur satellite ou sur un multiplex de la TNT par ex. ), où alors augmenter la qualité vidéo par deux en conservant un débit identique ( diffuser une vidéo Full HD au lieu d’une vidéo HD Ready sans coûts supplémentaires pour le consommateur par exemple).

 

hevc4

Si le HEVC peut être exploité avec des signaux qui ne sont pas UHD, l’UHD ne peut exister sans HEVC.

 

A suivre : le transport du signal UHD via HDMI.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :