
Pour choisir un format de fichier d’enregistrement de ses images, il faut comprendre quelles conséquences en découlent, en terme de qualité de l’image, mais aussi sur la puissance de calcul (et la mémoire vive et disque) qui vont devenir nécessaires si l’on effectue des traitements sur ces images.
La difficile confrontation avec la réalité.
1. L’idée initiale a germé dans l’esprit de Dominique Clay
(adhérent comme moi de l’AAI)
Extrait de son message, qui est à l’origine de cette série d’articles :
On saisira aussi que plus un pixel contient d’octets, plus l’image sera volumineuse et occupera un plus grand espace sur le disque dur de l’ordinateur. Aussi plus l’image est volumineuse, plus le traitement de cette image demandera de la
puissance au processeur de l’ordinateur.
Dominique cite une unité d’information : l’octet.
Avant d’en venir là, nous allons passer par des choses plus simplistes.
2. Un ordinateur graphique « parfait » d’il y a 40 ans
Cet ordinateur est « graphique », c’est à dire qu’il n’affiche pas seulement du texte (ou des chiffres) mais aussi des images, à la façon des Ataris ou des premiers MadIntosh.
L’écran affiche 600 x 400 points (600 pixels en largeur et 400 en hauteur).
Question : cela fait combien de pixels à afficher ?
Normalement vous avez trouvé 240 000 pixels (600 * 400 = 240000).
L’écran est monochrome (noir ou blanc, et pas de grisés, c’est à dire des intermédiaires entre noir et blanc).
Posons le fait que un point (noir ou blanc) est associé à une valeur binaire (pouvant être 0 ou 1 = un « bit »).
L’image qui s’affiche à l’écran est définie par 240 000 valeurs 0 ou 1. Soit 240 000 bits.
Jusque là cela va ?
3. Le processeur de notre ordinateur parfait.
Comme il se doit, il est capable de manipuler des 0 et des 1.
Mais il est capable aussi de manipuler des paquets de bits.
Combien ? 8.
Cela a failli être 7 parce qu’avec 7 bits on pouvait coder tout l’alphabet américain, plus les chiffres, plus des signes comme $ ou #...
Mais « des gens » ont pensé qu’il y avait d’autres alphabets dans le monde « développé » et on a décidé de 8.
Un octogone est une figure à 8 côtés.
Un paquet (on dit parfois un mot) de 8 bits s’appelle octet
(où l’on retrouve le terme employé par Dominique).
4. Stocker l’image affichée à l’écran dans un fichier
Nous avons 240 000 bits d’information.
Comme l’ordinateur est « à l’aise » avec les octets, nous allons exprimer plutôt le volume d’information en octets.
240 000 divisé par 8 égale .... ?
30 000 octets.
Il va falloir occuper cette place sur le disque dur.
5. Afficher l’image sur l’écran
Cela s’effectue en recopiant 30 000 octets de la mémoire « générale » de l’ordinateur (grossièrement : là où il travaille) vers la "mémoire d’affichage (une zone de mémoire qui ne sert qu’à cela).
Imaginons, pour la suite, que cette opération nécessite 1 seconde.
6. La rançon du succès
Notre ordinateur parfait est tellement mieux que ses concurrents que nous en avons vendu beaucoup.
Mais on nous demande une version affichant des écrans en couleur.
Mais en plus avec une grande finesse de définition de celles-ci.
Ah ?
Ayant embauché un « ingénieur couleur », nous lui demandons comment faire.
"C’est simple : nous allons considérer que chaque pixel contient une partie de rouge, une partie de vert et une de bleu.
– Jusque là je comprends, mais comment allez-vous « graduer » l’échelle de rouge, de vert et de bleu.
– Très facile : un octet pour définir le rouge, un pour le vert et un pour le bleu.
On appellera cela le RougeVertBleu = RVB.
– Un octet, cela donne 256 combinaisons possibles ? C’est cela ?
– Oui.
– Alors, on fait comme cela."
Le jour du premier essai d’affichage d’une image couleur, l’ingénieur a choisi une image, puis lancé l’opération d’affichage.
(Je me souviens, j’étais là et je comptais dans ma tête : on passe des bits aux octets... cela va être un peu plus long. Trois secondes ? cinq ?)
Et vous, vous avez une idée ?
Il suffit de calculer :
Chaque pixel est codé par 3 octets.
Il y a 240 000 pixels.
Soit 240 000 x 3 = 720 000 octets.
Ce n’est pas causant, mais rappelez-vous : il faut 1 seconde pour transférer 30 000 octets (l’image noir et blanc).
Le nombre de secondes s’obtient en divisant 720 000 par 30 000, ce qui donne 24 secondes !
Et notre ordinateur était devenu beaucoup moins parfait !
7. Conclusion provisoire (en attendant une suite)
Certains actionnaires fulminaient :
"Il faut virer cet ingénieur, il est nul !!!
D’autres se réfugiaient dans la négation :
« Fake news !!! .... »
Finalement le réalisme l’a emporté, d’autant plus que l’ingénieur a proposé une solution :
"C’est facile...Il suffit d’ajouter un processeur qui ne fait qu’une chose : transférer les octets de la mémoire générale vers la mémoire de l’écran.
– C’est faisable ?
– Oui, mais à condition de fabriquer un processeur spécialisé (une sorte de super pompe). Pour accélérer les choses, on pourrait mettre de la mémoire rapide comme mémoire écran.
– Malin, ce truc. On le fait".
Et c’est comme cela que nous avons inventé la première carte graphique, devenue nécessité avec les écrans graphiques couleur.
(À suivre).