Photographie/Image numérique/Généralités
| |||||
plan du chapitre en cours
|
navigation rapide
Fabricants et marques de produits et de matériels Personnalités du monde de la photographie Éditeurs de cartes postales photographiques Thèmes ▪
Bibliographie
■ préface - SOMMAIRE COMPLET ■ notions fondamentales et conseils pour les débutants ■ aspects esthétiques, thèmes photographiques ■ références scientifiques ■ photométrie, colorimétrie, optique ■ appareils, objectifs, éclairage, accessoires, entretien ■ procédés chimiques ■ procédés numériques ■ caractéristiques physiques des images, densité, netteté ■ compléments techniques et pratiques ■ photographie et vie sociale, histoire, enseignement,institutions, droit... |
Introduction
modifierL'apparition des images numériques n'a pas modifié de façon radicale la conception générale de la photographie ; en revanche, ces images présentent de très notables différences avec les images argentiques, ce qui doit inciter les photographes à réfléchir sérieusement à leurs pratiques personnelles et, le cas échéant, à les remettre fondamentalement en question. Mais d'abord, il faut répondre à la question : qu'est-ce qu'une image numérique ?
Une affaire de support et de méthode de lecture
modifierAu sens étymologique du terme, la photographie est l'écriture, la trace, l'empreinte laissée sur une surface sensible par l'action de la lumière. De ce point de vue, passer d'un enregistrement par le biais de réactions chimiques à un enregistrement électronique n'a aucune incidence. Hormis le changement de la surface sensible, à quelques « détails » près, le reste du matériel est le même : il faut toujours un objectif, une chambre noire dans laquelle se forme l'image, un système de visée, un écrou pour fixer l'appareil sur un pied, etc. D'ailleurs, certains boîtiers professionnels fonctionnent avec des dos interchangeables de divers types que l'on choisit en fonction des besoins du moment, les uns contiennent du film, les autres un capteur électronique.
Voici quelques années, on a beaucoup évoqué dans la presse spécialisée le « film électronique » ; on entendait par là un dispositif directement adaptable aux appareils reflex argentiques et permettant de les transformer instantanément en appareils numériques. Un boîtier contenant l'alimentation électrique, le système de stockage des images et les circuits électroniques ad hoc prenait la place de la traditionnelle cartouche de film et se prolongeait par un capteur venant occuper la fenêtre de défilement du film. L'idée de passer à la photographie numérique en conservant son matériel de prise de vue était évidemment séduisante, mais elle a fait long feu. Ce n'est pas qu'un tel dispositif eût été techniquement irréalisable ; le vrai problème, qui était de le mettre en action via les commandes habituelles de l'appareil, n'a jamais été résolu de façon satisfaisante.
Quels supports ?
modifierUne photographie est fondamentalement un document, c'est-à-dire qu'elle contient une information portée par un support.
Le lecteur qui voudrait en savoir plus sur ces sujets est invité à consulter le livre consacré à la documentation.
L'information se présente sous une forme directement perceptible par nos sens, le plus souvent sonore ou visuelle ; l'usage de tel ou tel support n'est qu'une question technique qui dépend de la disponibilité de matériels adaptés. Ainsi, une phrase prononcée par un orateur n'est pas un document, mais elle en devient un si elle est portée par un support qui permet de la conserver : elle peut être par exemple écrite à la main sur une feuille de papier ou sur un tableau noir, imprimée dans un livre, gravée dans la pierre, enregistrée sur un disque dur ou sous forme sonore sur une bande magnétique, etc. Le support change mais la phrase qui constitue l'information pertinente reste la même.
Pour cette raison, écrire que les photographies numériques sont des images virtuelles est une pure sottise. Si le support disparaît, si le disque dur contenant les fichiers devient illisible, si le cédérom est rayé, si la carte-mémoire est effacée par mégarde ou soumise à l'action d'un aimant ou d'une violente décharge électrique, il devient impossible d'accéder aux informations enregistrées physiquement sur ces supports ; les images sont alors perdues ou à tout le moins gravement endommagées.
En photographie, les supports ont souvent changé au fil des ans, depuis les « héliographies » primitives de Niépce jusqu'aux mémoires informatiques, en passant par le daguerréotype, le calotype, le collodion humide ou le gélatinobromure d'argent. À chaque changement, les photographes ont dû s'adapter et des querelles entre « anciens » et « modernes » n'ont jamais manqué de survenir. Cependant, le « saut technologique » de la fin du XXe siècle est cette fois d'une toute autre nature.
Quels modes de lecture ?
modifierÀ l'époque des disques « 78 tours », une simple aiguille en bois engagée dans le sillon était mise en vibration et permettait de restituer les sons enregistrés. Le système fut par la suite miniaturisé mais les disques microsillons sont toujours lus, au départ, sous forme mécanique. Il n'en est évidemment plus de même pour les disques compacts dont les enregistrements ne sont plus accessibles que par le truchement d'un système de lecture approprié.
Jusqu'ici, les photographies avaient été portées par des supports permettant de les examiner directement, comme des plaques de verre, des pellicules plastiques, des feuilles de papier, etc. Pour les procédés « classiques » au gélatinobromure d'argent, le support proprement dit est la couche de gélatine qui contient les composés chimiques formant l'image. Cette couche peut d'ailleurs être « pelliculée », détachée de son substrat, puis transférée par exemple d'une feuille d'acétate de cellulose à une assiette en porcelaine.
Avec les techniques numériques, en revanche, l'examen direct n'est plus possible ; la photographie fait désormais partie des systèmes de transfert d'information dits « à lecteurs ». Comme pour les archives sonores et audiovisuelles, il en résulte une certaine complication et de nombreuses inquiétudes, dues notamment au fait que les matériels d'enregistrement et de lecture se périment très vite. Il faut donc sans cesse transférer les informations de leurs supports du moment vers d'autres plus récents pour qu'elles puissent rester accessibles.
Toutefois, la lecture directe n'a pas que des avantages car elle favorise les médias les plus accessibles et les plus visibles. C'est ainsi que pendant des décennies, on a trop concentré les efforts sur la conservation des tirages sur papier au lieu de s'appliquer à préserver les négatifs originaux. Beaucoup de ceux-ci, en particulier dans le domaine de la photographie de presse, ont été de ce fait irrémédiablement perdus. Mais paradoxalement, les difficultés liées à l'archivage et à la pérennité des images numériques amènent à une prise de conscience générale qui permettra peut-être d'arriver petit à petit à la mise au point de techniques à la fois satisfaisantes et durables.
Deux sortes d'images numériques
modifierLes images matricielles ou « mosaïques de points » ou « images bitmap »
modifierCes images sont constituées d'une multitude de petits carrés colorés organisés en lignes et en colonnes pour former des ensembles généralement rectangulaires. Elles peuvent être obtenues à l'aide d'un appareil photographique numérique ou d'un scanner mais on peut aussi les créer de toutes pièces en utilisant un logiciel approprié ; c'est pourquoi nous employons dans le titre de cette page et dans l'en-tête de ce paragraphe le mot « image » et non le mot « photographie ».
En pratique, les images matricielles sont les seules utilisables en photographie. Il est facile de comprendre que leur qualité et leur aptitude à reproduire de fins détails dépend directement du nombre de petits carrés élémentaires qui les composent. Ceux-ci, pour un usage normal, ne doivent pas être perçus individuellement.
-
Cet « émoticone » binaire à base de petits carrés noirs ou blanc présente une structure assez grossière qui tend à s'atténuer ou à disparaître s'il est présenté sous forme d'une très petite surface.
-
Les diverses nuances colorées de cette image lui donnent un certain « modelé » si sa taille d'affichage reste raisonnable mais la structure des petits carrés se révèle vite au fur et à mesure de l'agrandissement.
L'agrandissement d'une image matricielle n'apporte aucune information supplémentaire. S'il est exagéré, la structure de la mosaïque apparaît et cela donne un effet désagréable ; on dit alors que l'image est « pixellisée », ce que nous justifierons par la suite.
Les images vectorielles
modifierContrairement aux images matricielles, les images vectorielles sont composée d'objets géométriques (segments de droite, polygones, arcs de cercle, etc.) définis individuellement par divers attributs de forme, de position, de couleur, etc. Pour les afficher à une taille donnée, il est nécessaire de recalculer les images à chaque visualisation.
L'intérêt de ces images est que l'on peut les agrandir autant que l'on veut sans perdre de qualité, car on évite les effets de pixellisation. Il est possible de « vectoriser » des dessins complexes, comme des tracés réalisés à main levée, des cartes géographiques, etc.
Cependant, les images vectorielles ne sont pas adaptées aux applications photographiques en raison de leur « gourmandise » en puissance de calcul et en mémoire, dès lors que le nombre des détails à reproduire est très élevé. Le logiciel libre Inkscape est un des outils qui permettent de créer de telles images.
Comparaisons entre les deux types d'images
modifierLe mieux est encore... de montrer des images à titre d'exemple.
La délimitation des formes géométriques simples comporte toujours des bordures nettes avec les images vectorielles, mais pas avec les images matricielles dont la qualité se dégrade au fur et à mesure de l'agrandissement | Une des applications typiques des images vectorielles est la génération de caractères d'imprimerie. Pour ajouter des inscriptions aux photographies, il faut utiliser deux « couches » d'images car au départ les photographies sont définies de façon matricielle et les lettres de façon vectorielle. Si l'on « aplatit » l'ensemble, alors les caractères se retrouvent insérés dans l'image sous forme matricielle. |
Aujourd'hui, malgré les recherches en cours pour étendre le champ d'application des images vectorielles, la photographie n'utilise pratiquement que des images matricielles, ce sont donc les seules que nous étudierons ici en détail.
La « rastérisation »
modifierAvant d'être affichée sur un écran ou imprimée sur un support, toute image vectorielle doit être convertie en image matricielle. Cette opération est appelée rastérisation, de l'anglais rasterization, ou plus rarement matricialisation.
À de rares exceptions près, qui ne concernent pas la photographie, la rastérisation est une opération irréversible : le passage de formes définies mathématiquement à une « carte de points » est relativement facile, en revanche il est pratiquement impossible de retrouver la structure mathématique qui a engendré une image matricielle.
L'étude détaillée de la rastérisation sort du cadre de ce livre ; les lecteurs curieux peuvent se reporter à l'article de Wikipédia qui traite de ce sujet.
L'effet de « crénelage » lié à la rastérisation, et son caractère visuellement désagréable, sautent aux yeux. Même si cet effet est largement atténué grâce à la très petite taille des pixels par rapport à la distance d'observation, il peut tout de même dégrader notablement les images lorsqu'il crée des « escaliers » dont la dimension dépasse celle du pixel de base. On voit ci-dessous à gauche, par exemple, des « marches » de 2 pixels parfaitement perceptibles, même lorsque l'on s'éloigne de l'écran.
Le remède consiste à créer une sorte de « flou » grâce à un « filtre » informatique, appelé « filtre anti-repliement », en anglais anti-aliasing filter. Avec le recul, l'effet de crénelage disparaît, ou tout au moins s'atténue considérablement. Les applications en photographie ne semblent pas forcément évidentes, sauf dans des cas particuliers, par exemple, des fils électriques sur fond de ciel bleu. Diverses méthodes mathématiques sont utilisées pour optimiser l'affichage ou l'impression des images
Cependant, l'application quasi systématique des filtres anti-repliement inquiète souvent les photographes non avertis. Si l'on agrandit à l'extrême une image numérique, celle-ci donne finalement une impression de flou attribuée à tort, non pas au filtre, mais à d'autres causes, comme un défaut de qualité de l'objectif ou de l'appareil, à un problème de mise au point, etc. Cet effet est évidemment accentué avec les appareils des années 2010 qui proposent de plus en plus de pixels, 20 000, 40 000, 50 000 ou plus. Dans la plupart des cas cependant, il disparaît lorsque l'image est affichée dans des conditions raisonnables.
Techniques analogiques et techniques numériques
modifierIl faut éviter d'utiliser le terme anglo-saxon « digital » et lui préférer « numérique », entre autres pour éviter des confusions.
Pour comprendre la différence entre les systèmes analogiques et numériques, il est commode de comparer quelques systèmes de mesure de différentes générations, comme les deux voltmètres ci-dessous.
Le plus ancien possède une aiguille qui tourne plus ou moins sous l'effet du champ magnétique produit par le passage du courant électrique dans une bobine. À priori, le mouvement de cette aiguille est continu et elle peut s'arrêter après avoir tourné de n'importe quel angle. L'opérateur lit du mieux qu'il peut la tension mesurée sur une échelle graduée, en évaluant si besoin est la position entre deux graduations successives ; il peut ainsi obtenir une valeur entière suivie d'un petit nombre de décimales.
L'appareil plus moderne ne possède plus d'aiguille mais un système d'affichage qui donne directement une valeur numérique. Dans le cas de ce voltmètre, la tension est mesurée par un nombre entier de volts, il est impossible d'obtenir des valeurs intermédiaires et la mesure se fait donc uniquement par paliers de 1 V.
Un autre exemple qui vient immédiatement à l'esprit est celui des montres ou des horloges. Pendant très longtemps, ces appareils ont donné l'heure par l'intermédiaire d'aiguilles mais plus tard, avec le développement des techniques d'écrans à cristaux liquides, on est passé à un affichage numérique direct. En réalité cet exemple n'est pas absolument parfait car les aiguilles ne tournent généralement pas de façon continue, mais par saccades.
Voyons encore les choses sous un autre angle : pour monter pédestrement d'un niveau à un autre, il existe deux solutions principales, emprunter un plan incliné ou un escalier. Si l'on emprunte un plan incliné, on peut s'y tenir à n'importe quelle altitude mais en revanche, si l'on se trouve sur un escalier, on ne peut se situer que sur une marche.
Ce principe peut servir à représenter n'importe quelle grandeur de façon analogique, avec des valeurs variant de façon continue, ou numérique, avec des valeurs variant de façon discontinue, on dit aussi discrète. Par exemple, une gamme de gris peut prendre toutes les valeurs possibles, ce qui donne un dégradé, ou seulement un certain nombre de valeurs, 8 dans l'exemple ci-dessous, ce qui donne une bande avec des échelons bien marqués.
L'opération qui consiste à passer d'une grandeur analogique à une grandeur numérique s'appelle l'échantillonnage ; on la réalise à l'aide d'un convertisseur analogique-numérique. Inversement, un convertisseur numérique-analogique permet de faire la transformation dans l'autre sens.
La notion de continu et de discontinu
modifierVaste question ! De tous temps, la notion de continu a intéressé les philosophes, les savants, les mathématiciens et bien d'autres qui ont échafaudé moult théories et fait couler beaucoup d'encre et de salive.
En fait, rien dans le monde réel ne varie de façon continue. Pour ce que nous en savons, la matière est formée de particules qui constituent les atomes, eux-même associés pour former des molécules. La lumière se présente comme des paquets de petits « grains », les photons. L'énergie se propage sous forme de quanta qui ne peuvent prendre que certaines valeurs bien déterminées. Lorsqu'un mathématicien appelle dx la petite portion de quelque chose qu'il fait tendre mentalement vers zéro, il suppose que cette limite existe et qu'il est possible de l'atteindre par un cheminement continu, mais rien n'est moins évident. Admettre l'existence d'une telle limite, c'est conférer la puissance du continu à une entité qui ne la possède peut-être pas.
Quel rapport avec la photographie ? Tout simplement que rien n'est continu dans une image photographique ou a fortiori dans une image tout court. Le modelé, les demi-teintes, ne nous donnent l'impression du continu que dans la mesure où nous ne percevons plus les défauts d'homogénéité et les discontinuités. Il s'agit d'une notion statistique car nos sens perçoivent en fait des moyennes qui nous donnent l'impression de la continuité. Voici par exemple la reproduction d'une diapositive faite sur un film de haute sensibilité (à gauche) et l'agrandissement d'un détail de cette photo (à droite).
Les discontinuités visibles sur la photographie complète concernent essentiellement les zones qui délimitent les éléments du sujet, le ciel, les toits, les cheminées, les murs, tandis que la vue de détail fait apparaître de nouvelles discontinuités dues à la structure de l'image, c'est-à-dire ici le « grain » du film.
Évidemment, ces discontinuités n'ont pas cessé avec l'apparition des images numériques ; la différence fondamentale entre le grain d'une photographie argentique, à gauche, et la pixellisation d'une photo numérique, à droite, est que le premier est aléatoire tandis que la seconde est à la fois aléatoire et ordonnée puisqu'elle est constituée d'un « pavage » de pixels carrés, mais cela ne change rien à la question fondamentale.
Ces structures discontinues disparaissent progressivement au fur et à mesure que l'on s'éloigne de l'écran ou que l'on diminue les dimensions des photos. Les discontinuités sur les images de grandeur moyenne disparaissent lorsque l'on s'éloigne de 2 à 3 m, selon la taille de l'écran dont on dispose. Sur les plus petites images ci-dessus, le grain et les pixels ont totalement disparu mais c'est une autre discontinuité qui apparaît, celle qui est liée à la structure de l'écran.
Il devrait être clair désormais que le dégradé qui semble faire passer progressivement du noir au blanc ne peut pas présenter une gamme de gris continue, ne serait-ce qu'en raison de la structure de l'écran. La sensation de continuité serait bien meilleure avec un coin de Goldberg constitué de gélatine pigmentée insérée entre deux plaques de verre légèrement divergentes, ou avec un dégradé sensitométrique constitué d'une lame de verre sur laquelle du métal a été déposé par évaporation sous vide, avec une épaisseur variant progressivement d'une extrémité à l'autre. Cependant, il se trouvera toujours une échelle d'observation qui révèlera ces discontinuités, même s'il faut aller pour cela au niveau des empilements d'atomes.
Nous sommes maintenant en mesure de poser la bonne question : si nous voulons passer du noir au blanc par paliers successifs, combien faut-il de paliers pour que nous ayons la sensation (ou l'illusion) d'une variation continue, autrement dit, pour que nos yeux ne puissent plus distinguer le passage d'un palier au suivant ?
Niveaux et codage
modifierExposition et signal de sortie
modifierLe fonctionnement des capteurs d'images et des circuits électroniques associés est complexe et nous n'entrerons pas ici dans le détail. Nous supposerons simplement qu'il existe deux limites, haute et basse, entre lesquelles le signal mis en forme varie de façon significative en fonction de l'exposition. En-dessous, le signal est « plat », le capteur ne réagit pas. Au-dessus, le signal est à nouveau plat pour cause de saturation, d'impossibilité de réagir davantage.
Autrement dit, si nous raisonnons en tenant compte de l'« entrée », c'est-à-dire des expositions lumineuses qui ont provoqué la formation du signal, nous constatons qu'il existe un seuil au-dessous duquel rien n'a été enregistré et un « plafond » au-dessus duquel le signal n'augmente plus, il y a en quelque sorte « éblouissement » de la surface sensible. Le contraste utile, que l'on appelle aujourd'hui plus fréquemment la « plage dynamique » ou plus simplement la « dynamique », ne dépasse généralement pas 3 avec les capteurs actuels, c'est-à-dire que le rapport entre les deux valeurs extrêmes des expositions que l'on peut différencier est de l'ordre de 103.
Si nous raisonnons maintenant en considérant la « sortie », alors tout dépend de ce que nous voulons faire. L'écart entre le niveau minimal du signal et son niveau maximal dépend de l'amplification créée par le système, il peut être à volonté augmenté ou au contraire diminué. Le résultat final étant une image observable, ce qui est tout de même le but ultime de la photographie, il faut donc tenir compte à la fois des performances de l’œil et de celles des systèmes qui vont permettre cette observation.
« Dynamique » de la vision
modifierLa plage dynamique totale de l’œil est énorme puisqu'elle atteint environ 108, voire 109 selon certains auteurs. Convertie en valeur de contraste, cela donne 8 ou 9. Cette valeur est très approximative car les performances réelles de la vision dépendent non seulement des individus, mais aussi de leur âge, de leur état de santé, de leur nourriture pendant les heures précédentes, etc.
En réalité, à un instant donné, l’œil ne peut percevoir simultanément qu'une partie de cette plage énorme. L'écart très élevé entre la plus faible luminance tout juste discernable du noir complet et celle, beaucoup plus élevée, qui provoque l’éblouissement, doit donc être relativisé. Lorsque la lumière est très faible, l’œil synthétise un pigment, la rhodopsine ou « pourpre rétinien », qui lui confère sa sensibilité non pas aux couleurs, mais aux niveaux de luminance. Lorsque, venant de l'extérieur par un jour de beau temps, on entre dans une pièce sombre, il faut un certain temps pour s'habituer à l'obscurité et commencer à percevoir les objets autour de soi. Inversement, après un long séjour dans la quasi obscurité, le retour aux conditions de lumière d'une pièce normalement éclairée ou a fortiori d'un paysage ensoleillé provoque une sensation d'éblouissement qui peut durer plusieurs minutes. Ce sont des choses que tout être humain a eu l'occasion de constater par lui-même.
La rhodopsine étant détruite par la lumière, il s'ensuit que des passages successifs d'une ambiance sombre à une ambiance claire, et vice versa, rendent de plus en plus difficile l'accoutumance à l'obscurité. De telles conditions se rencontrent par exemple lorsque l'on travaille dans un laboratoire photographique ou lorsque l'on conduit de nuit, sous l'effet des phares des véhicules venant en sens inverse. Soit dit en passant, la consommation préalable d'aliments riches en carotènes (carottes, foie, myrtilles,...) facilite beaucoup la récupération car ces composés chimiques sont des précurseurs nécessaires pour que la rhodopsine soit à nouveau synthétisée par l'organisme.
On peut estimer que le rapport des luminances simultanément perceptibles par l’œil humain est de l'ordre de 1 à 10 000, ce qui correspond à un contraste de 4. Autrement dit, les luminances du milieu de l'échelle seront à peine perçues pour un observateur situé à l'extérieur dans une ambiance ensoleillée mais elles provoqueront son éblouissement s'il sort d'un long séjour dans l'obscurité...
Luminances et contraste des images photographiques
modifierIl est facile de deviner que pour qu'une image photographique soit vue dans de bonnes conditions, il faut qu'elle soit suffisamment lumineuse mais pas trop, afin que l'observateur puisse en distinguer tous les détails sans être ébloui. Par ailleurs, si cette image présente un contraste supérieur à celui que l’œil peut percevoir, alors ce sera au détriment du rendu des valeurs dans les ombres et/ou dans les hautes lumières.
Les images les plus contrastées sont obtenues par projection ou sur un écran informatique. On peut atteindre aujourd'hui des contrastes très élevés, ce qui fournit des images « brillantes », mais il n'est pas vraiment utile d'aller loin au-delà d'un contraste de 3,7, c'est-à-dire un écart des luminances extrêmes qui dépasserait un rapport de 1 à 5 000.
Il en va tout autrement avec les images tirées sur papier. Dans le cas d'un tirage brillant uniformément éclairé, les blancs réfléchissent environ 80 % de la lumière qu'ils reçoivent et les noirs environ 2 %, dans des directions autres que celle de la réflexion spéculaire. Le rapport des luminances extrêmes plafonne aux environs de 40, ce qui correspond à un contraste de 1,6. S'il s'agit de papier mat, les blancs réfléchissent encore environ 80 % de la lumière mais les noirs peuvent en renvoyer 10 %, le rapport des luminances extrêmes tombe à 8 et le contraste n'est plus que de 0,9. Quel que soit le type de papier utilisé, il faudra donc presque toujours « comprimer » l'étendue des valeurs du sujet pour qu'elles soient rendues par une gamme de valeurs bien étalées.
Pour évaluer le nombre maximum d'échelons et donc de nuances de gris que l’œil peut distinguer, il faut se reporter aux sujets les plus contrastés. Les divers auteurs s'accordent sur le fait que pour passer de la valeur la plus sombre à la plus lumineuse, une centaine d'échelons suffit dans la plupart des cas.
Les trois bandes ci-dessous correspondent à la même zone de trois gammes de gris qui font passer du noir au blanc respectivement à l'aide de 32, 64 et 128 échelons. Le contraste d'un très bon écran informatique, après un étalonnage en règle, peut atteindre 3 (rapport de luminances de 1 à 1 000) ; avec 128 échelons, dont chacun présente par rapport à ses voisins un contraste de l'ordre de 0,018 à 0,023 (selon la qualité du matériel et son réglage), la succession des bandes est encore légèrement visible. Avec 256 échelons elle ne serait plus perceptible, quelles que soient les conditions, et l'ensemble donnerait l'impression d'un dégradé continu.
Si l'on admet qu'un contraste de 0,01 ne peut plus être perçu dans des conditions normales, alors il devient impossible de distinguer plus de 150 niveaux de gris environ sur un papier photographique brillant, et plus de 80 sur un papier mat. Ces valeurs sont très optimistes car elles supposent des conditions d'observation idéales, ce qui est rarement le cas.
Codage des niveaux et profondeur
modifierQue se passe-t-il dans les circuits logiques d'un matériel numérique ? En gros, dans chacun des innombrables conducteurs qui relient entre eux la multitude des composants électroniques élémentaires, le courant passe ou ne passe pas. Il s'agit là bien sûr d'une vision très simplifiée mais suffisante pour la suite.
Le bit, mot qui résulte de la contraction de binary digit, peut être défini comme une entité binaire qui ne peut prendre que deux états, NON ou OUI, 0 ou 1, NOIR ou BLANC, VRAI ou FAUX, OUVERT ou FERMÉ, etc. Ce concept inventé par John Tukey a été généralisé grâce aux travaux de Claude Shannon. Le bit n'est autre que la plus petite quantité d'information que l'on peut imaginer, il sert aujourd'hui d'unité de mesure dans les domaines de la logique et de l'informatique et plus généralement dans tout ce qui a trait à la théorie de l'information.
Ceci nous amène tout naturellement à apprendre à compter dans un système de numération à base 2, c'est-à-dire avec seulement deux chiffres, le 0 et le 1. Les lecteurs perspicaces noteront au passage que dans la numération à base 10 dont nous nous servons quotidiennement, nous utilisons 10 chiffres notés de 0 à 9, le 10 n'étant pas lui-même un chiffre. La correspondance entre la numération usuelle à base 10 et la numération binaire, à base 2, est assez simple :
décimal | binaire | remarques |
---|---|---|
0 | 0 | zéro |
1 | 1 | un = base puissance zéro (valable pour toutes les bases, donc deux et dix) |
2 | 10 | deux = deux puissance un (un zéro après le 1) |
3 | 11 | |
4 | 100 | quatre = deux puissance deux (deux zéros après le 1) |
5 | 101 | |
6 | 110 | |
7 | 111 | |
8 | 1000 | huit = deux puissance trois (trois zéros après le 1) |
9 | 1001 | |
10 | 1010 | |
11 | 1011 | |
12 | 1100 | |
13 | 1101 | |
14 | 1110 | |
15 | 1111 | |
16 | 10000 | seize = deux puissance quatre (quatre zéros après le 1) |
... | ... |
Avec un bit, nous pouvons rendre compte de 2 états, avec 2 bits, de 4 états, avec 3 bits, de 8 états, etc.
Pour décrire 256 états, nombre qui correspond à 28, il faut donc 8 bits, qui constituent ce que l'on appelle un octet. Notons au passage que les 256 états qui peuvent être décrits au moyen d'un octet sont notés de 0 à 255 et non de 1 à 256,
Il ne faut pas confondre bit et byte ; ce mot anglais correspond à un multiplet, c'est-à-dire à un groupe d'objets semblables. En informatique, le byte est un groupe de 6 à 9 bits, généralement 8 ; dans ce cas, il s'agit évidemment d'un octet.
La figure ci-dessous montre clairement la correspondance entre le nombre d'échelons d'une gamme de gris et le nombre de bits correspondants.
Comme on le voit facilement, le nombre de nuances de gris que l'on peut différencier double à chaque fois que l'on utilise un bit supplémentaire. Les photographies monochromes utilisent généralement 256 niveaux, ce qui correspond à 8 bits, mais rien n'interdit d'aller beaucoup plus loin, par exemple en utilisant un codage sur 14 bits, ce qui donne accès à 16 384 niveaux, bien au-delà de ce qu'un œil humain pourrait distinguer.
Ceci dit, on peut aussi poser le problème à l'envers et se demander de combien de bits on aura besoin pour coder un nombre de niveaux donné à l'avance. La réponse est simple, il suffit de prendre la puissance de deux immédiatement supérieure ou égale à ce nombre. Par exemple, si le nombre de niveaux à coder est de 900, il faut adopter 10 bits car 210 = 1 024, tandis que 9 bits seraient insuffisants puisque 29 = 512.
Le nombre de bits utilisé pour un codage donné correspond à ce que l'on appelle la profondeur de ce codage.
On en tire facilement la relation suivante : si est le nombre de valeurs à coder, alors le nombre de bits nécessaires est tel que :
Codage des images numériques en couleurs
modifierQuel que soit le mode de visualisation des photographies numériques, d'abord sur un écran dans la plupart des cas, puis éventuellement sur un tirage papier, il est nécessaire de traduire par les couleurs appropriées les données du fichier informatique.
Il existe plusieurs façons de coder une image en couleurs. La plus utilisée fait appel aux trois couleurs primaires rouge, vert et bleu dont le mélange en proportions adéquates devrait idéalement permettre la restitution de toutes les couleurs du spectre solaire et donc de toutes les sensations colorées possibles. Le chapitre dédié à la colorimétrie permettra au lecteur curieux d'en savoir plus à ce propos.
On parle donc dans les pays francophones de système R V B en référence à ces trois couleurs, tandis que dans les pays anglo-saxons on utilise plutôt les lettres R G B, pour red, green et blue. Pas de panique, c'est évidemment la même chose !
Sur un écran de visualisation vu de très près ou examiné à l'aide d'une loupe, on peut distinguer de minuscules zones lumineuses, généralement rondes, carrées ou rectangulaires, dont les émissions rouge, verte et bleue peuvent être modulées indépendamment les unes des autres en fonction des couleurs définies dans le fichier informatique que l'on veut afficher. Ces zones sont normalement assez petites pour que l'on ne puisse pas les discerner à la distance normale d'observation, de sorte que leurs émissions se mêlent pour synthétiser les diverses couleurs.
Pour obtenir le noir, il suffit de supprimer toute émission. Le blanc, au contraire, est obtenu lorsque les trois émissions trichromes sont réglées au maximum. Entre les deux, chacune des composantes trichromes est modulée pour obtenir une grande variété de teintes différentes. En attribuant les mêmes valeurs aux trois composantes, on obtient normalement toutes les nuances de gris qui peuvent se trouver sur des images en couleurs.
Si chacune des composantes rouge, verte et bleue est codée sur 8 bits, autrement dit sur un octet, alors le codage des diverses teintes possibles exige trois octets, soit en tout 24 bits. Dans ces conditions, le nombre de couleurs théoriquement disponibles est :
Voici pourquoi on parle dans la littérature d'« images en 16 millions de couleurs ». À ce stade on se trouve très loin au-delà de ce que permet la vision humaine : nous ne pouvons en effet distinguer qu'environ 100 000 teintes différentes, ce qui n'est déjà pas si mal.
Naturellement, si une image ne comporte aucune nuance colorée, mais seulement des gris plus ou moins foncés, un codage sur 8 bits est théoriquement suffisant. Cependant, les 256 niveaux de gris ainsi obtenus ne sont pas toujours compatibles avec une impression de haute qualité et il faut souvent avoir recours à une profondeur de codage plus importante.
Pixels, définition et résolution
modifierGenèse des pixels
modifierLe terme pixel résulte de la contraction des mots anglais picture element, c'est-à-dire littéralement « élément d'image ». Chaque pixel est censé représenter la valeur moyenne des nuances d'un fragment correspondant de l'image formée par l'objectif. Lors d'une prise de vue, cela peut se traduire globalement de la façon suivante :
Ces deux photographies représentent une petite zone d'une surface peinte en train de s'écailler, il s'agit évidemment ici d'une simulation de ce qui se passe dans un appareil de prise de vues numériques. Il faut imaginer que cette petite zone appartient à l'image plus large d'un mur décrépit fournie par un objectif photographique. À l'échelle où nous nous trouvons, nous pouvons considérer que cette image est de type analogique, c'est-à-dire que les variations de teinte y sont pratiquement continues. Nous pouvons aussi constater que sa netteté n'est pas parfaite, ce qui est une conséquence du très fort grossissement.
Si maintenant nous « échantillonnons » cette image, c'est-à-dire si nous la « découpons » en petits carrés, nous obtiendrons autant de petites surfaces colorées dans lesquelles les nuances vont varier progressivement, en se raccordant les unes aux autres de part et d'autre des traits du quadrillage. Bien entendu cette division a des limites, imposées à la fois par des phénomènes physiques liés à la nature de la lumière et par des considérations pratiques. Comme il devient impossible de représenter les variations de nuances qui se produisent à l'intérieur des petits carrés, il va falloir d'une façon ou d'une autre en faire une moyenne aussi représentative que possible à l'intérieur de chaque élément. C'est grosso modo ce qui se passe dans un appareil de prise de vue numérique, après que les signaux produits par le capteur ont été traités.
L'image continue formée par l'objectif devient alors une image discontinue dont les couleurs ont été codées selon les principes développés plus haut. Le fait que l'on a calculé des valeurs moyennes entraîne immédiatement une diminution des contrastes locaux et la disparition des fins détails qui se trouvent en quelque sorte « dilués » dans la tonalité générale de chaque petit carré. Cette dégradation de l'information existe aussi sous une autre forme avec les films argentiques, qui sont tout comme les capteurs numériques incapables de restituer les fins détails en-dessous d'une certains limite.
Définition d'une image numérique
modifierBien entendu, l'image sera d'autant plus dégradée que l'on utilisera un système électronique incapable d'engendrer des carrés suffisamment petits, comme le montre clairement la simulation ci-dessous :
Il est très facile de comprendre que la qualité de l'image est d'autant plus grande que le quadrillage est serré et donc que le nombre total de pixels est élevé.
On appelle définition d'une image numérique le nombre total de pixels qui composent cette image. Par exemple, une image présentant 3 000 pixels sur sa longueur et 2 000 pixels sur sa largeur aura une définition de 6 000 000 de pixels, on dira plus communément 6 mégapixels, ou 6 Mp.
Notons au passage que contrairement à une image argentique, une image numérique n'a pas de dimension fixée a priori. On peut l'agrandir ou la rapetisser à volonté, sans que cela change le nombre de ses pixels et par voie de conséquence la quantité d'information qu'elle contient.
Résolution d'une image numérique
modifierLa résolution linéaire d'une image numérique correspond à un nombre de pixels par unité de longueur. Cette notion trouve son intérêt lorsqu'une image doit être imprimée, car lors de cette opération il faut évidemment définir la taille du support. On parle alors de pixels par centimètre ou plus couramment de pixels par pouce (inch en anglais).
Ainsi, une image de 3 600 x 2 400 pixels imprimée à la résolution de 300 pixels par pouce aura une dimension finale de 12 pouces x 8 pouces, soit environ 30 x 20 cm, plus exactement 30,5 x 20,3 cm, puisqu'un pouce vaut 2,54 cm. La même photographie imprimée à la résolution de 200 pixels par pouce aura donc pour dimensions 18 x 12 pouces, soit environ 45 x 30 cm.
Changer la résolution d'une image donnée ne modifie pas son nombre total de pixels, mais seulement ses dimensions, lorsque cette image doit être imprimée. La relation entre la résolution et la définition est simple :
Plus généralement, on peut considérer la résolution d'une image comme la racine carrée du rapport de sa définition à sa surface.
Prenons par exemple une image numérique de longueur 800 pixels et de hauteur 600 pixels. Sa définition est de :
Si cette image est imprimée au format 8 x 6 cm, alors sa surface vaut :
Sa résolution vaut alors :
La vérification ne devrait pas être trop difficile.
Pour une image donnée, la résolution et les dimensions varient en sens inverse. Un fichier de 3 200 x 2 700 pixels imprimé en très haute résolution fournira une carte de visite ou un timbre poste. En basse résolution, ce sera un poster ou un panneau publicitaire de 4 x 3 m.
Attention ! Les professionnels, selon leur secteur d'activité, n'utilisent pas tous le même vocabulaire ! Par exemple, un vendeur de matériel informatique ne vous parlera jamais de la définition d'un écran plat, mais de sa résolution. De même, dans la littérature anglo-saxonne, les deux termes sont souvent confondus et il vaut mieux être un peu au courant des techniques numériques pour tirer profit de ces écrits.
Quant aux journalistes, mieux vaut en général considérer ce qu'ils écrivent avec une certaine prudence ; même si quelques uns savent parfaitement de quoi ils parlent, beaucoup d'entre eux ont une fâcheuse tendance à tout mélanger.
Ré-échantillonnage
modifierIl est parfaitement possible de modifier la définition d'une image mais cela ne va pas sans inconvénient, comme le montre l'exemple ci-dessous.
- L'image n° 1 a une définition de 30 x 20 pixels, c'est celle que nous avons rencontrée plus haut.
- L'image 2 est obtenue à partir de l'image 1 par réduction du nombre de pixels, elle n'en compte plus que 20 x 13. Les nouvelles valeurs des pixels ont été recalculées, on dit aussi ré-échantillonnées, à partir des pixels plus petits de l'image d'origine. La perte de détails est évidente ! Par ailleurs, comme le résultat du calcul aboutit forcément à deux nombres entiers de pixels pour les deux dimensions de l'image finale, celle-ci n'a plus tout-à-fait les proportions de l'image d'origine.
- L'image 3 est obtenue à partir de l'image 2, en multipliant les nombres de pixels précédents par 2. Pour des raisons qui tiennent au procédé de calcul utilisé, on ne retrouve pas non plus les proportions de l'image 2, puisque le nouveau nombre de pixels est 40 x 25. Le calcul effectué ici est une interpolation, l'image 3 est beaucoup plus « douce » que l'image 2 mais pour autant, la multiplication du nombre des pixels n'a pas fait réapparaître par enchantement les détails qui ont été détruits pas la réduction précédente.
Il ne faut jamais oublier que tout ré-échantillonnage d'une image entraîne irrémédiablement une perte de qualité. De ce fait, sauf cas particuliers, on a toujours intérêt à régler son appareil sur la plus haute qualité possible et à désactiver tous les automatismes qui ont pour but de régler la netteté, le contraste, etc. Bien entendu, il faut utiliser sans hésiter le mode RAW lorsqu'il existe. Pour la même raison, il ne faut jamais modifier les fichiers originaux mais toujours travailler uniquement sur des copies, sachant qu'alors, en cas de fausse manœuvre, il sera toujours possible de revenir à la source.
Lorsque l'on fait subir une transformation géométrique à une image, les pixels sont recalculés, ce qui produit toujours une perte de qualité. On entend par transformation géométrique une rotation destinée à redresser une image penchée, une correction de la perspective, un cisaillement, etc. Pour éviter de cumuler les dégradations, il ne faut jamais effectuer deux transformations de même nature à la suite l'une de l'autre. Par exemple, si après avoir fait tourner de 4° une image que l'on veut redresser, on s'aperçoit que cette rotation est insuffisante, il faut toujours recommencer à partir de l'image de base et ne jamais cumuler deux rotations successives. Tourner une première fois de 4°, puis une seconde de 2°, produit une dégradation supérieure à celle que cause une rotation unique de 6°.
Que faut-il pour faire un pixel ?
modifierC'est une excellente question, à laquelle peu de gens savent répondre correctement.
Tout d'abord, chaque pixel doit être situé à un endroit précis dans l'image numérique à laquelle il appartient. Cela revient à lui affecter, par une méthode ou par une autre, un numéro de ligne et un numéro de colonne, donc deux nombres caractéristiques.
Ensuite, il faut préciser la couleur, ce qui se fait par codage de trois composantes pour les images colorées et d'une seule pour les images en gammes de gris.
Enfin, dans certains cas, chaque pixel peut être doté d'une transparence réglable de 0 à 100 % (valeur « alpha »). Cette association est automatique pour les pixels qui appartiennent aux calques que l'on peut superposer à une image de base qui, elle-même, n'a normalement besoin d'aucune transparence. Cependant, pour certains usages particuliers, il est toujours possible de doter une image de base d'un « canal alpha ».
Image numérique
|