• Aucun résultat trouvé

1.5 Image numérique, Informations et Médias

1.5.1 Les images numériques

Avant toute chose, mettons-nous d’accord sur le terme " image " ; en effet, le traitement d’images fait appel non pas à des images optiques classiques (telles que notre œil les perçoit), mais à des images numériques. Les logiciels de traitement d’images travaillent sur des données chiffrées contenues dans l’image, modifient ces données qui sont ensuite utilisées pour construire une seconde image " transformée " visualisable. La représentation numérique des images permet de combiner des images obtenues sous différents modes de macro ou de microscopie, de représenter une organisation spatiale (3D) à partir d’un ensemble de clichés successifs (2D), d’archiver les images et de les transférer par les réseaux informatiques [13].

Les calculs effectués sur ces données numériques, par un logiciel de traitement d’images ou par un logiciel d’analyse d’images, vont permettre de modifier l’aspect visuel de l’image et d’extraire des données quantifiées sur cette image [17].

Il existe 2 types d’images :

– les images vectorielles : utilisées principalement dans le monde du graphisme et de la conception assistée par ordinateur,

– les images bitmap ou matricielles : utilisées dans le domaine du traitement et de l’analyse d’images ; ce sont celles qui seront décrites dans ce support.

Définition de l’image numérique

L’image numérique correspond à une matrice (ensemble ordonné à deux ou trois di- mensions) de données numériques. Nous nous intéresserons uniquement aux images en

deux dimensions. On peut concevoir ces images en deux dimensions comme un tableau de valeurs auxquelles on fait correspondre une position sur un plan (x,y) et une couleur pour visualiser l’image sur l’écran d’un ordinateur [17] :

– Exemple d’un détail d’une image binaire dont la couleur est codée en 0 ou en 1 :

Fig. 1.9 – Détail d’une image binaire.

– Exemple d’un détail d’une image en niveaux de gris dont la valeur de gris est codée entre 0 et 255 :

Fig. 1.10 – Détail d’une image en niveaux de gris.

Une image numérique 2D est donc composée d’unités élémentaires appelées pixels (ou " picture elements ") qui représente chacune, une portion de l’image, codée par des valeurs numériques (des explications complémentaires sur les pixels seront données dans la partie résolution spatiale d’une image, située plus loin dans ce chapitre). Une image est définie par le nombre de pixels qui la composent en largeur et en hauteur (qui peut varier théoriquement presque à l’infini) et l’étendue des teintes de gris ou des couleurs que peut prendre chaque pixel (on parle de dynamique de l’image). Toutes les données correspondant aux informations chiffrées contenues dans l’image sont structurées, afin de permettre leur stockage [13].

Une image numérique en elle-même est en fait un concept tout à fait abstrait (des données chiffrées) qui ne trouve une signification à nos yeux qu’à la visualisation, lorsque l’on utilise un logiciel de représentation adéquat.

Obtention d’une image numérique

La numérisation d’une image est obtenue par l’intermédiaire d’un capteur et d’un numériseur, qui transforment un signal optique en un signal numérique. Le signal op- tique peut être obtenu directement ou par l’intermédiaire d’un système d’agrandissement optique : lentille simple, loupe ou microscope photonique. Le capteur est constitué par un ensemble de capteurs élémentaires, une barrette de CCD (Charge Couple Device), ça peut être une caméra, noir et blanc ou couleur, un appareil photo numérique ou un scan- ner (scanner à plat ou scanner à diapositives) [14]. Le signal électrique est repris par un convertisseur analogique-digital (carte de numérisation intégrée ou non au capteur) qui transforme les données continues en données numériques codées sur 1, 8, 16 ou 24 bits.

Le codage utilisé définit le type d’images (noir et blanc, niveaux de gris ou couleur) et sa " profondeur ". La taille des CCD et le pas d’échantillonnage de l’image au niveau de la carte de numérisation définissent la résolution spatiale de l’image. Le format de l’image est défini par l’entête du fichier et peut être précisé par son extension .bmp, .tif, .gif, .jpeg etc..., il renseigne sur le mode de présentation des données et leur degré de compression [17].

N.B. : dans les deux images qui vont suivre, le caractère x signifie que les pixels ont n’importe quelle valeur, le but de ce schéma étant purement explicatif.

Remarque : il n’existe que 3 possibilités de partitionner l’espace de façon régulière (avec des éléments de même surface) (pensons au pavage d’un sol) :

– par un maillage carré :

- 4 directs, tous situés à la distance d du pixel central, - 4 indirects, tous situés à la distance d√2 du pixel central.

Par la suite, on verra que l’on peut parfois demander que les opérateurs (utilisés pour réaliser une transformation sur l’image) ne s’intéressent qu’aux 4 voisins directs ou bien à l’ensemble des 8 voisins du pixel traité.

– par un maillage hexagonal :

Dans cette configuration, le pixel central a 6 voisins tous situés à égale distance de lui. – par un ensemble de triangles, mais cette dernière configuration n’est qu’un sous-

ensemble de la maille hexagonale.

La maille hexagonale est celle qui permet de mieux suivre les contours courbes des objets. Mais, les cartes de digitalisation actuelles ne génèrent que des images en maille carrée ; on peut, cependant, quand cela s’avère nécessaire, repasser d’une maille carrée à une maille hexagonale, grâce à un simple calcul, effectué par certains logiciels d’analyse d’images [17].

codage :

Le codage utilisé définit la " profondeur " et le type d’image (noir et blanc, niveaux de gris ou couleur) :

– Une valeur provenant d’une image noir et blanc (ou rouge, selon le logiciel utilisé) est représentée par 1 bit (correspondant à la zone de stockage élémentaire des or- dinateurs) qui prend la valeur 1 (pour le blanc ou le rouge) et la valeur 0 (pour le noir), on parlera d’une " image binaire ". Le noir représente le " fond " de l’image tandis que le rouge (ou le blanc) représente le ou les " objets " de l’image.

Fig. 1.11 – Image binaire.

– Une image en niveaux de gris nécessite, pour son codage, 8 bits (correspondant à 1 octet) ; les valeurs de niveau de gris étant comprises entre 0 (pour le noir) et 255 (pour le blanc) (256 valeurs=28).

Fig. 1.12 – Image en niveaux de gris.

– Une image couleur peut être codée elle aussi sur 4 bits (image en 16 couleurs), 8 bits (image en 256 couleurs) ou davantage : 24 bits pour une image en 16 millions de couleur (16777216 = 224).

Fig. 1.13 – Image couleur.

Sur le cas particulier des images couleur, il est possible de décomposer l’image couleur initiale en ses 3 plans : rouge, vert et bleu.

Ce n’est pas parce que la " profondeur " du pixel est de 256 couleurs (par exemple, mais ceci est aussi valable pour les autres types de codage) que l’image va forcément contenir 256 couleurs, ceci veut tout simplement dire qu’elle pourra au plus être composée de 256 couleurs [17].

D’autre part, il y a un petit " piège " : une image codé en 8 bits peut être, soit une image en niveaux de gris, possédant au maximum 256 niveaux de gris, soit une image couleur (au sens propre du terme) possédant au maximum 256 couleurs. A la visualisation, une image en niveaux de gris n’est qu’un cas particulier d’images couleur.

Résolution spatiale d’une image

Elle est définie par le nombre de points image ou " pixels " représentant l’image, par unité de longueur de la structure à numériser (l’image initiale) ; on exprime cette résolution en points ou pixels par pouce (ppp) ou " dots per inch " (dpi). Beaucoup de personnes expriment la résolution d’une image par son nombre total de pixels en x et y, mais c’est un abus de langage. Ce paramètre est fixé lors de la numérisation et dépend principalement des caractéristiques du matériel (comme le scanner) utilisé lors du processus de numérisation.

" pixel " : on peut se le figurer comme un carré élémentaire, ou une brique utilisée pour construire un bâtiment, en l’occurrence ici une image numérique. Chaque pixel est caractérisé par sa position (x,y) dans l’image et sa couleur qui constitue sa troisième dimension.

Plus le nombre de pixels est élevé par unité de longueur de la structure à numériser, plus la quantité d’information qui décrit cette structure est importante et plus la résolution est élevée. Mais, dans ce cas, l’image occupe une place plus importante dans la mémoire de l’ordinateur (le N.B du bas). Lorsque la résolution diminue, la précision diminue puisque l’objet est représenté par un nombre moins important de pixels [13].

Si l’on prend une image numérique et qu’on divise sa taille par 4 (ce qui équivaut à la scanner à une résolution 2 fois moins élevée que celle qu’elle a pour le moment), son nombre de pixels va être divisé par 4 (il va en effet, y avoir 2 fois moins de pixels en abscisse et 2 fois moins de pixels en ordonnée). Il en résulte une perte de certaines informations contenues auparavant dans l’image, car on a maintenant 4 fois moins de

pixels pour pouvoir " construire " l’image numérique, le logiciel ne gardant de l’image de départ qu’une information sur 2 [13].

Au contraire, il ne faut pas pour autant dire que si l’on multiplie par 2 la taille d’une image numérique, l’image obtenue aura plus de détails ; en effet, l’image de départ sur laquelle on va faire " l’opération " ne possédant pas ces détails fictifs, ces derniers ne vont pas apparaître par enchantement dans l’image résultante ! ; le logiciel ne fera, dans le meilleur des cas, qu’interpoler les valeurs des pixels, c’est à dire les déduire par le calcul à partir des valeurs de voisinage.

L’interpolation a pour effet d’obtenir des images de plus grande taille, mais elle n’ap- porte pas d’informations supplémentaires " réelles " par rapport à l’image de départ. L’augmentation de la taille de l’image est dans ce cas " logicielle ".

Par contre, si l’on numérise par exemple, avec un scanner, un document original à une résolution de 300 dpi, on aura évidemment plus de détails que si on le scanne à une résolution de 150 dpi, mais en contre partie cette image sera 4 fois plus volumineuse [17].

Ainsi, un petit " piège " peut exister :

Un scanner a une résolution maximale (par exemple de 600 dpi, pour un scanner à plat de performances moyennes) déterminée par la structure de son capteur, mais le logiciel qui pilote le scanner peut proposer de numériser l’image voulue à 1200 dpi !. En fait, l’image va n’être numérisée qu’à une résolution de 600 dpi par le capteur, mais le logiciel qui pilote le scanner va faire ensuite une interpolation à 1200 dpi.

Il semble clair que la représentation numérique d’une structure (telle un disque par exemple) peut aboutir à une représentation biaisée de cette structure. Le choix de la résolution est donc un facteur primordial lorsque l’on réalise une numérisation. Ce choix va conditionner la qualité de l’information véhiculée dans l’image (et donc ce que l’on va pouvoir en faire par la suite) ainsi que son poids c’est à dire l’encombrement en mémoire de cette image... [80].

N.B. : La place mémoire occupée par une image codée en pixels est égale au nombre de pixels qui la composent, multiplié par le nombre d’octets nécessaire pour coder la valeur d’un pixel, auquel il faut ajouter l’entête du fichier (qui peut renfermer en particulier les informations sur le format et la résolution de l’image) ainsi que les LUT (LookupUnit Table) qui sont étudiées dans le cas particulier des images couleur.