Section courante

A propos

Section administrative du site

Les images numériques

Une image, dans le contexte informatique, est généralement un signal bidimensionnel transmettant des informations visuelles. Lorsqu'il s'agit d'une image analogique, celle-ci peut être, par exemple, celle qui se forme naturellement sur la rétine de l'oeil humain ou celle étant capturée par une photographie argentique classique. Dans ces deux cas, l'image est continue et peut contenir une infinité de nuances et de détails. Contrairement à ces images analogiques, les images numériques sont traitées, entreposées et manipulées par des systèmes informatiques, ce qui nécessite leur conversion en un format discret, compréhensible par la machine.

On distingue principalement deux grandes catégories d'images numériques : les images vectorielles et les images matricielles.

Dans ce qui suit, nous nous concentrerons exclusivement sur les images matricielles. La représentation informatique d'une image implique nécessairement sa numérisation, c'est-à-dire sa transformation en un ensemble de données numériques. La numérisation se déroule selon deux axes principaux :

Ainsi, la combinaison de l'échantillonnage spatial et de la quantification des couleurs permet de transformer toute image en un ensemble structuré de données numériques, prêt à être entreposé, traité, transmis ou affiché par un ordinateur ou tout autre dispositif numérique. La maîtrise de ces concepts est essentielle pour comprendre le traitement d'images, la retouche photographique, les animations, la création graphique et même certaines applications scientifiques et médicales où la précision des images est cruciale.

Les images en niveaux de gris

Les images en niveaux de gris constituent une forme particulière d'images numériques dans lesquelles chaque pixel ne contient qu'une information d'intensité lumineuse, sans composante de couleur. En pratique, ces images sont très utilisées dans de nombreux domaines tels que le traitement d'images, la vision artificielle, l'imagerie médicale ou encore la reconnaissance de formes, car elles simplifient l'analyse visuelle tout en conservant les informations essentielles sur les contrastes et les structures de l'image.

Dans la majorité des cas, une image en niveaux de gris contient 256 teintes de gris distinctes. Par convention, la valeur numérique 0 correspond au noir absolu, c'est-à-dire à une intensité lumineuse nulle, tandis que la valeur 255 représente le blanc pur, associé à une intensité lumineuse maximale. Toutes les valeurs intermédiaires correspondent à des nuances de gris plus ou moins claires, permettant de représenter des dégradés progressifs entre le noir et le blanc.

Le nombre 256 n'est pas arbitraire : il est directement lié au processus de quantification de l'image. En effet, chaque niveau de gris est codé sur 8 bits, ce qui permet de représenter 28=256 valeurs différentes. Les entiers représentant les niveaux de gris sont donc compris entre 0 et 28-1=255. Ce codage sur 8 bits correspond à la quantification la plus courante, car il offre un bon compromis entre la précision visuelle et la taille mémoire nécessaire pour entreposer l'image.

Il est toutefois possible d'utiliser d'autres profondeurs de codage. Par exemple, une image en niveaux de gris peut être codée sur 16 bits, ce qui permet de représenter des valeurs comprises entre 0 et 216-1. Cette approche offre une précision beaucoup plus élevée et est souvent utilisée dans des contextes scientifiques ou médicaux, où de très faibles variations d'intensité doivent être détectées. À l'inverse, un codage sur 2 bits limite les valeurs possibles à 0 ou 1. Dans ce cas, l'image ne comporte que deux niveaux de gris et devient une image binaire, également appelée image en noir et blanc, où chaque pixel est soit totalement noir, soit totalement blanc, sans nuance intermédiaire.

On note généralement I l'image numérique, et la valeur d'un pixel situé à la position (i,j) est donnée par l'expression I[i,j]=n, où n représente le niveau de gris associé à ce pixel. Lorsque la valeur n appartient à l'intervalle P[Nmin,Nmax], le nombre total de niveaux de gris disponibles dans l'image est égal à Nmax-Nmin+1. Cet intervalle définit l'intervalle effective de valeurs utilisées par l'image.

La dynamique de l'image correspond à l'étendue des niveaux de gris réellement exploités et est donnée par la formule log2(Nmax-Nmin). Plus cette dynamique est élevée, plus l'image est capable de représenter des contrastes fins et des variations subtiles de luminosité. Une dynamique faible, en revanche, peut entraîner une perte de détails dans les zones sombres ou très claires de l'image.

Enfin, il est important de préciser que, par convention, l'origine du repère spatial de l'image est située en haut à gauche. Les indices i et j augmentent respectivement vers le bas et vers la droite, ce qui correspond à l'organisation classique des images numériques en mémoire. Cette convention est essentielle pour l'interprétation correcte des coordonnées des pixels et pour la mise en oeuvre des algorithmes de traitement d'images.

Les images binaires (noir ou blanc)

Les images binaires constituent la forme la plus simple d'images numériques. Dans ce type de représentation, chaque pixel ne peut prendre que deux valeurs possibles, correspondant généralement au noir ou au blanc. Il n'existe donc aucune nuance intermédiaire de gris : chaque point de l'image est soit totalement sombre, soit totalement clair. Cette simplification extrême de l'information visuelle permet de réduire considérablement la quantité de données nécessaires pour représenter l'image.

Concrètement, une image binaire est souvent codée sur un seul bit par pixel, ce qui signifie que la valeur 0 peut être associée au noir et la valeur 1 au blanc, ou inversement selon la convention adoptée. Ce mode de codage rend les images binaires très efficaces en termes d'entreposage et de vitesse de traitement, ce qui explique leur utilisation fréquente dans des applications nécessitant des opérations simples et rapides.

Les images binaires sont typiquement utilisées pour la numérisation de documents textuels lorsque le contenu est composé d'une seule couleur, comme du texte noir imprimé sur un fond blanc. Elles sont particulièrement adaptées à la reconnaissance optique de caractères (OCR), à l'analyse de formes simples ou encore à la détection de contours. En revanche, ce type d'image est peu adapté à la représentation de photographies ou de scènes complexes, car l'absence de niveaux de gris empêche la restitution des détails fins, des ombres et des dégradés.

Ainsi, malgré leur simplicité, les images binaires jouent un rôle fondamental dans le domaine du traitement d'images numériques, notamment lorsqu'il s'agit de représenter et d'analyser des informations visuelles structurées, claires et fortement contrastées.

Les images couleur

Les images couleur reposent sur la notion d'espace colorimétrique, lequel est fondé sur le principe de la synthèse des couleurs. Ce principe stipule que le mélange de plusieurs composantes élémentaires permet d'obtenir une large variété de couleurs perceptibles par l'oeil humain. Dans le cas des images numériques, une couleur est généralement obtenue à partir de la combinaison de trois composantes fondamentales, chacune représentant une information distincte. Ainsi, chaque pixel d'une image couleur est codé à l'aide de trois valeurs numériques, définissant précisément la couleur affichée à cet emplacement.

La signification exacte de ces trois valeurs dépend du modèle de codage des couleurs choisi. Parmi les différents espaces couleur existants, le plus couramment utilisé pour la manipulation et l'affichage des images numériques est l'espace Rouge - Vert - Bleu (R, V, B), également appelé RGB (Red, Green, Blue). Dans ce modèle, chaque pixel est défini par une intensité de rouge, de vert et de bleu. La combinaison additive de ces trois composantes permet de reproduire une grande variété de couleurs. La restitution des images sur les écrans d'ordinateur, de télévision ou de téléphone intelligent repose précisément sur ce principe de synthèse additive, où l'addition des lumières colorées produit la couleur finale perçue.

Il existe toutefois de nombreux autres espaces colorimétriques, chacun ayant des objectifs et des usages spécifiques. Parmi eux, on trouve notamment les modèles Cyan - Magenta - Jaune (CMY), ou encore sa variante CMYK utilisée en impression, ainsi que les espaces Teinte - Saturation - Luminosité (HSL), YUV, YIQ, Lab ou XYZ. Ces modèles permettent de représenter la couleur selon des critères différents, par exemple en séparant la luminosité de l'information chromatique ou en s'adaptant aux contraintes physiques de certains dispositifs. Contrairement aux écrans, la restitution des images sur papier s'appuie sur le principe de la synthèse soustractive, dans laquelle les encres absorbent une partie de la lumière pour produire les couleurs visibles.

Dans la suite de cette étude, nous ne considérerons toutefois que des images en niveaux de gris. En effet, chaque composante de couleur, aussi appelée canal ou calque, peut être traitée indépendamment et assimilée à une image en niveaux de gris à part entière. Il est donc possible d'appliquer à chaque canal les mêmes transformations et méthodes que celles décrites pour les images monochromes. Néanmoins, le traitement global des images couleur, et en particulier les techniques de recalage ou d'alignement entre canaux, demeure plus complexe et délicat que dans le cas des images en niveaux de gris, en raison des interactions entre les différentes composantes chromatiques.

Échantillonnage et quantification

L'échantillonnage est le procédé fondamental de discrétisation spatiale d'une image. Il consiste à transformer une image continue, définie sur un espace bidimensionnel, en une image numérique composée d'éléments discrets. Plus précisément, l'image continue est découpée en un ensemble de zones rectangulaires élémentaires, appelées pixels, notées R(i,j). À chacune de ces zones est associée une valeur numérique unique I(i,j), représentant l'information visuelle moyenne ou caractéristique de la zone correspondante. Ce processus permet de passer d'une représentation analogique de l'image à une représentation exploitable par un système informatique.

On parle de sous-échantillonnage lorsque l'image est déjà discrétisée et que l'on réduit volontairement le nombre d'échantillons spatiaux, par exemple en diminuant la résolution de l'image. Cette opération entraîne une perte d'information spatiale, car certains détails fins de l'image originale ne sont plus représentés. Le sous-échantillonnage est parfois utilisé pour réduire la taille des données ou accélérer les traitements, mais il doit être effectué avec précaution afin d'éviter des dégradations visuelles importantes.

La quantification, quant à elle, désigne le processus par lequel on limite le nombre de valeurs différentes que peut prendre la fonction I(i,j). En pratique, ce nombre est déterminé par le nombre de bits utilisés pour coder chaque valeur numérique. Plus le nombre de bits est élevé, plus le nombre de niveaux possibles est important, ce qui permet de représenter des variations plus fines d'intensité ou de couleur. À l'inverse, une quantification grossière réduit la précision des valeurs et peut engendrer des effets visuels indésirables, tels que des aplats ou des ruptures dans les dégradés.

Ainsi, une image numérique est le résultat combiné de ces deux opérations : elle est à la fois échantillonnée, car définie sur une grille de pixels, et quantifiée, car chaque pixel ne peut prendre qu'un nombre fini de valeurs possibles. Ces deux étapes sont indispensables pour rendre l'image compatible avec les capacités d'entreposage et de traitement des ordinateurs.

L'échantillonnage est cependant une opération plus complexe qu'il n'y paraît à première vue. En effet, un sous-échantillonnage mal maîtrisé peut faire apparaître des fréquences parasites, dues au phénomène de repliement du spectre, également appelé aliasing. Dans le contexte des images, la notion de fréquence est liée au niveau de détail : les hautes fréquences correspondent aux variations rapides de luminosité, telles que les contours nets ou les textures fines, tandis que les basses fréquences décrivent les zones uniformes ou les variations lentes.

Le théorème d'échantillonnage de Shannon, bien connu dans le cas unidimensionnel des signaux temporels, s'applique également aux images, étant des signaux bidimensionnels. Ce théorème stipule que pour reconstruire correctement un signal, la fréquence d'échantillonnage doit être au moins deux fois supérieure à la fréquence maximale présente dans le signal. Lorsque cette condition n'est pas respectée, des artefacts apparaissent dans l'image échantillonnée.

Dans le cas des images, le phénomène d'aliasing se manifeste visuellement par des effets de moiré, caractérisés par des motifs ondulés ou des structures répétitives artificielles. Ces artefacts dégradent la qualité visuelle de l'image et constituent l'un des principaux problèmes à prendre en compte lors des opérations de réduction de résolution ou de numérisation d'images riches en détails.

Quelques procédés d'acquisition

Le principe fondamental de l'acquisition d'une image numérique, quelle que soit sa nature ou son domaine d'application, consiste à transformer des grandeurs physiques ou chimiques en valeurs numériques exploitables par un système informatique. Ces grandeurs peuvent correspondre, par exemple, à une intensité lumineuse, à une réaction chimique, à une charge électrique ou à toute autre manifestation mesurable du monde réel. Une fois converties en nombres, ces informations sont entreposées sous forme de tableaux de données, généralement organisés en matrices de pixels, constituant la représentation numérique de l'image.

Dans ce cadre, le processus d'acquisition inclut plusieurs étapes essentielles, allant de la captation du signal initial à sa conversion en données numériques. Selon le type d'image et le dispositif utilisé, ces étapes peuvent impliquer des capteurs optiques, des réactions photosensibles, des dispositifs électroniques ou encore des systèmes mécaniques de balayage. Dans ce qui suit, nous nous limiterons à la présentation de quelques procédés courants d'acquisition d'images, afin d'illustrer les principes généraux mis en oeuvre dans la formation d'images numériques.

Parmi tous les systèmes d'acquisition existants, l'oeil humain demeure le dispositif le plus sophistiqué dont nous disposions. Il constitue un modèle naturel extrêmement performant, capable de s'adapter à une large plage de luminosité, de percevoir des couleurs variées et de détecter des détails fins dans des conditions très diverses. Dans ce système, l'oeil joue le rôle de capteur, tandis que le cerveau peut être assimilé à un véritable « ordinateur biologique » chargé de traiter, interpréter et analyser les données visuelles acquises. Malgré les progrès considérables des neurosciences, le fonctionnement précis de ce système complexe reste encore largement méconnu.

De ce fait, toutes les méthodes artificielles d'acquisition et de traitement des images, qu'elles soient analogiques ou numériques, s'inspirent du système visuel humain sans pouvoir en reproduire toute la richesse et l'efficacité. Les capteurs d'images, les algorithmes de traitement et les techniques de reconnaissance visuelle tentent d'imiter certaines capacités de l'oeil et du cerveau, telles que la perception des contrastes, la détection des contours ou l'interprétation des formes. Ainsi, l'étude des procédés d'acquisition d'images s'inscrit dans une démarche visant à rapprocher les systèmes artificiels des performances remarquables du système visuel naturel, tout en tenant compte des contraintes techniques et informatiques propres aux dispositifs numériques.

Le système visuel

La lumière constitue l'ensemble des ondes électromagnétiques que l'oeil humain est capable de percevoir. Plus précisément, ce sont des ondes dont les longueurs sont comprises entre environ 380 nanomètres, correspondant au violet, et 780 nanomètres, correspondant au rouge. La lumière est donc intimement liée à la notion de couleur, puisque chaque longueur d'onde correspond à une couleur spécifique perçue par l'oeil. Par extension, on appelle parfois «lumière» certaines ondes électromagnétiques situées en dehors de ce spectre visible, comme celles des domaines infrarouge ou ultraviolet, même si elles ne sont pas directement perceptibles par la vision humaine.

De manière générale, toute onde électromagnétique est caractérisée par deux paramètres principaux : sa longueur d'onde, déterminant la couleur dans le cas de la lumière visible, et sa phase, influençant la cohérence de l'onde. Une lumière constituée d'ondes toutes de la même longueur d'onde est dite monochromatique. Si, en plus, toutes ces ondes ont la même phase, la lumière est dite cohérente, ce qui correspond à la situation dans un laser, source lumineuse extrêmement précise et directive.

La vision est le sens qui permet de percevoir le monde à l'aide de la partie visible du rayonnement électromagnétique. Elle regroupe l'ensemble des mécanismes physiologiques et psychologiques qui transforment la lumière émise ou réfléchie par l'environnement en perceptions visuelles. Ces perceptions permettent de distinguer des éléments tels que les formes, les couleurs, les textures, le mouvement, la distance et le relief. Pour accomplir cette tâche, le système visuel fait intervenir plusieurs niveaux de traitement : l'oeil, en tant qu'organe récepteur, capte les signaux lumineux, tandis que le cerveau analyse et interprète ces informations grâce à des processus cognitifs complexes, localisés dans des zones spécialisées telles que le cortex visuel. La vision n'est donc pas un simple enregistrement passif de la lumière : elle est le résultat d'une interaction sophistiquée entre réception sensorielle et traitement cérébral.

Par extension, le terme de vision artificielle désigne le domaine technologique cherchant à reproduire certaines fonctions de la vision humaine à l'aide de systèmes électroniques. L'objectif principal est de déterminer la position d'objets ou de points dans l'espace tridimensionnel à partir de données captées par une ou plusieurs caméras. La vision artificielle repose sur des principes de géométrie projective et permet, par exemple, à un robot de naviguer de manière autonome dans un environnement réel, de détecter des obstacles, ou de réaliser des tâches précises en interaction avec son environnement.

Le flux d'informations visuelles provenant de l'extérieur et détecté par la rétine n'est cependant pas le seul élément intervenant dans la perception. Les illusions d'optique illustrent parfaitement que la manière dont le système visuel, et en particulier le cortex visuel, traite ces informations joue un rôle crucial dans la construction de l'image perçue. La vision n'est ni instantanée ni parfaitement continue ; elle s'effectue de manière ponctuelle mais extrêmement rapide, à raison d'environ 1/40 de seconde par traitement. Les informations captées par la rétine transitent par les nerfs optiques jusqu'aux aires corticales situées à l'arrière du cerveau, où elles sont analysées et interprétées. La complexité de ces mécanismes a fait l'objet de nombreuses recherches en neurosciences cognitives, qui cherchent à comprendre comment le cerveau décode les signaux lumineux pour former une représentation cohérente, stable et riche de notre environnement.

Ainsi, le système visuel humain combine à la fois des aspects physiologiques, liés aux structures de l'oeil et des voies optiques, et des aspects psychologiques, liés au traitement cognitif des informations, ce qui en fait un modèle d'une grande sophistication, toujours utilisé comme source d'inspiration pour le développement des technologies de traitement et de perception d'images numériques.

Imagerie «grand public» : photographie

Hormis quelques différences de structure et de technologie selon le type d'appareil, les appareils photo modernes, qu'ils soient numériques ou argentiques, reposent sur un principe de fonctionnement fondamental commun. Chaque appareil se compose de plusieurs éléments de base essentiels au processus de capture d'images : le viseur, permettant au photographe de cadrer la scène; le déclencheur, initiant la prise de vue; l'objectif, constitué de lentilles destinées à former une image nette sur la surface sensible ; le diaphragme, qui contrôle la quantité de lumière traversant l'objectif ; l'obturateur, qui régule la durée d'exposition ; et enfin la surface sensible elle-même, qui peut être un film argentique ou un capteur numérique.

L'objectif joue un rôle central dans la formation de l'image. Il s'agit d'un système optique complexe situé à l'avant de l'appareil, constitué de plusieurs lentilles disposées pour focaliser la lumière et produire une image nette sur le support récepteur. Dans un appareil photo argentique classique, l'image se forme sur un film transparent en matière plastique, recouvert d'une couche photosensible constituée de minuscules grains d'argent. Ces grains réagissent chimiquement lorsqu'ils sont exposés à la lumière captée par l'objectif, donnant naissance à une image latente, invisible immédiatement après la prise de vue. Cette image est appelée négatif, car les tonalités du sujet photographié y sont inversées : les zones claires apparaissent sombres et les zones sombres apparaissent claires.

Pour rendre cette image visible et exploitable, elle doit passer par le laboratoire de développement. L'image latente sur le film est d'abord projetée sur du papier photographique à l'aide d'un agrandisseur. Le papier est ensuite plongé dans un bain de révélateur, un produit chimique qui noircit les grains d'argent activés par la lumière, tandis que les grains non exposés restent incolores. Un bain d'arrêt permet de stopper l'action du révélateur, afin d'éviter toute modification supplémentaire. Enfin, un fixateur élimine les grains d'argent non exposés pour stabiliser définitivement l'image, et le papier est soigneusement lavé afin de retirer tout résidu chimique et de préserver l'image dans le temps. Pour les photographies en couleur, le principe reste le même, mais avec un film plus complexe comportant trois couches photosensibles superposées, séparées par des filtres colorés permettant de reproduire les teintes avec précision.

La granularité du film influence directement la qualité et la résolution de l'image obtenue. Dans le cas d'une pellicule à grains fins, donc peu sensible à la lumière, la taille moyenne d'un grain d'argent est d'environ 20 micromètres. Sur un négatif standard de 24 x 36 mm, cela représente environ deux millions de grains, tandis qu'une plaque photographique de 24 x 30 cm peut contenir près de 180 millions de grains. Bien que chaque grain d'argent ne corresponde pas exactement à un pixel numérique, il est remarquable de constater que la résolution effective d'une plaque photographique peut encore aujourd'hui dépasser celle des meilleurs appareils numériques modernes.

Le tirage photographique constitue l'étape finale du processus, visant à restaurer et agrandir l'image à partir d'une pellicule développée. Cette étape permet de transférer l'image capturée sur un support visible, généralement du papier photographique, tout en conservant autant que possible la netteté, les détails et les nuances de l'original. Le tirage n'est donc pas seulement une reproduction : c'est une étape indispensable de restitution et de valorisation de l'image, permettant de passer de la pellicule invisible à une photographie tangible, observable et appréciable.

Imagerie «grand public» : photographie numérique

Dans les appareils photographiques numériques, le rôle traditionnel du film argentique est désormais remplacé par un capteur électronique, constituant la surface sensible de l'appareil. Ce capteur est constitué de millions de cellules photosensibles, chacune capable de détecter l'intensité lumineuse la frappant. Pour permettre la capture des couleurs, chaque cellule est recouverte d'un filtre coloré, généralement rouge, vert ou bleu, suivant la disposition du filtre de Bayer le plus répandu. Grâce à cette configuration, le capteur peut mesurer séparément les différentes composantes colorées de la lumière, permettant ainsi de restituer les couleurs exactes de la scène photographiée.

Une fois que la lumière a été convertie en signal électrique par le capteur, un convertisseur analogique-numérique (CAN) transforme ce signal continu en données binaires numériques, exploitables par le processeur de l'appareil. Ces données numériques constituent l'image brute capturée, appelée RAW dans de nombreux appareils. Les informations ainsi générées sont ensuite enregistrées sur le support d'entreposage de l'appareil, le plus souvent une carte mémoire amovible, ce qui permet de les transférer facilement vers un ordinateur ou un autre dispositif pour traitement et archivage.

Pour faciliter l'archivage et réduire l'espace nécessaire à l'entreposage, les images numériques sont souvent compressées, à l'aide de formats tels que JPEG ou HEIF. Le degré de compression peut être configuré avant la prise de vue, et il détermine non seulement la taille des fichiers, mais également le nombre d'images pouvant être entreposées sur une même carte mémoire. Ainsi, un choix de compression élevée permet d'entreposer plus de photos, mais au détriment de la qualité visuelle, tandis qu'une compression faible conserve davantage de détails mais nécessite plus de mémoire. De même que pour la photographie argentique, la sensibilité du capteur (équivalent de la pellicule ISO) peut être modifiée avant la prise de vue. Cependant, contrairement à l'argentique, ce réglage s'effectue numériquement via un menu de l'appareil, offrant un contrôle immédiat et précis sur la quantité de lumière captée et la luminosité de l'image finale.

Le capteur le plus répandu dans les appareils grand public est le CCD (Charge-Coupled Device, ou dispositif à transfert de charge). Le CCD est relativement simple à fabriquer, fiable et doté d'une bonne sensibilité à la lumière, ce qui le rend adapté à la photographie grand public. Lorsque la lumière frappe les éléments sensibles du capteur, elle est transformée en courant électrique variable, correspondant au signal photo ou vidéo. Aujourd'hui, ce rôle est assuré par des photodiodes intégrées dans chaque cellule, qui convertissent directement les photons reçus en électrons.

La qualité finale de l'image obtenue dépend de plusieurs facteurs essentiels. Premièrement, la résolution du capteur, c'est-à-dire le nombre total de cellules photosensibles, détermine le niveau de détail et la netteté des images. Plus le capteur comporte de cellules, plus l'image pourra capturer de détails fins. Deuxièmement, la précision et la disposition des filtres colorés influencent directement la fidélité des couleurs restituées. Enfin, le traitement électronique appliqué par l'appareil, incluant le traitement du bruit, l'ajustement des couleurs et l'optimisation des contrastes, joue un rôle déterminant dans la qualité visuelle finale, et permet d'obtenir des images nettes, contrastées et réalistes, même en conditions d'éclairage complexes.

Ainsi, la photographie numérique combine technologie optique et électronique, transformant la lumière en signaux numériques exploitables, et offrant une flexibilité et un contrôle beaucoup plus grands que la photographie argentique traditionnelle. Elle constitue aujourd'hui le mode de capture d'images le plus répandu pour les usages quotidiens et professionnels.

Imagerie «grand public» : numérisation des textes et des images

Un scanner, également appelé numériseur de documents, est un périphérique informatique dont la fonction principale est de transformer des documents physiques en images numériques exploitables par un ordinateur. Ce type de dispositif permet de capturer à la fois des textes imprimés ou manuscrits, ainsi que des images, photographies ou illustrations, et de les convertir en données numériques pouvant être sauvegardées, traitées ou analysées par des logiciels spécialisés. La numérisation consiste donc à effectuer une conversion de l'information contenue sur un support physique en une représentation informatique sous forme de pixels et de valeurs numériques.

Le fonctionnement du scanner repose sur un balayage lumineux du document. Le document à numériser est placé sur une surface plane, généralement une vitre transparente. Au-dessous de cette vitre, un système combinant une source de lumière et un miroir mobile parcourt le document. La source lumineuse éclaire le document de manière homogène, et la lumière réfléchie par les zones claires ou sombres du document est captée et renvoyée par le miroir vers un système optique de lentilles. Ces lentilles dirigent ensuite le flux lumineux vers un capteur électronique, souvent de type CCD (Charge-Coupled Device), transformant la lumière reçue en un signal électrique proportionnel à l'intensité lumineuse.

Ce signal électrique est ensuite transmis à l'ordinateur, où il est traité afin de reconstituer l'image numérique finale du document. Le logiciel associé au scanner prend en charge la conversion des signaux en pixels, la gestion des couleurs ou des niveaux de gris, et éventuellement l'application de corrections telles que l'ajustement du contraste, de la luminosité ou la suppression de défauts. L'image obtenue peut alors être enregistrée sur le disque dur, intégrée dans un document, modifiée graphiquement ou soumise à des traitements spécifiques, comme la reconnaissance optique de caractères (OCR) pour transformer le texte numérisé en texte éditable.

Les scanners se présentent sous différentes formes. La version la plus répandue est celle de la tablette, où le document doit être posé directement sur la vitre. Cependant, il existe également des scanners portables à main, que l'utilisateur déplace sur la surface du document, ainsi que des stylos numériseurs, plus compacts et adaptés à la capture rapide de passages ou de signatures. Ces variantes permettent une plus grande flexibilité et s'adaptent à des besoins variés, allant de la numérisation domestique à des usages professionnels intensifs.

En résumé, le scanner constitue un outil fondamental de numérisation, combinant des éléments optiques et électroniques pour capturer avec précision la lumière réfléchie par un document, la convertir en signaux électriques, puis en données numériques exploitables. Ce processus permet non seulement de conserver et d'archiver des documents physiques, mais aussi de faciliter leur traitement, leur partage et leur analyse dans le cadre d'activités bureautiques, artistiques ou scientifiques. Grâce à ces dispositifs, il est possible de transformer efficacement le papier et les images tangibles en ressources numériques faciles à manipuler et à exploiter.

L'imagerie médicale

L'objectif principal de l'imagerie médicale est de produire une représentation visuelle claire et intelligible d'informations à caractère médical. Il s'agit de traduire en images des données complexes issues de mesures cliniques, biologiques ou physiques afin de les rendre compréhensibles pour le diagnostic, l'évaluation ou le suivi des patients. Cette problématique s'inscrit dans un cadre plus large, celui de l'imagerie scientifique et technique, dont le but est de représenter, sous une forme relativement simple et accessible, une quantité considérable d'informations issues d'une multitude de mesures réalisées selon des protocoles bien définis. L'image médicale obtenue n'est donc pas simplement une illustration : elle constitue un outil d'analyse précis, permettant de visualiser et d'interpréter les données médicales de manière structurée et exploitables.

Une fois acquise, l'image médicale peut être traitée informatiquement afin d'en extraire davantage d'informations ou de la présenter sous différentes formes. Parmi les applications possibles, on peut citer :

De manière plus générale, le domaine de l'imagerie médicale englobe non seulement la capture d'images, mais aussi la gestion, l'entreposage et la manipulation de ces données. Pour garantir l'interopérabilité et la cohérence des informations, une norme informatique internationale a été définie : la norme DICOM (Digital Imaging and Communications in Medicine). Cette norme permet de standardiser la gestion des fichiers issus de différentes techniques d'imagerie et de faciliter leur partage et leur exploitation dans le cadre médical.

Selon les techniques employées, les examens d'imagerie médicale permettent d'obtenir des informations de deux types complémentaires :

Parmi les méthodes d'imagerie structurelle les plus couramment utilisées, on trouve notamment :

Les techniques d'imagerie fonctionnelle sont également très variées et complémentaires. Elles comprennent :

Ainsi, l'imagerie médicale constitue un ensemble de technologies complémentaires, allant de l'analyse anatomique à l'évaluation fonctionnelle, et intégrant à la fois la capture de données, leur traitement numérique et leur interprétation clinique. Ces techniques sont aujourd'hui indispensables pour le diagnostic, le suivi thérapeutique et la recherche biomédicale, permettant aux professionnels de santé de disposer d'outils précis et fiables pour comprendre et traiter les pathologies.

La radiographie

La radiographie repose sur l'utilisation des rayons X, étant des ondes électromagnétiques similaires à celles de la lumière visible, mais beaucoup plus énergétiques. En raison de cette énergie élevée, les rayons X possèdent la capacité de traverser divers matériaux, y compris les liquides, les tissus mous et certains gaz, ce qui les rend particulièrement utiles pour l'exploration du corps humain. Cependant, lorsqu'ils rencontrent des structures de densité différente, ils subissent une atténuation variable, c'est-à-dire qu'une partie de leur énergie est absorbée en fonction de la densité électronique et de la composition du tissu traversé.

Dans une radiographie traditionnelle, les rayons X parvenant à traverser le corps sans être absorbés, appelés rayons résiduels, frappent un film photosensible placé derrière la table de radiographie. Ces rayons provoquent le noircissement du film là où ils atteignent la surface sensible. Ce mécanisme permet de créer une image en négatif, où les zones traversées facilement par les rayons apparaissent sombres, tandis que les structures plus denses apparaissent claires. Par exemple, les poumons, dont la structure est aérée et remplie d'air, laissent passer la majorité des rayons X et apparaissent donc noirs sur le film. À l'inverse, les os, beaucoup plus denses et riches en minéraux, absorbent la majeure partie des rayons X et apparaissent blancs, formant ainsi un contraste net permettant de visualiser la structure osseuse.

Pour améliorer la visualisation de certaines structures internes creuses ou peu contrastées, comme le tube digestif, les articulations ou certains vaisseaux sanguins, il est possible d'utiliser des produits de contraste. Ces substances, telles que l'iode ou le baryum, sont opaques aux rayons X et permettent de mettre en évidence des zones autrement difficiles à distinguer sur une radiographie classique. Le produit de contraste est administré soit par ingestion, soit par injection, selon la structure à étudier, et il agit en accentuant la densité apparente de la zone, rendant ainsi l'image plus informative et précise pour le diagnostic.

Ainsi, la radiographie constitue une technique fondamentale d'imagerie médicale, permettant de visualiser rapidement et efficacement la structure interne du corps humain grâce aux propriétés particulières des rayons X, à leur interaction avec les tissus et à l'utilisation éventuelle de produits de contraste. Cette méthode reste encore aujourd'hui un outil de première intention très utilisé pour le diagnostic des maladies osseuses, pulmonaires ou digestives, ainsi que pour le suivi post-opératoire ou l'évaluation de traumatismes.

La tomographie (scanner)

Le scanner à rayons X, couramment appelé CT-scan ou tomodensitométrie, est une technique d'imagerie médicale permettant d'obtenir des images très précises des structures internes du corps humain. La particularité du scanner réside dans sa capacité à moduler très finement l'irradiation des rayons X, ce qui permet de visualiser la zone étudiée comme si elle était découpée en fines tranches successives. Cette caractéristique explique le nom de la technique : « tomographie » vient du grec tomein, qui signifie «couper», et graphia, qui signifie «écrire» ou «représenter». Chaque «tranche» correspond à une coupe virtuelle du volume corporel, offrant une visualisation détaillée et sélective des structures anatomiques, sans recourir à une incision réelle.

La tomographie X repose sur l'association de cette irradiation fine avec un traitement numérique avancé des données. Concrètement, les rayons X traversent le corps selon différents angles et sont partiellement absorbés par les tissus en fonction de leur densité. Le scanner mesure le coefficient d'atténuation des rayons X dans chaque direction, c'est-à-dire la proportion de rayons absorbés par les structures traversées. Ces mesures sont ensuite traitées par ordinateur afin de reconstituer une image précise et fidèle de la zone étudiée, avec des détails suffisants pour identifier les organes, les os, les vaisseaux et d'éventuelles anomalies.

Le principe mathématique sous-jacent à la tomographie X repose sur le théorème de Radon, énoncé en 1917. Ce théorème décrit comment il est possible de reconstruire la géométrie bidimensionnelle d'un objet à partir d'une série de projections mesurées autour de celui-ci. En d'autres termes, en analysant la manière dont un objet absorbe les rayons X selon différents angles, il devient possible de calculer sa structure interne avec précision. Ce principe peut être étendu à la reconstruction tridimensionnelle, permettant de visualiser un volume entier comme une succession de tranches, chacune représentant une coupe virtuelle du corps humain.

Avant l'avènement des ordinateurs modernes, les calculs nécessaires pour appliquer cette méthode étaient trop complexes et trop longs, ce qui rendait la tomographie pratiquement impossible à réaliser de manière efficace. Aujourd'hui, grâce à la puissance de calcul des systèmes informatiques contemporains, ces opérations peuvent être effectuées rapidement et avec une grande précision, permettant l'obtention d'images très détaillées en quelques secondes seulement.

Chaque pixel de l'image obtenue se voit attribuer une valeur de niveau de gris proportionnelle à l'absorption des rayons X par le volume correspondant dans le corps. Les tissus denses, comme les os, absorbent beaucoup de rayons X et apparaissent en blanc éclatant, tandis que les tissus mous absorbent moins et apparaissent en gris plus clair. Les zones remplies d'air, comme les poumons, absorbent très peu de rayons X et apparaissent donc noires. Cette échelle de gris permet de distinguer avec précision différentes structures anatomiques et d'identifier des anomalies, telles que des tumeurs, des fractures ou des lésions internes, avec une fiabilité remarquable.

Ainsi, la tomodensitométrie combine physique des rayons X, calcul mathématique avancé et traitement informatique, offrant une technique d'imagerie non invasive capable de visualiser la structure interne du corps humain en coupes fines, avec un niveau de détail inaccessible aux radiographies classiques. Elle constitue aujourd'hui un outil essentiel pour le diagnostic, la planification chirurgicale et le suivi des traitements médicaux.

Les ultrasons (échographie)

Les ultrasons sont des ondes sonores dont la fréquence est supérieure à celle que l'oreille humaine peut percevoir, généralement au-delà de 20 kilohertz. Comme toutes les ondes acoustiques, les ultrasons se propagent à travers les différents milieux mais peuvent être partiellement absorbés ou réfléchis lorsqu'ils rencontrent des substances de densité ou de composition différente. Cette propriété leur permet d'être utilisés comme un outil de mesure de distances et de visualisation des structures internes dans le corps humain. Lorsqu'une sonde émettrice d'ultrasons en direction d'un organe, d'un tissu ou d'une structure spécifique, les ondes se déplacent à travers le corps et sont ensuite réfléchies par les surfaces rencontrées, produisant un signal de retour appelé écho. Le temps nécessaire pour que cet écho revienne à la sonde est directement proportionnel à la distance qui sépare la sonde de la structure réfléchissante. Plus la structure est proche, plus le retour de l'écho est rapide ; plus elle est éloignée, plus ce retour est retardé.

Dans une échographie médicale, ces échos sont captés par la même sonde ayant émis les ultrasons et sont immédiatement transmis à un ordinateur, où ils sont traités et analysés en temps réel. Le logiciel associé traduit ces informations en une image bidimensionnelle ou tridimensionnelle sur l'écran, chaque point de l'image correspondant à l'intensité de l'écho reçu. Les structures qui réfléchissent fortement les ultrasons apparaissent sous forme de zones plus claires, tandis que celles réfléchissant moins apparaissent plus sombres. Cette technique permet de distinguer les contours des organes, la densité des tissus, la présence de fluides ou de masses anormales, et même de suivre des mouvements internes, comme ceux du coeur ou du foetus en temps réel.

Pour que la transmission des ultrasons soit efficace, il est nécessaire d'éliminer les interférences causées par l'air, qui reflète la majorité des ondes et empêcherait leur propagation dans le corps. Pour ce faire, la peau de la région à examiner est recouverte d'un gel conducteur ou d'une pâte spéciale, favorisant le contact et permettant aux ondes ultrasonores de pénétrer les tissus sans être interrompues. Ensuite, le praticien déplace la sonde manuellement sur la zone étudiée, en adaptant l'angle et la pression pour obtenir les meilleurs échos et ainsi générer une image nette et détaillée.

L'échographie présente plusieurs avantages majeurs : elle est non invasive, indolore, et n'expose pas le patient à des radiations ionisantes, ce qui la rend particulièrement adaptée à l'examen des femmes enceintes, des organes abdominaux, du coeur, et des vaisseaux sanguins. Elle permet également de suivre les changements physiologiques au cours du temps et de réaliser des mesures fonctionnelles, telles que la vitesse du flux sanguin ou le mouvement des valves cardiaques. Grâce à la combinaison de la physique des ultrasons et du traitement informatique en temps réel, l'échographie est devenue une technique d'imagerie médicale fiable, rapide et extrêmement polyvalente, utilisée quotidiennement dans de nombreux domaines de la médecine moderne.

L'imagerie par résonance magnétique nucléaire (IRM)

L'imagerie par résonance magnétique nucléaire, plus communément appelée IRM, repose sur un principe physique fondamental issu de la résonance magnétique nucléaire (RMN). Selon l'intensité du champ magnétique auquel ils sont soumis, les noyaux de certains atomes présents dans les tissus peuvent entrer en résonance, c'est-à-dire que ces noyaux absorbent et restituent de l'énergie lorsqu'ils sont excités de manière contrôlée. Dans le corps humain, l'atome le plus couramment utilisé pour cette technique est l'hydrogène, car il est extrêmement abondant dans l'eau et les graisses, représentant environ 80 % du poids corporel, ce qui permet de visualiser efficacement une grande variété de tissus.

Pour produire cette résonance, l'IRM nécessite un champ magnétique puissant et stable, généré par un aimant supraconducteur de très haute intensité. Ce champ magnétique aligne les spins des protons contenus dans les noyaux d'hydrogène, créant ainsi une magnétisation nette des tissus. Une fois cet alignement obtenu, des champs magnétiques oscillants plus faibles, appelés champs radiofréquence, sont appliqués de manière précise et temporaire. Ces champs perturbent légèrement l'orientation des protons en les faisant basculer par rapport au champ principal. Lorsque ces protons reviennent à leur état d'équilibre initial, ils émettent de l'énergie sous forme de signaux électromagnétiques, qui sont captés par des antennes réceptrices spécialement disposées autour du patient.

Les signaux collectés par l'antenne sont ensuite transmis à un ordinateur, réalisant un traitement informatique complexe permettant de reconstruire des images tridimensionnelles. Ces images sont généralement présentées sous forme de coupes successives, offrant une visualisation détaillée de la structure interne du corps. Selon les protocoles et les séquences utilisées, l'IRM peut fournir des informations différentes :

Un exemple concret de l'IRM fonctionnelle consiste à exploiter la résonance des noyaux d'hydrogène induite par la présence d'hémoglobine, permettant de suivre le trajet du sang dans le cerveau, mettant en évidence les zones cérébrales activées lors de certaines stimulations ou activités. Cette capacité à mesurer à la fois la structure et le fonctionnement des tissus rend l'IRM particulièrement utile dans le diagnostic et le suivi de nombreuses pathologies, allant des lésions cérébrales aux tumeurs et aux maladies cardiovasculaires.

Il convient également de mentionner la magnétoencéphalographie (MEG), une technique complémentaire qui mesure les faibles champs magnétiques générés par l'activité électrique des neurones dans le cerveau. Contrairement à l'IRM, la MEG ne nécessite pas l'aimantation préalable des tissus, et repose uniquement sur la détection des champs électromagnétiques naturels émis par le cerveau. Cette méthode est utilisée notamment pour localiser avec précision les zones cérébrales actives et pour étudier les fonctions neurologiques, offrant une information fonctionnelle directe et extrêmement précise en temps réel.

Ainsi, l'IRM combine la physique des champs magnétiques, la résonance nucléaire et le traitement informatique avancé, permettant de produire des images médicales très détaillées et polyvalentes, capables de représenter à la fois la morphologie et la fonction des tissus humains, tout en restant non invasive et sans exposition aux radiations ionisantes. Cette technique est aujourd'hui indispensable dans la pratique clinique moderne, pour le diagnostic, le suivi thérapeutique et la recherche biomédicale.

L'imagerie par radioactivité

L'imagerie par radioactivité, aussi appelée imagerie nucléaire, regroupe un ensemble de techniques médicales reposant sur l'utilisation de traceurs radioactifs afin d'explorer le fonctionnement des organes et des tissus. Le principe fondamental de ces méthodes consiste à administrer au patient une molécule radiopharmaceutique, c'est-à-dire une substance biologiquement active marquée par un isotope radioactif, capable d'émettre des rayonnements détectables par des dispositifs de mesure spécialisés.

Ces traceurs sont sélectionnés de manière très précise pour leur capacité à se fixer préférentiellement sur certains types de cellules ou de tissus, en fonction de l'examen à réaliser. Par exemple, certaines molécules vont se concentrer dans les os, d'autres dans le cerveau, le coeur ou encore dans des zones présentant une activité métabolique anormalement élevée. Une fois le traceur injecté, inhalé ou ingéré, il se répartit dans l'organisme et émet des rayonnements ionisants traversant les tissus.

Les détecteurs placés autour du patient enregistrent ces émissions radioactives. Les données recueillies sont ensuite traitées par un système informatique, qui permet de reconstituer l'origine spatiale des rayonnements et de déterminer avec précision les régions du corps où le traceur s'est accumulé. L'image produite correspond donc à une cartographie fonctionnelle de l'activité biologique, et non uniquement à une représentation anatomique. Selon la technique utilisée, l'image finale peut être une simple projection plane, une coupe ou encore une reconstruction tridimensionnelle de la distribution du traceur dans l'organisme.

Parmi les principales techniques d'imagerie nucléaire, on distingue notamment :

De manière générale, la TEP fournit des images de meilleure qualité et de meilleure résolution que la TEMP, notamment en termes de précision fonctionnelle et de contraste. Cependant, cet avantage est contrebalancé par le coût élevé des équipements nécessaires et par la complexité de production des radio-pharmaceutiques, ayant souvent une durée de vie très courte. À l'inverse, la TEMP bénéficie d'un large choix de traceurs disponibles, d'une technologie plus simple à mettre en oeuvre et de gamma-caméras au coût plus modéré, ce qui explique sa diffusion plus large dans de nombreux établissements médicaux.

Ainsi, l'imagerie par radioactivité occupe une place essentielle dans le diagnostic médical moderne, en offrant des informations uniques sur le fonctionnement biologique des organes, complémentaires aux données purement anatomiques fournies par la radiographie, le scanner ou l'IRM. Elle joue un rôle clef dans la détection précoce des pathologies, l'évaluation de leur évolution et le suivi de l'efficacité des traitements.

Méthodes optiques

Les méthodes optiques d'imagerie médicale reposent sur l'utilisation de la lumière pour explorer les tissus biologiques de manière non invasive, sans recours aux rayonnements ionisants. Parmi ces approches, l'imagerie spectroscopique dans le proche infrarouge occupe une place importante. Elle consiste à analyser le chemin optique parcouru par une lumière infrarouge émise par une source externe et traversant les tissus biologiques. En étudiant l'absorption et la diffusion de cette lumière, il est possible d'estimer le niveau d'oxygénation des zones examinées, en particulier au niveau du cerveau. Ces mesures permettent d'inférer indirectement l'activité cérébrale, car les régions actives consomment davantage d'oxygène et présentent donc des variations caractéristiques de l'absorption lumineuse.

Une autre famille de techniques optiques très performantes est celle de la tomographie optique cohérente (Optical Coherence Tomography, OCT). Cette technologie permet d'obtenir des images détaillées des structures situées sous la surface des tissus, en exploitant le phénomène des interférences optiques. Le principe consiste à comparer la lumière réfléchie par le tissu analysé avec une lumière de référence, afin de mesurer avec précision la profondeur et la structure des différentes couches. Les interférences ainsi produites sont détectées soit par une caméra, dans le cas de l'OCT plein champ, soit par un récepteur spécialisé, dans le cas de l'OCT dite traditionnelle. Ces méthodes sont reconnues pour leur caractère non destructif, indolore et sans danger pour le patient.

Parmi les variantes de cette technologie, on distingue notamment :

La multiplication des techniques d'imagerie et leur caractère complémentaire favorisent aujourd'hui le développement d'une imagerie dite multimodale. Cette approche consiste à combiner, au sein d'un même examen ou d'un même document, des informations issues de plusieurs modalités différentes, acquises simultanément ou séparément. Les données sont alors recalées, c'est-à-dire mises en correspondance spatiale, afin de superposer des informations morphologiques, fonctionnelles ou métaboliques.

Par exemple, il devient possible d'associer sur une même image la morphologie précise des contours du coeur obtenue par IRM avec des informations dynamiques sur la mobilité des parois cardiaques issues de l'échographie. Les équipements d'imagerie médicale les plus récents intègrent parfois directement cette logique multimodale, permettant de produire des images combinées lors d'un seul examen, comme c'est le cas des systèmes hybrides CT-SPECT. Cette convergence technologique ouvre la voie à une analyse plus complète et plus précise de l'état des tissus, en combinant les atouts spécifiques de chaque méthode d'imagerie.

Autres applications

Bien entendu, le domaine de l'imagerie ne se limite pas aux seules applications médicales. Les techniques d'acquisition, de traitement et d'analyse des images numériques trouvent aujourd'hui des applications extrêmement variées dans de nombreux secteurs scientifiques, industriels et culturels. Ces domaines exploitent les images comme un moyen privilégié de représentation, d'observation et d'interprétation de phénomènes complexes, souvent difficiles à appréhender par des méthodes classiques.

On peut tout d'abord citer l'imagerie scientifique, utilisée à des fins de recherche fondamentale et appliquée. Elle joue un rôle essentiel dans de nombreuses disciplines, telles que la physique, la chimie, la biologie ou encore la science des matériaux. Grâce à des techniques d'imagerie avancées, les chercheurs peuvent observer des structures microscopiques, suivre l'évolution de phénomènes dynamiques ou analyser des résultats expérimentaux avec une grande précision. Ces images constituent souvent un support indispensable pour la modélisation, la validation d'hypothèses et la diffusion des connaissances scientifiques.

Un autre domaine majeur est celui de la télédétection, qui repose sur l'acquisition d'images à distance, généralement à l'aide de satellites, de drones ou d'aéronefs. Ces techniques sont largement utilisées en météorologie pour la prévision du temps et le suivi des phénomènes climatiques, en cartographie pour la représentation précise des territoires, ainsi que dans l'analyse des ressources terrestres, telles que l'agriculture, les forêts ou les ressources hydriques. La télédétection joue également un rôle central en astronomie, où l'imagerie permet d'observer et d'étudier des objets célestes extrêmement éloignés, comme les étoiles, les galaxies ou les nébuleuses.

Les applications militaires constituent également un champ d'utilisation important de l'imagerie. Elles comprennent notamment le guidage de missiles, la reconnaissance sous différentes formes (aérienne, terrestre ou sous-marine), la surveillance de zones sensibles ainsi que la détection de mouvements ou d'objets. Dans ce contexte, les images sont souvent traitées en temps réel et combinées à d'autres sources d'information afin d'améliorer la précision des systèmes de décision et d'intervention.

Enfin, l'imagerie occupe une place centrale dans les applications dites ludiques et culturelles, telles que les films d'animation, les effets spéciaux cinématographiques et les jeux vidéo. Dans ces domaines, les images numériques sont utilisées pour créer des univers visuels immersifs, réalistes ou stylisés, faisant appel à des techniques avancées de modélisation, de rendu et d'animation. Ces applications contribuent non seulement au divertissement, mais aussi au développement de nouvelles technologies graphiques, qui trouvent ensuite des retombées dans d'autres secteurs de l'imagerie.

Ainsi, l'imagerie constitue un outil transversal, présent dans une multitude de domaines aux objectifs très différents, mais unifiés par le besoin de transformer des données complexes en représentations visuelles compréhensibles, exploitables et riches en information.

Différents aspects du traitement des images

Le traitement des images numériques repose sur un ensemble très vaste et diversifié d'outils mathématiques et informatiques. Ces outils permettent d'analyser, de transformer et d'améliorer les images afin d'en extraire des informations pertinentes ou d'en améliorer la qualité visuelle. Au fil des différentes problématiques abordées, nous introduirons progressivement plusieurs de ces méthodes, en mettant l'accent sur leurs principes fondamentaux et leurs domaines d'application. Dans ce cadre, nous nous placerons principalement dans une approche déterministe, même si les images traitées peuvent être affectées par des perturbations aléatoires, telles que le bruit dû aux capteurs, aux conditions d'acquisition ou aux transmissions des données.

Un premier niveau d'intervention dans le traitement des images concerne le traitement ponctuel. Ce type de traitement consiste à appliquer des opérations élémentaires indépendamment sur chaque pixel de l'image. Il permet par exemple de réaliser des opérations simples telles que l'éclaircissement, l'assombrissement ou encore l'amélioration du contraste. Ces transformations sont généralement basées sur la modification des niveaux de gris selon des règles précises, souvent déterminées à partir de l'histogramme de l'image, décrivant la répartition des intensités lumineuses. Le traitement ponctuel constitue ainsi une étape essentielle pour améliorer la lisibilité globale d'une image avant des traitements plus complexes.

Le traitement complet d'une image numérique s'articule ensuite autour de plusieurs grandes étapes fondamentales, chacune répondant à des objectifs spécifiques :

Enfin, nous conclurons cette étude par une introduction à la morphologie mathématique, un domaine du traitement des images fondé sur la théorie des ensembles et les opérations géométriques. La morphologie mathématique fournit des outils puissants pour analyser la forme et la structure des objets présents dans une image, à travers des opérations telles que l'érosion, la dilatation, l'ouverture ou la fermeture. Ces concepts seront illustrés par quelques exemples d'applications concrètes, montrant comment les différentes méthodes présentées peuvent être combinées pour résoudre des problèmes réels de traitement et d'analyse d'images.



Dernière mise à jour : Lundi, le 1er janvier 2018