• Aucun résultat trouvé

4 .1 Modélisation du processus de formation d’une image optique

Remarque 4.4. La présence du terme 2πR 2 dia

1 si x2+y2≤R2dia 0 sinon p(ρ) = ( 1 si ρ2≤R2dia 0 sinon . (4.7) avec, ρ= (x2+y2)1/2.

La PSF hd d’un système optique limité par la diffraction est rigoureusement donnée

par : hd(x, y, λ) = 2πR2dia λ2f02 P λxf0,λyf0  2 |P(0, 0)|2 , (4.8)

où la fonction P :R2R représente la transformée de Fourier de la fonction

pupil-laire et, par abus de notation, P(0, 0) =P(x, y)|x=0,y=0.

En utilisant l’expression en coordonnées polaires de la fonction pupillaire un (fasti-dieux) calcul permet de montrer que [121,122] pour tout ρ∈R+ on a :

P(x, y) =P(ρ) =2πR2diaJ1(2πRdiaρ) 2πRdiaρ

où ρ=ρ(x, y) = k(x+y)k2et Jn est la fonction de Bessel de 1ère espèce et d’ordre n (ici n=1).

Remarque 4.4. La présence du terme2πR2dia

λ2f02 dans l’équation4.8permet de vérifier que :

Z Z R2 hd(x, y, λ) 2=1,

ce qui, physiquement, peut s’interpréter comme le fait que la surface diffractante ne provoque aucun gain ou perte d’énergie lumineuse, dès lors que sa transmittance est unitaire.

Par souci de clarté, les phénomènes physiques distincts (ici diffraction et absorption de la lu-mière) sont considérés séparément. L’absorption du système optique est donc incluse dans la transmittance qopt(λ), voir relation (4.5).

Enfin, l’éclairement spectral incident sur le photo-détecteur est échantillonné par intégration spatiale sur la surface des cellules photo-sensibles, les pixels. L’énergie Q[m, n]lumineuse incidente sur la surface du pixel situé sur la m-ième ligne et sur la

n-ième colonne, notéeΣ(m,n), est donc donnée par : Q[m, n]s’exprime en J puisque E

est donné en W.m−2.nm1. Q[m, n] =τ Z R+ Z Z Σ(m,n) E(x, y, λ)dx dy ! (4.9)

où, l’émission lumineuse étant considérée constante dans le temps, l’intégration sur la durée d’acquisition τ est réduite dans (4.9) à un facteur multiplicatif.

En supposant que la surface photo-sensible de chacun des pixels est identique,

l’in-tégration spatiale dans la relation (4.9) peut être représentée par une opération de

convolution suivi d’un échantillonnage par multiplication par un peigne de Dirac (bi-dimensionnel).

Dans le cas usuel où la surface photo-sensible d’un pixel correspond à un carré de lar-geur∆x, la PSF hintliée à l’intégration spatiale sur la surface photo-sensible est donnée par : hint(x, y) =    1 ∆2 x si(x, y) ∈h∆x2;∆x2 i2 0 sinon.

L’énergie Q[m, n] lumineuse incidente sur la surface du pixel (m, n) et sur la durée d’acquisition τ (4.9) peut alors s’écrire :

Q[m, n] =τ Z R+ E(x, y, λ)∗∗hint(x, y)  x=xn;y=ym (4.10) avec(xn, ym)les coordonnées du centre du pixel(m, n).

4.1.3 Non-stationnarité de la fonction d’étalement du point (PSF)

Le canal optique d’acquisition d’une image naturelle considéré dans la section4.1.2

est supposé limité par la diffraction ; i. e. le seul élément de dégradation est la diffrac-tion des ondes lumineuses par le diaphragme. Un tel canal optique permet de modéli-ser avec une grande précision, et de façon assez simple, la relation entre la luminance d’une scène et l’énergie reçue par chaque pixel, voir (4.9) - (4.10). En pratique, d’autres éléments plus complexes à modéliser, notamment en raison de leur non-stationnarité spatiale, modifient l’éclairement incident sur la surface du photo-détecteur. Cette

sous-section4.1.3décrit brièvement et modélise ces principaux éléments de dégradation.

En préambule, il est à souligner que ces opérateurs de dégradation, introduits par le système optique, impactent l’image de manière analogue à un filtre. La seule, mais ô combien importante, différence réside dans le fait que le système optique n’est pas invariant par translation. L’invariance du système n’est alors pas vérifiée, l’expression formelle des dégradations s’en trouve rendue immédiatement plus complexe.

Turbulences atmosphériques [120]

L’atmosphère traversée par les rayons lumineux, entre la source et la pupille d’en-trée, est un milieu dit turbulent dans le sens où ses caractéristiques physiques sont en

constantes variations. A l’échelle de temps d’acquisition d’une photographie, les turbu- Le temps d’acquisition d’une image est typiquement τ≤1/60s.

lences atmosphériques ont une influence limitée correctement modélisée en première approximation par les lois de Kolmogorov (ces dernières faisant appel à l’optique sta-tistique, leur étude approfondie sort du cadre de ce manuscrit). Ces lois décrivent la position d’incidence d’un rayon lumineux comme une variable aléatoire suivant une

loi de distribution Gaussienne de moyenne nulle. L’écart-type σatm de cette variable

aléatoire, représentant physiquement l’impact des turbulences, est fonction de la dis-tance D et de la “constante de structure de l’indice de réfraction”, voir [120] pour plus de détails.

Selon les lois de Kolmogorov les turbulences atmosphériques sont modélisées par une PSF donnée par :

hatm(ρ) = 1

σatm2 .e

ρ2

2σ2atm. (4.11)

Défaut de mise au point [120,121]

Le défaut de mise au point intervient lorsque la scène imagée (ou une partie de

celle-ci) est située en dehors du plan focal objet Π. En effet, pour un système

rigou-reusement stigmatique, les rayons lumineux convergent devant (resp. derrière) le plan

focal imageΠ0lorsqu’ils sont issus d’un point situé respectivement derrière (resp.

de-vant) le plan Π. Dans les deux cas, une simple construction reposant sur les lois de

l’optique géométrique permet de montrer que : 1) l’image d’un point en dehors du

planΠ est un disque au sein duquel l’éclairement spectral incident est constant (et nul

en dehors de ce disque) et 2) le rayon de ce disque est donné par : Rfocus=Rdia f

0

D−f0

|D−Dx,y|

Dx,y

avec Rdia le rayon du diaphragme et Dx,yla distance entre le centre de la pupille et le point(x, y)considéré.

Le défaut de mise au point peut donc être modélisé par une PSF dont l’expression est : hfocus(ρ) =    1 π.R2 focus si ρ≤Rfocus 0 sinon . (4.12)

Mouvement de la scène et du système imageur

Lorsque la scène est en mouvement par rapport à l’axe optique du système imageur durant la durée d’acquisition τ d’une photographie, la position de l’image d’un point de la scène est alors soumise au même mouvement sur la surface du photo-détecteur. Aussi, l’énergie lumineuse issue du point(x, y)est distribuée sur une courbe représen-tant le mouvement de ce dernier. Pour modéliser simplement ce phénomène on peut considérer [121], compte-tenu du fait que la durée d’acquisition est très courte, que le déplacement de la scène par rapport au système imageur est rectiligne uniforme, i. e. le vecteur de vitesse du déplacement~v0est constant.

La PSF de ce phénomène, appelé le “bougé”, peut donc être modélisé par une “lame” de Dirac [121] définie par hmvt(ρ, ω) =limδω→0Lmvt(ρ, ω)avec :

Lmvt(ρ, ω) =    2 τ2k~v0k2 2δω si ρτk~v0k]et ω∈ [ω0; ω0+δω] 0 sinon,

k~v0k2et ω0sont respectivement la norme Euclidienne usuelle et l’angle (en coordon-nées polaires) du vecteur vitesse~v0caractérisant le mouvement relatif de la scène par rapport au système imageur.

Aberrations du système optique

Le système optique limité par la diffraction, présenté dans la section4.1.2, suppose

que les conditions paraxiales sont vérifiées, i. e. l’angle d’incidence ω est supposé très faible et la position des points de la scène sont considérés proches de l’axe optique. Les pupilles d’entrée et de sortie étant sphériques, les approximations paraxiales de Gauss utilisées consistent à approximer les fonctions trigonométriques par leurs déve-loppements de Taylor-Maclaurin à l’ordre 1.

On désigne de façon générique par le terme d’aberrations, toutes les déformations du

système optique par rapport aux approximations paraxiales de Gauss [122,123]. Ces

déformations peuvent être calculées par un développement à un ordre supérieur des

fonctions trigonométriques. Les aberrations de Seidel (la coma, l’astigmatisme, l’aber- Les aberrations de Seildel sont également appelées aberrations du troisième ordre en raison de l’ordre du développement utilisé.

ration sphérique, la distorsion et la courbure de champ) sont par exemple calculées en utilisant des développements à l’ordre 3.

L’étude précise des aberrations sort légèrement du cadre de ce manuscrit, aussi une description volontairement laconique est présentée. Le lecteur intéressé pourra se réfé-rer aux ouvrages [122,124].

Les déformations du système optique par rapport aux approximations paraxiales de

Gauss introduisent un défaut de phase δφdu front d’onde incident sur la pupille

d’en-trée [122]. L’étude des principales aberrations peut se faire en introduisant la fonction complexe pabe, appelée fonction pupillaire généralisée, définie par :

pabe(ρ; ω) =p(ρ; ω)exp(φ),

où p(ρ; ω)est l’expression, en coordonnées polaires, de la fonction pupillaire (4.7) et

δφ=δφ(ρ, ω)correspond au défaut de phase du front d’onde.

La PSF habe d’un système optique présentant des aberrations est donnée en

substi-tuant la transformée de Fourier de la fonction pupillaire généralisée Pabe à P dans la

relation (4.8) : habe(x, y, λ) = 2πR2dia λ2f02 Pabe λxf0,λyf0  2 |Pabe(0, 0)|2 . (4.13)

Modélisation de l’éclairement spectral incident

La prise en compte des éléments non-stationnaires décrits dans la présente section permet de modéliser l’éclairement spectral de façon plus précise que (4.6) par :

E(x, y; λ) =

Z

R2S0(x−u, y−v; λ)h?opt(u, v, x, y; λ)du dv 

qopt(λ), (4.14)

où h?opt représente la PSF globale du canal optique d’acquisition ; l’expression de

h?opt est donnée par l’application successive des PSF de chacun des éléments

non-stationnaires (4.11) - (4.13).

La relation (4.14) permet finalement d’exprimer l’énergie incidente sur l’ensemble de

la surface du pixel(m, n)(4.10) comme suit :

Q[m, n] =τ R R+E(x, y, λ)∗∗hint(x, y) x=xn;y=ym =τ R R+ hR

R2S0(x−u, y−v; λ)h?opt(u, v, x, y; λ)du dvi∗∗hint(x, y)qopt(λ)

x=xn;y=ym

(4.15) avec(xn, ym)les coordonnées du centre du pixel(m, n).

4.2 Modèle simplifié du processus optique de formation