• Aucun résultat trouvé

Bilan du processus de mesure

Dans le document THÈSE L UNIVERSITÉ DE BORDEAUX (Page 68-73)

prédiction sous-estime son élargissement. Pour inclure cet effet supplémentaire, comme en théorie des BRDF à micro-facettes, il faudrait connaître ou estimer la distribution des normales des bords du diaphragme. Étant donnée la résolution des images du diaphragme, ceci semble tout à fait inabordable par mesure directe. Une piste d’amélioration à étudier serait d’améliorer la description du diaphragme en prenant en compte un terme de rugosité des bords. La diffraction en résultant pourrait être dérivée en s’inspirant de la méthode de propagation des ondes radio au passage de reliefs chaotiques [Durgin, 2009].

Si ce problème peut être minimisé par un diaphragme de qualité doublé d’une modéli-sation précise et attentive, il paraît impossible de palier les contraintes mécaniques elles-mêmes. En fait, plusieurs tests nous ont menés à la conclusion selon laquelle la forme d’un diaphragme n’est que peu répétable à petite ouverture. C’est-à-dire que lorsque les lames se trouvent serrées pour former un petit diaphragme, la forme finale varient en fonction de la réalisation. Donc si la calibration a pu donner un modèle précis disons à f/22, alors l’utilisateur qui passe à f/8 puis revient à f/22 peut se retrouver complètement décalibré.

Puisque que fermer un diaphragme consiste essentiellement à rapetisser le polygone et le faire pivoter, on observe principalement un écart de rotation entre le calcul et la mesure.

Par exemple, avec le Canon 100mm ouvert à f/27, l’étoile est décalée de 3°par rapport à la prédiction. Nous avons remarqué que cela est surtout vrai pour les objectifs dont la bague d’ouverture est non-crantée. Il semble de le crantage améliore sensiblement la ré-pétabilité. Les objectifs motorisés sont aussi très répétables. On préfèrera donc soit éviter les bagues manuelles continues, soit travailler à ouverture fixe.

Concernant la méthode de calibration, si elle est simple à mettre en place et donne de bons résultats, elle souffre de ne pas se généraliser à tout type d’objectifs. En effet, pour que le diaphragme soit correctement imagé et bien résolu, il faut qu’il couvre un maximum de l’image. Pour satisfaire cela, il faut d’une part que la distance minimale de mise au point soit assez petite, que la focale soit assez grande, mais pas trop grande non plus sans quoi il sera impossible d’imager l’avant de l’objectif. Toutes ces contraintes font que nous n’avons pu appliquer cette méthode aux objectifs grand-angle, pour lesquels il faudrait plutôt utiliser un système de mesure secondaire.

3.3 Bilan du processus de mesure

À ce stade, nous sommes en mesure d’établir formellement le lien entre la scène obser-vée et l’éclairement reçu par le capteur. Sous quelques approximations classiques, l’éclai-rementE(Pc)en tout pointPcdu capteur est donné par la formule 3.14, puis en incluant la diffraction (proche de la mise au point) celui-ci est modifié par la PSF du système de telle sorte queE →E⊗P SF. Pour plus de simplicité, on gardera simplement la notation Epour désigner l’éclairement reçu sur le capteur, mais il ne faut pas oublier que celui-ci inclut désormais la diffraction.

Courbe de réponse des pixels. La dernière étape consiste à convertir ce signal lumi-neux en signal numérique. L’élément de base pour cette conversion est bien entendu le pixel. On considère ici le pixel d’indices(i, j)dans l’image, de forme carrée de côté∆p, appartenant au plan du capteur et centré en un point Pcij. Ce pixel collecte les photons incidents sur sa surface pendant un temps d’exposition∆t et les intègre dans sonpuits quantiquepar conversion photon-électron. À la lecture, ce puits quantique est vidé pour être lu et convertit en valeur numériqueVij, codée surnb bits (typiquement 8, 10, 12 ou 16). La capacité du pixel à capturer un photon est caractérisée par unefonction de réponse du pixel, notéefij, définissant pour une scène statique(9)la relation

Vij =fijef fij ∆t) (3.33)

avecΦef fij le flux efficace reçu par le pixel. Par flux efficace, on entend la partie du flux Φij qui pénètre effectivement le puits quantique. Il ne s’agit pas du même flux car l’ab-sorption des photons est dépendante de l’angle d’incidence et de la position d’entrée sur le pixel. Nous faisons l’hypothèse d’ordre 1(10) permettant de dire qu’il existe un facteur de proportionnalité entre Φef fij et Φij. Ce coefficient est intégré à la fonction fij, et on réécrit alors simplement

Vij =fijij∆t) . (3.34)

Un second point que l’on négligera est la dépendance temporelle de la conversion. En effet, lorsqu’un pixel intègre la lumière sur un temps long (plusieurs secondes) les effets thermiques ont tendance à faire que les puits quantiques deviennent plus instables et se déplètent plus vite. On tâchera alors de simplement s’assurer que le temps d’exposition d’une image est relativement court, la fonctionfij restant stable vis-à-vis de∆t.

Enfin, si nous omettions dans les calculs la dépendance spectrale, celle-ci joue un rôle prépondérant au niveau du capteur. En effet, pour réaliser une image en couleur (rouge-vert-bleu, abrégé RGB(11)) un filtre coloré est placé devant chaque pixel. Ce filtrage en longueur d’onde est caractérisé par une fonction desensibilité spectrale relativeSij(λ).

Celui-ci implique que l’on ne mesure pasΦij mais bienR

Φij(λ)Sij(λ) dλ. L’information spectrale de la lumière incidente est alors perdue, projetée sur les bases de fonctionSij(λ).

C’est là tout l’intérêt de la notion d’espace colorimétrique [Reinhard et al., 2008], qui sert à caractériser spécifiquement cette transformation. Nous exclurons de nouveau cette dépendance, mais en gardant à l’esprit quetoute mesure sera alors liée à un espace de couleur spécifique à l’appareil photo utilisé.

(9). Pour une scène dynamique, le flux peut être remplacé par sa moyenne temporelle sur le domaine d’intégration∆t. Cela complexifie inutilement le problème pour le moment. En effet, dans cette thèse les scènes seront toujours statiques. Dans un cas plus général, il faudra bien entendu intégrer ce fenêtrage temporel.

(10). Cette hypothèse est en fait la même que celle sur la caméra sténopé : la valeur centrale étant un estimateur d’ordre 1 on néglige alors les variations au sein du domaine d’intégration.

(11). Issu de la notation anglo-saxonne, RGB = Red - Green - Blue

3.3. Bilan du processus de mesure

FIGURE 3.10 – Courbe typique de la réponse d’un pixel. Entre les niveaux de sur- et sous-exposition, la réponse est à peu près linéaire.

Une telle fonctionfij peut être obtenue par calibration. Elle est en règle générale de forme bien connue (cf. Figure 3.10). Tout l’objectif de l’expérimentateur sera de déter-minerΦij à partir de Vij. Pour se faire, il sera possible de se baser sur fij seulement là où la courbe est inversible. C’est pour cette raison que l’on définit deux valeursVmin et Vmaxcorrespondant respectivement aux niveaux de sous- et sur-exposition du pixel. Cela a pour conséquence de limiter la dynamique de la mesure (typiquement 100), en étant ca-pable de mesurer seulement une certaine plage de valeurΦà temps d’exposition fixé. Ce problème peut être résolu par technique de mesure HDR, sur laquelle nous reviendrons au chapitre 4. Nous considérerons simplement qu’il existe une dynamique maximale de mesure, mais en gardant en tête qu’elle peut être bien plus grande que le seul rapport des flux extrémaux d’une image.

Impact de la taille du pixel. Le flux Φij reçu par le pixel correspond à l’intégrale de l’éclairementEsur celui-ci :

Φij = [E⊗Πp](Pij) (3.35)

avecΠpla fonction porte 2D de largeur∆p. Le pixel joue donc un rôle de filtrage spatial de l’éclairement. D’après le critère de Nyquist-Shannon, on ne pourra déceler des motifs d’éclairement plus petits que∆p. En ré-injectant la diffractionΠp → P SF ⊗Πp, on voit bien que celle-ci tient le même rôle de filtrage spatial.

Pour faire le bilan des contributions, on voit que l’imagerie peut se diviser en 2 en-sembles de captation de la lumière : l’objectif via son ouverture, et le pixel. Dans le cas d’une mise au point parfaite sur un pointPS, l’ouverture joue un rôle de lissage angulaire

de la luminance provenant dePS. Après ce premier filtrage, la diffraction et la surface d’intégration du pixel jouent de concert un rôle de filtrage spatial : le flux intégré par le capteur est en fait l’intégrale de l’éclairement sur la surface. Cela signifie que les contribu-tions provenant des points voisins àPS (siSest continue sous le pixel) sont moyennées.

Ensuite, un filtrage spectral impacte la mesure, et place celle-ci dans un espace colorimé-trique spécifique à la caméra. Si on peut caractériser cet espace par différentes techniques [Kao et al., 2006; Chou et Chang, 2008], celui-ci peut être modifié par la diffraction (qui est de dépendance spectrale), et donc l’espace colorimétrique de la luminance n’est plus celui de la caméra. Enfin, la courbe de réponse du pixel impacte la dynamique de la mesure. Si on ajoute que le point PS visé est hors-focus, alors cela provoque un fil-trage spatial supplémentaire : tous les points de la surface sous le rayon de confusion dû au hors-focus contribuent à la valeur d’un pixel. Du point de vue de la BRDF mesurée, lorsque la surface moyennée par filtrage spatial n’est pas plane, celui-ci se transforme en un subtil mélange de filtrage à la fois angulaire et spatial.

Note sur les aberrations. Les aberrations optiques [Born et Wolf, 2000] sont des "défauts" de propagation de la lumière au passage de l’objectif. Dans le mo-dèle de la lentille mince, tout se passe comme si la lentille était en fait perturbée autour de son comportement central idéal. Quand nous écrivions l’équation de transmission d’une onde plane à travers une lentille 3.16, le terme exponentiel décrit ce comportement idéal, auquel s’adjoint un préfacteur P(x, y)qui déno-tait de l’absorption. En fait, ce préfacteur peut être décomposé en son module et sa phase. La dépendance en (x, y)de ces deux termes fait que l’on ne peut plus les sortir de l’intégrale finale 3.17. Cela a pour effet de modifier la PSF, qui de-vient alors proportionnelle àP SF ⊗A(P). Ce nouveau termeA(P)caractérise les aberrations optiques, il a 2 effets principaux : il provoque un flou spatiale-ment variable, et décentre la convergence de la lumière (aussi appelédistorsion).

La distorsion est un phénomène bien connu et facilement corrigible. En effet, pour chaque point de convergence sur le capteur se voit légèrement déplacé. On corrige donc l’image mesurée en ré-indexant les indices des pixels selon une transformationD : (i, j)image → (i, j)corrigé. Cette transformationDpeut être fa-cilement calibrée [Zhang, 2000]. Une fois l’image corrigée, cela n’impacte pas la mesure au sens où le déterminant de la jacobienne de D est très proche de 1(12). Concernant les effets de flou, ceux-ci sont classés selon plusieurs types (en fonction des ordres des coefficients de P(x, y)dans la base de Zernicke [Wyant et Creath, 1992]) : coma, aberration sphérique, astigmatisme... Ils ont le point commun que leur rayon d’action diminue avec la fermeture du diaphragme. Tout

(12). Le déterminant de la jacobienne d’une fonction caractérise comment un élément de surface infini-tésimal grandit par application de la fonction. S’il est proche de 1, cela signifie que les pixels une fois dé-distordus conservent leur aire. L’aire du pixel n’étant pas modifié, l’ensemble des calculs restent iden-tiques à un simple changement d’indices près.

3.3. Bilan du processus de mesure

opticien sait bien qu’il existe toujours un compromis à faire entre aberrations (pe-titsf#) et diffraction (grandsf#), dans cette thèse, nous effectuerons toujours les mesures hors-aberration. Nous verrons au chapitre 4 que corriger la diffraction s’avère bien plus aisé que corriger les aberrations.

Interprétations des mesures. Effectuer une mesure, c’est en fait intégrer un ensemble de contributions. La donnée recherchée, ici la luminance d’un point, ne peut être obtenue seule, on mesure en fait une version lissée, convoluée, du signal. Par rapport à la mesure de BRDF, il y a donc deux approches pour interpréter les mesures.

La première est de conserver la valeur du pixel en sachant comment elle est reliée à la BRDF (c’est tout l’objet de cette partie). On peut alors déterminer l’ensemble des BRDFs possibles comme étant celles qui expliquent au mieux les mesures. Il s’agit de l’approche ayant le moins d’a priori, car nul besoin d’approximations pour rendre inversibles des équations de mesure qui ne le sont pas. Cette approche est par exemple celle retenue par Holzschuch [Holzschuchet al., 2017] où, plutôt de vérifier la concordance de mesure de BRDF avec des modèles, ils proposent de vérifier la concordance entre les images captu-rées et la simulation à travers tout le système optique. Cela permet de rendre à nouveau exploitable les données même à angles rasants, sans avoir à poser desa priorisur la nature de la mesure de BRDF.

La seconde approche, plus classique, tente quant à elle de déterminer une valeur de BRDF pour chaque mesure. Cela se fait en inversant toutes les équations, qui sont par essence non-inversibles. Dès lors, on choisit un rayon privilégié (associée au centre du pixel) que l’on considère représentatif de la mesure, puis on inverse les équations. Se faisant, on forme plein d’hypothèses sur la nature de la mesure. En particulier, on dira que l’on "mesure" une version filtréeLco spatio-angulairement de la luminance, la taille du noyau de ce filtrage étant renseignée par la taille des différents noyaux d’intégration successifs (diaphragme → diffraction → pixel). Cette luminance sera donc résumée à travers

Lcop

2p

PcP SF ⊗Pch Π

π∅2/4, LoiPp , (3.36) où les indices sur les opérations indiquent les variables sur lesquelles elles s’opèrent. Si on note Pcij la position du centre du pixel (i, j), la direction ωoij du rayon associé et PS ij le point impacté sur la surfaceS de normale nSij, on dira avoir mesuréLco grâce à l’inversion suivante

Lco(PS ijoij) = 4D2f#2

πτ0f2∆t∆p2oij,zci4fij−1(Vij) (3.37)

Si tous les termes ou ensemble de termes ne sont pas accessibles à l’expérimentateur, car absent ou alors calibrés de manière relative, la mesure deLco sera alors relative, et la BRDF apparente associée aussi. Dans le cas contraire, on parle de mesure absolue.

L’ensemble des expériences dans cette thèse seront en effet des mesures relatives, n’ayant pas nécessité d’ajouter des calibrations supplémentaires afin de mesurer des valeurs ab-solues.

Dans le document THÈSE L UNIVERSITÉ DE BORDEAUX (Page 68-73)