• Aucun résultat trouvé

6.2 Procédure

6.4.8 Changement d’environnement

A l’aide de ce modèle on peut bien sûr changer les conditions d’observation pour obtenir le résultat perceptuel que l’on souhaiterait dans une configuration particulière d’observation. Au vu du trop grand nombre de tests que cela aurait donné, différents arrières plans n’ont pas été testés et seuls des résultats sur fond gris ont été obtenus. Une amélioration intéressante serait bien sûr de voir à quel point la l’in- tensité lumineuse de l’arrière plan et sa chromaticité influencent notre perception spatio-temporelle des fréquences. Nous ne présenterons pas ici de figures de résultats étant donné que pour une fréquence nulle le S-CIECAM02 suffit mais les vidéos obtenus sur fond gris sont plutôt encourageantes.

6.4.9 Pour conclure

Une nouvelle extension du modèle d’apparence couleur prenant en compte un aspect spatio temporel de notre vision des couleurs a été créé [46]. Ce modèle, basé, sur une amélioration du CIECAM02 est capable de corriger des stimuli en prenant en compte les effets induits par les fréquences spatiales et tem-

100 CHAP 6 - ST-CIECAM02 :EXTENSION SPATIO TEMPORELLE DU CIECAM02

(A) (B) (C)

FIG. 6.14 – Exemple de correction d’un stimulus vert sur fond gris. (A) Stimulus d’origine (J :+0.C :+0.h :+0.). (B) Modulation par une fréquence spatiale de (A) corrigé par le S-CIECAM02 : Les couleurs nous semblent identiques (J :0.4.C :5.4.h :1.). (C) correction par le ST-CIECAM02 en considérant une fréquence temporelle de 3Hz. (C) et (A) sont différentes mais elles nous paraitraient identique si le stimulus (C) défilait à une vitesse de 3Hz (J :1.C :9.h :4.).

porelles sur notre vision des couleurs. Il souffre malheureusement des mêmes lacunes que son prédeces- seur et par exemple l’influence de l’éclairage de l’environnement sur les fréquences spatio-temporelles n’ont pas été testés. Les quelques premières vidéos résultats obtenues sont plutôt encourageantes. De la même manière que le S-CIECAM02, le ST-CIECAM02 est seulement capable de prendre en compte et de corriger des stimuli. Une perspective immédiate de ce travail serait de réaliser comme pour le S-CIECAM02 un modèle basé sur le ST-CIECAM qui améliore le rendu non pas de stimuli mais de vidéos complexes.

C

ONCLUSION

Conclusion

L’objectif de ces travaux était l’intégration, dans un modèle d’apparence couleur, d’une prise en compte de l’effet visuel créé par les modulations. En ce sens, les objectifs ont été atteints puisque les deux modèles qui ont vu le jour sont capables de prendre en compte ce phénomène.

De nombreuses expériences ont été réalisées afin de mesurer le comportement du système visuel hu- main en face des fréquences aussi bien spatiales que spatio-temporelles.

Une première mesure spatiale a été effectuée puis modélisée avant d’être intégrée dans le modèle d’ap- parence couleur CIECAM02. Ce nouveau modèle baptisé S-CIECAM donne des résultats encourageants et est capable de prédire l’apparence colorée de stimuli simples avec une fréquence spatiale. Cependant il a été montré que la couleur de l’arrière plan influençait notre vision des fréquences et une prise en compte de seulement l’intensité lumineuse du fond comme le fait le CIECAM s’avère insuffisante pour mesurer correctement notre contraste coloré. De la même façon cette mesure a été réalisée que pour un environnement de type cinéma et il serait intéressant de voir comment d’autres environnements modifient notre perception face aux fréquences spatiales.

Une fois le S-CIECAM créé, une extension de ce modèle aux images a été envisagée. Cette extension basée sur le modèle d’apparence couleur créé et sur une prise en compte de la fréquence de l’image est capable d’une part, d’améliorer sensiblement le rendu d’une image en jouant sur le contraste coloré et d’autre part de servir de modèle de constance de couleur pour des images. Différentes expériences de jugement ou de comparaison de notre modèle ont été effectuées afin de valider ce dernier. Dans 75% des cas c’est l’image traitée qui est préférée à l’orginale. Le modèle appliqué en tant qu’algorithme de constance de couleur donne des résultats qui rivalisent avec les modèles existants. Cependant, certains paramètres de notre modèle sont fixés par l’observateur alors qu’ils pourraient être interprétés par le mo- dèle comme le font les modèles existants.

Enfin le comportement du SVH face aux fréquences spatio-temporelle a été étudié à l’aide d’une expérience décrite dans le dernier chapitre. Ces résultats semblent corroborrer ceux obtenus par le S- CIECAM02 (pour une fréquence temporelle nulle) et un module de prise en compte des fréquences spatio-temporelle a été rajouté au CIECAM. Ce nouveau modèle est seulement capable de corriger des stimuli et une extension à la vidéo est évidemment une perspective immédiate de ce travail.

Il faut bien noter que la préparation et l’organisation de tests psychovisuels est un travail qui prend beaucoup de temps et le fait de compter sur le volontariat des observateurs n’est pas forcément évident au vu du nombre d’expériences différentes menées au sein du laboratoire.

D’autres travaux concernant le highbitrates ont aussi été réalisés pour le projet européen ED-Ciné. Ces tests subventionnés cette fois, cherchait à mesurer des seuils de perception afin de trouver le meilleur rapport qualité/compression pour des vidéos [45]. Ces tests sortant du cadre de notre études n’ont pas été

102 CHAP 6 - ST-CIECAM02 :EXTENSION SPATIO TEMPORELLE DU CIECAM02

mentionnés dans ce rapport.

Un autre regrêt de ce travail c’est de n’avoir pas pu disposer de suffisamment d’observateur féminin afin de pouvoir réaliser des statistiques montrant la différences de perception entre les hommes et les femmes.

Perspectives

Au vu des résultats prometteurs obtenus par les deux modèles développés, les perspectives sont nombreuses.

Pour l’instant, nous n’avons travaillé qu’avec des stimuli verticaux, car selon [69] le SVH est plus sensible à cette orientation. Cependant, il est difficile de trouver des travaux sur l’influence des orienta- tions sur l’apparence colorée. Pour cela, une des perspectives immédiates de ce travail consiste à mesurer cette influence. C’est pourquoi des tests sont actuellement en cours et vont permettre de d’étudier le com- portement du SVH fac à cette problématique.

Une fois les résultats obtenus, puis modélisés mathématiquement, le S-CIECAM02 sera capable, moyen- nant l’ajout d’un nouveau paramètre décrivant l’angle des modulations, de corriger l’apparence de stimuli obliques ou horizontaux par exemple.

Bien évidemment cette extension se répercutera sur le modèle de rendu qui s’apprète d’autant plus à la prise en compte de l’orientation.

Nous avons mentionné au préalable que certains paramètre doivent être entrés par l’utilisateur. Parmi eux, le blanc de référence et le type d’éclairage et son intensité. Il est envisagé, comme perspective de moyen terme, d’intégrer un module d’estimation de sources afin d’automatiser la procédure et ce en s’inspirant des modèles existants dans la littérature de rééclairage de scènes, de constance chromatique. . . Une autre perspective à ces travaux serait l’ajout d’un module de prise en compte de la couleur du fond dans le S-CIECAM. En effet, comme les tests le confirment dans le chapitre quatre, l’intensité lumineuse de l’arrière plan ne suffit pas toujours pour juger de l’effet des modulations spatiales. C’est pourquoi, il serait intéressant d’étudier cette influence, en réalisant le test sur des couleurs antagonistes par exemple. Mais ce travail est compliqué et de nombreux cas sont à traiter...

Enfin le dernier aspect, et sûrement le plus prometteur, que nous voulons traiter serait, au même titre que le S-CIECAM est étendu aux images, de développer une extension du ST-CIECAM aux vidéos. Pour celà il faudrait réussir à extraire d’une séquence animée le comportement spatio-temporel d’un pixel afin de l’affiner par l’exploitation de la perception et des critères intrinsèques à la vidéo.

ANNEXEA

A

NNEXE

1 : T

RANSFORMÉE

D

ADAPTATION CHROMATIQUE

La transformation d’adaptation chromatique (CAT) est l’élément principal d’un CAM même si elle ne suffit pas à elle seule à prédire une apparence couleur complète et donc fournir les attributs et métriques perceptuelles associées. La première fonction d’un CAT est de prédire les valeurs des 3 cônes, que l’on notera La, Maet Sa, après que tous les effets d’adaptation aient agi sur les signaux initiaux reçus par

les cônes L, M, S. Ces signaux LMS sont issus des coordonnées initiales XYZ ,que l’on peut obtenir par transformation d’un RGB par une matrice M du type suivant :

  L M S  =   0.400 0.708 −0.081 −0.226 1.165 0.046 0.00 0.00 0.918     X Y Z   (A.1)

Rappelons qu’à partir du RGB on peut obtenir les coordonnées XYZ par une matrice du type :   X Y Z  =   0.412453 0.357580 0.180423 0.212671 0.715160 0.072159 0.019334 0.119193 0.950227     R G B   (A.2)

Ici pour une lumière de jour D65 et un blanc de référence :   Xw Yw Zw  =   0.95045 1.0 1.088754   (A.3)

Les étapes d’application d’une transformée d’adaptation chromatique sont donc les suivantes : – à partir des coordonnées trichromatiques XY Z1, pour les conditions initiales de visualisation, on

les transforme en coordonnées L1, M1et S1.

– on intègre les informations sur les conditions de visualisation pour prédire les valeurs supposées des cônes en tenant compte des phénomènes d’adaptation, La,Ma,Sa.

– on inverse le processus pour les conditions finales de visualisation afin de déterminer les si- gnaux d’excitation des cônes L2, M2 et S2et les coordonnées trichromatiques finales XY Z2par

une transformée de type : XY Z2 = f(XY Z1, XY Zwhite1, XY Zwhite2, . . . ) Le premier modèle

d’adaptation chromatique a été celui de Von Kries : Nous allons maintenant décrire quelques CAMs usuels.

104 CHAP A - ANNEXE 1 : TRANSFORMÉE D’ADAPTATION CHROMATIQUE

La= L/Lwhite (A.4)

Ma= M/Mwhite (A.5)

Sa= S/Swhite (A.6)

Avec la transformée inverse :

L2 = (L1/Lmax1)Lmax2 (A.7)

M2 = (M1/Mmax1)Mmax2 (A.8)

S2 = (S1/Smax1)Smax2 (A.9)

ANNEXEB

A

NNEXE

2 : L

ES

12

RÈGLES DU MODÈLE

D

APPARENCE COULEUR SELON

H

UNT

1. The model should be as comprehensive as possible, so that it can be used in a variety of appli- cations ; but at this stage, only static states of adaptation should be included, because of the great complexity of dynamic effects.

2. The model should cover a wide range of stimulus intensities, from very dark object colours to very bright self-luminous colour. This means that the dynamic response function must have a maximum, and cannot be a simple logarithmic or power function.

3. The model should cover a wide range of adapting intensities, from very low scotopic levels, such as occur in starlight, to very high photopic levels, such as occur in sunlight. This means that rod vision should be included in the model ; but because many applications will be such that rod vision is negligible, the model should be usable in a mode that does not include rod vision.

4. The model should cover a wide range of viewing conditions, including backgrounds of different luminance factors, and dark, dim, and average surrounds. It is necessary to cover the different surrounds because of their widespread use in projected and self-luminous displays.

5. For ease of use, the spectral sensitivities of the cones should be a linear transformation of the CIE x , y , z or x 10 , y 10 , z 10 functions, and the V’() function should be used for the spectral sensitivity of the rods. Because scotopic photometric data is often unknown, methods of providing approximate scotopic values should be provided.

6. The model should be able to provide for any degree of adaptation between complete and none, for cognitive factors, and for the Helson- Judd effect, as options.

7. The model should give predictions of hue (both as hue-angle, and as hue-quadrature), brightness, lightness, saturation, chroma, and colourfulness.

8. The model should be capable of being operated in a reverse mode.

9. The model should be no more complicated than is necessary to meet the above requirements. 10. Any simplified version of the model, intended for particular applications, should give the same

predictions as the complete model for some specified set of conditions.

11. The model should give predictions of colour appearance that are not appreciably worse than those given by the model that is best in each application.

12. A version of the model should be available for application to unrelated colours (those seen in dark surrounds in isolation from other colours).

ANNEXEC

A

NNEXE

3 : R

ÉSULTATS

R

ENDU

108 CHAP C - ANNEXE 3 : RÉSULTATS RENDU

(A)

(B)

(C) (D)

FIG. C.1 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

CHAP C. ANNEXE 3 : RÉSULTATS RENDU 109

(A)

(B)

(C) (D)

FIG. C.2 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

110 CHAP C - ANNEXE 3 : RÉSULTATS RENDU

(A)

(B)

(C) (D)

FIG. C.3 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

CHAP C. ANNEXE 3 : RÉSULTATS RENDU 111

(A)

(B)

(C) (D)

FIG. C.4 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

112 CHAP C - ANNEXE 3 : RÉSULTATS RENDU

(A)

(B)

(C) (D)

FIG. C.5 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

CHAP C. ANNEXE 3 : RÉSULTATS RENDU 113

(A)

(B)

(C) (D)

FIG. C.6 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

114 CHAP C - ANNEXE 3 : RÉSULTATS RENDU

(A)

(B)

(C) (D)

FIG. C.7 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

CHAP C. ANNEXE 3 : RÉSULTATS RENDU 115

(A)

(B)

(C) (D)

FIG. C.8 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

116 CHAP C - ANNEXE 3 : RÉSULTATS RENDU

(A)

(B)

(C) (D)

FIG. C.9 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

CHAP C. ANNEXE 3 : RÉSULTATS RENDU 117

(A)

(B)

(C) (D)

FIG. C.10 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

118 CHAP C - ANNEXE 3 : RÉSULTATS RENDU

(A)

(B)

(C) (D)

FIG. C.11 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

CHAP C. ANNEXE 3 : RÉSULTATS RENDU 119

(A)

(B)

(C) (D)

FIG. C.12 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

120 CHAP C - ANNEXE 3 : RÉSULTATS RENDU

(A)

(B)

(C) (D)

FIG. C.13 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

CHAP C. ANNEXE 3 : RÉSULTATS RENDU 121

(A)

(B)

(C) (D)

FIG. C.14 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

122 CHAP C - ANNEXE 3 : RÉSULTATS RENDU

(A)

(B)

(C) (D)

FIG. C.15 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

CHAP C. ANNEXE 3 : RÉSULTATS RENDU 123

(A)

(B)

(C) (D)

FIG. C.16 – Résultats obtenus à l’aide du modèle de rendu. (A) : Image originale. (B) : Image corrigée. (C) : Histogramme de (A). (D) : Histogramme de (B)

ANNEXED

A

NNEXE

4 : R

ÉSULTATS

C

LARTÉ

D.1

Résultats Clarté expérience/modélisation

FIG. D.1 – Différences obtenus pour la Clarté du bleu, sur les trois arrières plans.

126 CHAP D - ANNEXE 4 : RÉSULTATS CLARTÉ

FIG. D.2 – Différences obtenus pour la Clarté du vert, sur les trois arrières plans.

D.1. Résultats Clarté expérience/modélisation 127

(A)

(B)

128 CHAP D - ANNEXE 4 : RÉSULTATS CLARTÉ

(A)

(B)

D.1. Résultats Clarté expérience/modélisation 129

(A)

(B)

ANNEXEE

A

NNEXE

5 : R

ÉSULTATS

C

HROMA

E.1

Résultats Chroma expérience/modélisation

FIG. E.1 – Différences obtenus pour la Chroma du bleu, sur les trois arrières plans.

132 CHAP E - ANNEXE 5 : RÉSULTATS CHROMA

FIG. E.2 – Différences obtenus pour la Chroma du vert, sur les trois arrières plans.

E.1. Résultats Chroma expérience/modélisation 133

(A)

(B)

134 CHAP E - ANNEXE 5 : RÉSULTATS CHROMA

(A)

(B)

E.1. Résultats Chroma expérience/modélisation 135

(A)

(B)

ANNEXEF

A

NNEXE

6 : R

ÉSULTATS

T

EINTE

F.1

Résultats Teinte expérience/modélisation

FIG. F.1 – Différences obtenus pour la Teinte du bleu, sur les trois arrières plans.

138 CHAP F - ANNEXE 6 : RÉSULTATS TEINTE

FIG. F.2 – Différences obtenus pour la Teinte du vert, sur les trois arrières plans.

F.1. Résultats Teinte expérience/modélisation 139

(A)

(B)

140 CHAP F - ANNEXE 6 : RÉSULTATS TEINTE

(A)

(B)

F.1. Résultats Teinte expérience/modélisation 141

(A)

(B)

ANNEXEG

A

NNEXE

7 : T

RANSFORMÉE DE

F

OURIER

2D

La transformée de Fourier bien célèbre permet de passer dans le domaine fréquentiel de l’image. A la base, l’idée de Fourier est la suivante : tout signal peut être décrit en tant que combinaison linéaire de signaux élémentaires sinus ou cosinus (caractérisé par une fréquence). Mathématiquement parlant la transformée de Fourier est donc décrite de la manière suivante :

I(x, y) = n X i=0 m X j=0 ci,je2iπw x ixe2jπw y jy (G.1) I(x, y) = n X i=0 m X j=0 ci,je2iπ(w x ix+w y jy) (G.2) I(x, y) = n X i=0 m X j=0 ai,jcos(2iπ(wixx + w y

jy)) + ibi,j(2iπ(w x ix + w

y

jy)) (G.3)

calcul des ci,j:

c(i, j) = 1 (n + 1)(m + 1) n X x=0 m X y=0

I(x, y)e−2iπ(wxix+w y jy) (G.4) wix= i n + 1w y j = j m + 1 (G.5) Finalement : c(i, j) = 1 (n + 1)(m + 1) n X x=0 m X y=0

I(x, y)e−2iπ(n+1ix + jy

m+1) (G.6)

C’est grâce à la transformée de Fourier que l’on obtient cette combinaison linéaire. La figure G.1 montre plusieurs résultats réalisé a l’aide d’une transformée de Fourier 2D.

Cette transformée est inversible et sans perte et avec l’image "transformée de Fourier", l’image origi- nale est facilement obtenue. En général la plupart des données pertinante de l’image sont contenues dans les basses fréquences située au centre de l’image "transformée".

144 CHAP G - ANNEXE 7 : TRANSFORMÉE DE FOURIER 2D

P

UBLICATIONS

P

ERSONNELLES

Revues internationales

– Tulet O., Larabi M.-C., Fernandez-Maloigne C., Using a spatial extension of the CIECAM02 for image rendering, soumis à JOSA A

Conférences internationales avec comité de lecture

– HVS-based Quantization Steps for Validation of Digital Cinema Extended Bitrates Larabi M.-C., Pellegrin P., Anciaux G., Devaux F.-O., Tulet O., Macq B., Fernandez-Maloigne C. Human Vision and Electronic Imaging - January 2009

– Use of spatial adaptation for image rendering based on an extension of the CIECAM02 Tulet O., Larabi M.-C., Fernandez-Maloigne C. 3rd International Conference on Computer Vision Theory and Applications - January 2008

– Image Rendering Based on a Spatial Extension of the CIECAM02 Tulet O., Larabi M.-C., Fernandez- Maloigne C. IEEE Workshop on Applications of Computer Vision - January 2008

– Study of the influence of background on colour appearance of spatially modulated Larabi M.-C., Tulet O., Fernandez-Maloigne C. CIE Expert Symposium on Visual Appearance - October 2006 – Preliminary Study of the Influence of the Spatial Frequency on Colour Appearance Tulet O., Larabi

M.-C., Fernandez-Maloigne C. 3rd European Conference on Colour in Graphics, Imaging, and Vision, pages 307-310 - June 2006

– Trials on Integrating Spatial Information in Color Appearance Models Larabi M.-C., Tulet O., Fernandez-Maloigne C. ISCC/CIE Expert Symposium, 75 Years of the CIE Standard Observer - May 2006

Conférences Internationales avec Comité de Lecture : invité

– Image Rendering Based on a Spatial Extension of the CIECAM02 Fernandez-Maloigne C., Larabi M.-C., Tulet O. Annual Conference of Colour Association of Taiwan, Taiwan (invited paper) - November 2008

Conférences nationales avec comité de lecture

– Optimisation du Rendu d’Images à l’Aide d’un CAM Spatial Tulet O., Larabi M.-C., Fernandez- Maloigne C. CORESA - Novembre 2007

– Etude préliminaire de l’influence des fréquences spatiales sur l’apparence couleur Tulet O., Larabi M.-C., Fernandez-Maloigne C. CORESA - 2006

B

IBLIOGRAPHIE

[1] Tables statistiques. Revue de Statistique Appliquée, 1973. [2] The CIECAM02 Color Appearance Model, 2002.

[3] Kamel BOUSSAÏD-BELKACEM ALAIN LE NEGRATE, Azeddine BEGHDADI : Quelques traitements bas niveau basés sur une analyse du contraste local. In Vision interface ’99, Trois Rivières, Canada, 19-21 May 1999.

[4] Spehar B. et Zaidi Q. : Surround effects on the shape of the temporal contrast-sensivity function. Optical Society of America, 14(9):2517–2525, 1997.

[5] RECOMMENDATION ITU-R BT.500-11 : Methodology for the subjective assessment of the quality of television pictures. ITU-R BT.500-11.

[6] T. Minka C. ROSENBERGet A. LADSARIYA: Bayesian color constancy with non-gaussian models. InMIT PRESS, éditeur : In Advances in Neural Information Processing Systems, Cambridge, 2004. [7] CIE : Compte rendu de la huitième session. Rapport technique, Cambridge University Press,

Cambridge, 1931.

[8] CIE : Supplement no2 to cie publication no15 : Recommandations on uniform colour spaces, colour difference equations, and psychometric terms, Tech. rep., CIE(1978)., 1978.

[9] Fairchild Mark D. : Color appearance models. 2nd ed.Chichester, 2005.

[10] T.N.Wiesel D.H.HUBEL: Receptive fields, binocular interaction and functinal architecture in the cat’s visual cortex. Journal Physiologie London 160, 160:106–154, 1962.

[11] C.D.Gilbert D.Y.T’SO : The organisation of chromatic and spatial interactions in the primate striate cortex. Journal Neuroscience 8, 8:1712–1728, 1988.

[12] Landolt E : Die functionprufüngen des auges. handbuch der gesammten augenheilkunde. (graefe- saemisch). verlag von wilhelm engelmann. In Snellen H., Landolt E. : Ophthalmometrologie, vo- lume Band III, pages 1–248, Leipzig, 1874.

[13] Brainard D. et FREEMANW. : Bayesian color constancy. J.Optical Soc. of America A., 14(7):1393– 1411, 1997.

[14] H. Trussell et M. VRHEL: Estimation of illumination for color correction. In ICASSP, 1991.

[15] M. D. FAIRCHILD: Color Appearance Models. Addison-Wesley, Massachusetts, 1997. [16] Mark D. FAIRCHILD: Color Appearance Models : CIECAM02 and Beyond.

[17] Mark D. FAIRCHILD: CIE TC8-01 Technical Report, A Colour Appearance for Color Management Systems : CIECAM02, 2005.

[18] Donders F.C : On the anomalies of accommodation and refraction of the eye, with a preliminary essay on physiological dioptrics, volume 365. New Sydenham Society London, 1864.

[19] Christine FERNANDEZ-MALOIGNE : Images numériques couleur : De l’acquisition à l’ana- lyse.

148 BIBLIOGRAPHIE

[20] Christine FERNANDEZ-MALOIGNE: Les modèles d’apparence couleur.

[21] Tulet O. FERNANDEZ-MALOIGNEC., Larabi M.-C. : Image rendering based on a spatial extension of the ciecam02. In Annual Conference of Colour Association of Taiwan, Taiwan (invited paper), November 2008.

[22] Richard FEYNMAN : The Principle of Least Action in Quantum Mechanics. Thèse de doctorat, Université de Princeton, 1942.

[23] R.P. FEYNMAN: Physics today. In Pocono Conference, 1948.

[24] R.P. FEYNMANet J.A. WHEELER: De la lumière à la couleur. Physical Review, 59:9–14, 2007. [25] Steven K. Shevell FLORENTAUTRUSSEAU: Temporal nulling of induction from spatial patterns

Documents relatifs