• Aucun résultat trouvé

Les attaques de vieillissement

Dans le document Tatouage robuste d’images imprimées (Page 119-136)

4 Contre-attaque de l’impression / numérisation

4.5 Résultats

4.5.2 Les attaques de vieillissement

Les résultats présentés dans cette section sont ceux obtenus pour une attaque donnée appliquée aux 400 images tatouées après l’impression / numérisation. Il faut noter que les attaques présentées dans les tests sont plus agressives que les attaques naturelles, notre but est d’atteindre la limite de la méthode proposée.

4.5.2.1 Rayures

Dans ce teste des lignes verticales ou horizontales ont été ajoutées aux images imprimées et scannées, la figure 4-20 présente un exemple de l’ajout des lignes verticale a une image imprimée et scannée.

(a) (b)

Figure 4-20- Attaque par ajout de lignes verticales aléatoirement. (a) L’image sans distorsion, (b) ajout de 8 lignes.

4.5.2.2 Découpe de l’image

Cette attaque consiste à simuler l’apparition d’une tache noire dans l’image d’identité qui se produit soit lors de l’impression ou lors de l’utilisation du document d’identité. Des portions de différentes tailles et positions ont été supprimées de l’image imprimée et scannée. La figure 4-21 illustre la suppression de 5% des pixels de l’image soit un carré de 115×115 pixels.

106

(a) (b)

Figure 4-21- Suppression de 5% des pixels de l’image.

4.5.2.3 Flexion

L’attaque de flexion ou binding, a été simulée par la transformation en barillet, le facteur de distorsion prend les valeurs 0.01, 0.03 et 0.05 et les résultats de ce test sur une image imprimée puis scannée sont présentés dans la figure 4-22.

(a) (b)

Figure 4-22- Attaque par distorsion en barillet. (a) l’image sans distorsion, (b) distorsion avec un facteur k = 0.05.

107

4.5.2.3 Poussière

Il s’agit de tester le comportement des algorithmes face à des poussières qui se déposent sur la carte. Cette dernière est simulée par l’ajout d’un bruit impulsionnel (exemple sel et poivre) sur l’image. La figure 4-23 présente le résultat de cette simulation sur une image.

(a) (b)

Figure 4-23- Attaque par ajout de bruit impulsionnel, (a) l’image originale, (b) image bruitée avec une densité de bruit de 1%.

4.5.2.4 Attaques photométriques

La décoloration des images d’identité consiste à modifier la composante de saturation en pourcentage dans l’espace Teinte, Saturation, Luminosité (LST). La saturation varie de 0 à 255, elle représente l’intensité de la coloration d’une couleur, en d’autres termes, la saturation dénote la proximité par rapport au gris. Si la composante de saturation d’une image est égale à 0 alors l’image est en niveau de gris. Dans ce test, les images imprimées et scannées ont été transformées vers l’espace LST, puis nous avons diminué la composante de saturation avec différentes pourcentages. Le résultat de ce test est présenté dans la figure 4-24.

108

(a) (b)

Figure 4-24- Simulation de la décoloration ; (a) image originale, (b) l’image après modification de 50% de la composante de saturation.

4.5.2.4 Résultats et discussion

Sur la base expérimentale de 400 images imprimées et scannées puis attaquées avec les attaques de vieillissement simulées, nous avons mesuré le taux de détection pour chaque attaque. Les résultats sont présentés dans le tableau 4-3. Le seuil de détection est fixé à 0.334 pour une probabilité de fausse alarme Pfa = 10-4.

Les tests présentés montrent que la méthode préventive proposée dans ce travail est plus performante que la méthode présentée dans [Ante Poljicak et al. 2011] en terme de la robustesse. Les résultats montrent que la combinaison de la méthode préventive et corrective conduit à des meilleurs résultats. Malgré les bons résultats obtenus, la méthode corrective est très sensible au bruit. Ceci est expliqué par le fait que la déconvolution d’image augmente les hautes fréquences dans l’image qui correspondant au bruit. L’effet du bruit impulsionnel peut être réduit par l’utilisation d’un filtre médian. Nous avons appliqué un filtre médian 3×3. Les résultats sont présentés entre parenthèses dans le tableau 4-3. Nous constatons que l’application du filtre médian améliore le taux de détection dans ce cas.

109

Tableau 4-3- Taux de détection sous l’attaque de vieillissement pour une Pfa = 10-4.

Rayures

Nombre de lignes

2 4 8 16

Poljicak et al. [Ante Poljicak et al. 2011] 66.75% 66.25% 63.5% 61.25% Méthode préventive 88.25% 87.75% 84.25% 81.25% Méthode préventive et méthode corrective 98.5% 96.75% 89.75% 87.5%

Découpe de l’image

Pourcentage de suppression

1% 3% 5%

Poljicak et al. [Ante Poljicak et al. 2011] 66% 65.5% 62.25% Méthode préventive 87.5% 86.75% 82.5% Méthode préventive et méthode corrective 98.75% 98.25% 97.5%

Flexion

Facteur de distorsion k

0.01 0.03 0.05

Poljicak et al. [Ante Poljicak et al. 2011] 65.75% 64.75% 61.25% Méthode préventive 87.25% 86% 81.5% Méthode préventive et méthode corrective 98.25% 96.75% 91.75%

Poussière

Densité de bruit

1% 2%

Poljicak et al. [Ante Poljicak et al. 2011] 59.75% (61%) 57.75% (60.75%) Méthode proposée 79.25% (80.75%) 76.75% (80.5%) Méthode préventive et méthode corrective 74.75% (97.75%) 72.25% (96.25%)

Décoloration

Pourcentage de diminution

20% 50% 80% 100%

Poljicak et al. [Ante Poljicak et al. 2011] 66.75% 66% 64.25% 62.75% Méthode préventive 88.5% 87.25% 85.25% 83% Méthode préventive et méthode corrective 99.15% 98.75% 95.25% 90.25%

110

4.6 Conclusion

Dans ce chapitre nous avons montré que le tatouage d’image permet de vérifier son authenticité grâce à une méthode préventive et une méthode corrective. La méthode préventive consiste à prétraiter l’image avant l’insertion de la marque en réduisant la variance du vecteur tatoué par filtrage passe bas ; la méthode corrective basée sur les contre-attaques (filtre de Wiener et correction colorimétrique), elle permet de replacer l’image dans le contexte favorable à la détection de la marque. Les attaques de vieillissement inhérentes à la vie des cartes rajoutent de la complexité car elles se combinent à l’attaque impression/numérisation déjà difficile à contre attaquer. Les tests que nous avons réalisés montrent que la méthode corrective proposée présente quelques limites en présence du bruit impulsionnel. L’application d’un filtre médian est efficace pour nettoyer l’image et par conséquence nous pouvons obtenir des bons taux de détection. Par contre si l’image n’est pas bruitée, le filtre médian modifiera la marque insérée. L’utilisation d’un filtre médian adaptatif pallierait certainement ce problème.

111

Conclusion générale

Dans cette thèse, nous nous sommes intéressés au problème du tatouage invisible d’image dans le cadre d’une application industrielle. Nos travaux ont essentiellement porté sur le tatouage d’images d’identité imprimées sur des documents type carte plastique. L’opération d’impression suivie d’une numérisation produit des attaques puissantes qui détériorent la marque insérée dans l’image d’identité. Les principales caractéristiques attendues de l’algorithme du tatouage sont l’invisibilité et la robustesse contre les attaques d’impression/numérisation et les attaques de vieillissement.

Nous avons débuté ce rapport de thèse par un chapitre de l’état de l’art du tatouage numérique. Dans ce chapitre, nous avons abordé les différentes phases de la conception d’une méthode de tatouage. Nous avons présenté un bref descriptif sur les méthodes de tatouage robuste aux transformations géométriques puis les raisons qui ont motivé notre choix des méthodes de tatouage dans le domaine de Fourier. Ce domaine d’insertion se caractérise par sa résistance contre les attaques géométriques globales.

Après avoir décrit les différentes méthodes de tatouage des images numériques, nous avons présenté dans le deuxième chapitre une étude détaillée des distorsions produites dans la phase d’impression/numérisation, ainsi que les modèles proposés et les solutions développées pour les éliminer ou les réduire. Ces distorsions sont divisées principalement en deux catégories ; les transformations géométriques affectant la position des pixels ainsi les distorsions qui affectent la valeur des pixels. En ce qui concerne les distorsions de la valeur des pixels plusieurs modèles ont été proposés mais finalement peu de contre-attaques ont été développées.

Notre première contribution dans le domaine du tatouage d’images est exposée dans le troisième chapitre. L’approche développée appartient aux schémas additifs avec une détection aveugle dans le domaine de la transformé de Fourier. Il s’agit d’une méthode préventive qui consiste à prétraiter l’image originale avant l’insertion de la marque. Nous avons montré que le coefficient de corrélation entre la marque et les coefficients tatoués est inversement proportionnel à la variance du vecteur support de la marque. Nous avons ensuite développé deux techniques pour réduire la variance de ce vecteur. La première consiste à une modification directe aux coefficients de l’insertion par l’application d’un filtre passe bas. La deuxième vise à diminuer la variance par sélection des coefficients de l’insertion selon leurs valeurs. Cette approche permet d’améliorer le taux de détection et d’accroitre la robustesse de l’algorithme. L’étude de l’imperceptibilité a montré que les deux techniques produisent des images tatouées avec une bonne qualité visuelle où le PSNR est fixé à 40dB et le MSSIM et supérieure à 0.96. L’approche mis au point possède des bonnes performances en termes de robustesse vis-à-vis des attaques numériques telles que la compression, l’ajout de bruit

112

et le filtrage, ainsi que contre les attaques géométriques telles que la rotation et le recadrage. Une comparaison avec la méthode de base qui fait référence présentée dans [Ante Poljicak et al. 2011] a démontré que les méthodes proposées permettent d’améliorer la robustesse du système de tatouage. En outre, on remarque que le schéma basé sur la sélection est plus performant que celui basé sur le filtrage des coefficients.

Lors de l’impression / numérisation, d’autres attaques interviennent et se combinent entre elles. Les plus importantes sont le flou et les variations des couleurs. Une analyse de ces problèmes nous a conduit à proposer une approche corrective dans le chapitre 4. Elle consiste à traiter les distorsions liées aux attaques d’impression / numérisation en deux phases. La première est une correction de flou en utilisant un filtre de Wiener adapté à la chaine d’impression / numérisation. La deuxième est une correction colorimétrique en utilisant une table de transcodage. Cette méthode a été testée sur des images d’identité imprimées sur des supports plastiques puis ensuite scannées. L’étude comparative présenté dans la section 4.5 montre que la méthode corrective proposée dans ce travail est plus performante que les méthodes de la littérature [Yu et al. 2005], [A. Poljicak et al. 2012].

Il existe des dégradations additionnelles à celles de l’impression/numérisation : il s’agit des attaques de vieillissement. L’image tatouée imprimée subit des dégradations naturelles au cours de l’utilisation du document d’identité. Dans ce travail, nous avons développé une série d’attaques simulant le vieillissement du document d’identité. Ces attaques ont pour objectif de tester la robustesse des méthodes de tatouage contre les distorsions produites lors de l’utilisation de documents officiels. Les résultats obtenus en termes de taux de détection montrent que la méthode de tatouage proposée présente de meilleures performances comparée à la méthode de référence proposée dans [Ante Poljicak et al. 2011]. Nous notons que la combinaison des méthodes corrective et préventive améliore considérablement le taux de détection. Le plus intéressant est que les deux méthodes ont un rôle complémentaire. A titre d’exemple, pour une probabilité de fausse alarme Pfa = 10-4, nous avons obtenu une amélioration moyenne de 22% par rapport la méthode originale proposée dans [Ante Poljicak et al. 2011] avec la méthode préventive seule. La combinaison de la méthode préventive avec la méthode corrective donne un taux de détection supérieur à 99%. L’algorithme de détection peut détecter la présence de la marque en moins de 1 seconde pour à une image de 512×512 pixels avec un ordinateur classique ce qui est compatible avec l’application industrielle visée.

Bien que la stratégie présentée possède des performances considérables au niveau de l’invisibilité et la robustesse de la marque, les tests que nous avons réalisés montrent que la méthode corrective présente quelques limites en présence du bruit impulsionnel. L’application d’un filtre médian est efficace pour nettoyer l’image et par conséquence nous pouvons obtenir des bons taux de détection.

113

Par contre si l’image n’est pas bruitée, le filtre médian modifiera la marque insérée. L’utilisation d’un filtre médian adaptatif pallierait certainement ce problème.

Perspectives :

La méthode de tatouage proposée dans ce travail ne prend pas en compte l’aspect psycho-visuel lors l’insertion de la marque. De nombreux travaux exploitant les masques psycho-visuels (sensibilité au contraste, l’adaptation de luminance…) existent et ont démontré leur efficacité [Tang et al. 2015]. Dans nos travaux futurs, notre approche consistera à construire un modèle psycho-visuel qui prend en compte les propriétés les plus courantes du système visuel humain afin de déterminer le seuil de la détection visuelle généralement appelé le JND (Just Noticeable Distortion). L’objectif étant d’améliorer l’efficience de notre approche tout en maintenant sa simplicité.

Comme autre perspective, nous visons à développer une technique robuste aux attaques Print/Cam où la numérisation de l’image est effectuée à l’aide d’un smartphone équipé d’un appareil photographique numérique (ou APN). Dans ce cas, les distorsions produites sont plus compliquées que celles produites lorsque l’image est numérisée par un scanner. Dans le processus d’impression/numérisation avec un scanner, l’extraction de la marque est traitée comme un problème en deux dimensions mais dans le cas d’une caméra le processus devient un problème tridimensionnel. En conséquence, les transformations géométriques dans ce cas sont des transformations projectives. En plus des attaques géométriques, d’autres attaques interviennent avec l’utilisation d’une caméra, il s’agit des transformations radiométriques où la luminosité du milieu varie fortement. Cette luminosité est variable selon la présence d’une ou plusieurs sources de lumière de différentes couleurs et directions. Les travaux existant sont encore émergeants, mais les applications industrielles des méthodes de tatouage robustes aux attaques Print/Cam sont réelles.

114

Bibliographie

Agarwal, C., A. Mishra and A. Sharma. 2013. Gray-scale image watermarking using GA-BPN hybrid network. Journal of Visual Communication and Image Representation 24(7): 1135-1146.

Alattar, A. M. 2000. Smart images using Digimarc's watermarking technology. Electronic Imaging, International Society for Optics and Photonics.

Ambadiyil, S., K. S. Soorej and V. P. M. Pillai. 2015. Biometric Based Unique ID Generation and One to One Verification for Security Documents. Procedia Computer Science 46: 507-516.

Amiri, S. H. and M. Jamzad. 2014. Robust watermarking against print and scan attack through efficient modeling algorithm. Signal Processing: Image Communication 29(10): 1181-1196.

Bailey, D. G. 2002. A new approach to lens distortion correction. Image and Vision Computing New Zealand

Barni, M. 2005. Effectiveness of exhaustive search and template matching against watermark desynchronization. IEEE Signal Processing Letters 12(2): 158-161.

Barni, M. and F. Bartolini. 2004. Watermarking systems engineering: enabling digital assets security and other applications, CRC Press.

Bas, P. 2000. Méthodes de tatouage d'images basées sur le contenu, Institut national polytechnique de Grenoble, Grenoble, FRANCE.

Bas, P., J. M. Chassery and B. Macq. 2002. Image watermarking: an evolution to content based approaches. Pattern Recognition 35(3): 545-561.

Boust, C. and H. Chaine. 2005. La qualité des images imprimées. Ecole d'Hiver sur l'Image Numérique Couleur, Laboratoire d'Automatique, Génie Informatique et Signal, Lille

Brauers, J., C. Seiler and T. Aach. 2010. Direct PSF estimation using a random noise target. IS&T/SPIE Electronic Imaging, International Society for Optics and Photonics.

Briassouli, A. and M. G. Strintzis. 2004. Locally optimum nonlinearities for DCT watermark detection. IEEE Trans Image Process 13(12): 1604-1617.

Cheddad, A., J. Condell, K. Curran and P. Mc Kevitt. 2010. Digital image steganography: Survey and analysis of current methods. Signal Processing 90(3): 727-752.

Chen, B. and G. W. Wornell. 2001. Quantization index modulation: a class of provably good methods for digital watermarking and information embedding. IEEE Transactions on Information Theory 47(4): 1423-1443.

Cheng, Q. and T. S. Huang. 2001. An additive approach to transform-domain information hiding and optimum detection structure. IEEE Transactions on Multimedia 3(3): 273-284.

115

Cox, I., M. Miller, J. Bloom, J. Fridrich and T. Kalker. 2007. Digital watermarking and steganography, Morgan Kaufmann.

Cox, I. J. and M. L. Miller. 2001. Electronic watermarking: the first 50 years. IEEE Fourth Workshop on Multimedia Signal Processing.

Cox, I. J. and M. L. Miller. 2004. Facilitating Watermark Insertion by Preprocessing Media. EURASIP Journal on Advances in Signal Processing 2004(14): 2081-2092.

Cox, I. J., J. Kilian, F. T. Leighton and T. Shamoon. 1997. Secure spread spectrum watermarking for multimedia. IEEE Trans Image Process 6(12): 1673-1687.

Degara-Quintela, N. and F. Perez-Gonzalez. 2003. Visible encryption: using paper as a secure channel.

Derraz, F., M. Beladgham and M. h. Khelif. 2004. Mesure Objective de la Qualité d’Image Médicale Dérivée de l’Index de Similarité Structurelle, Tlemcen - ALGERIE.

Dharwadkar, N. V. and B. Amberker. 2009. Secure Watermarking Scheme for Color Image Using Intensity of Pixel and LSB Substitution. Journal of Computing 1(1): 1-6.

Dong, P., J. G. Brankov, N. P. Galatsanos, Y. Yang and F. Davoine. 2005. Digital watermarking robust to geometric distortions. IEEE Trans Image Process 14(12): 2140-2150.

Douzi, H., D. Mammass and F. Nouboud. 2001. Faber-Schauder Wavelet Transform, Application to Edge Detection and Image Characterization. Journal of Mathematical Imaging and Vision 14(2): 91-101.

El-Hajji, M. 2012. La sécurité d'images par le tatouage numérique dans le domaine d'ondelettes, Université Ibnou Zohr, Faculté des Sciences, Agadir.

El Hajji, M., H. Douzi, D. Mammass, R. Harba and F. Ros. 2012. New image watermarking algorithm based on mixed scales wavelets. Journal of Electronic Imaging 21(1): 013003-013001-013003-013007.

Emami, M. S., K. Omar, S. Sahran and S. N. H. S. Abdullah. 2014. Spatial Domain Approaches for Real-Time Ownership Identification.

Furon, T. and P. Bas. 2013. A New Measure of Watermarking Security Applied on QIM. Information Hiding. M. Kirchner etD. Ghosal, Springer Berlin Heidelberg. 7692: 207-223.

Gao, G.-y. and G.-p. Jiang. 2011. Zero-bit watermarking resisting geometric attacks based on composite-chaos optimized SVR model. The Journal of China Universities of Posts and Telecommunications 18(2): 94-101.

Gonzalez, R. C. and R. E. Woods. 2007. Digital image processing, Prentice Hall.

Gupta, V. and A. Barve. 2014. A review on image watermarking and its techniques. International Journal of Advanced Research in Computer Science and Software Engineering 4(1): 92-97.

116

Iliyasu, A. M., P. Q. Le, F. Dong and K. Hirota. 2012. Watermarking and authentication of quantum images based on restricted geometric transformations. Information Sciences 186(1): 126-149.

Imprimante-info. 2012. "Actualité et resources pour imprimantes." Retrieved 23/12/2014, from http://www.imprimante-info.com/.

In-Kwon, Y. and K. Hyoung Joong. 2003. Modified patchwork algorithm: a novel audio watermarking scheme. IEEE Transactions on Speech and Audio Processing 11(4): 381-386. Kasprzak, W., M. Stefańczyk and J. Popiołkiewicz. 2013. The Print-Scan Problem in Printed

Steganography of Face Images. Proceedings of the 8th International Conference on Computer Recognition Systems CORES 2013, Springer.

Khan, M. and T. Shah. 2014. A copyright protection using watermarking scheme based on nonlinear permutation and its quality metrics. Neural Computing and Applications 26(4): 845-855.

Kundu, M. K. and A. K. Maiti. 2006. An Inexpensive Digital Watermarking Scheme for Printed Document. IET International Conference on Visual Information Engineering.

Kutter, M. and F. A. P. Petitcolas. 1999. Fair benchmark for image watermarking systems. Security and Watermarking of Multimedia Contents.

Leppla, M. and N. Richart. 2001, 2003. "KleoColor Training by QUBYX." Retrieved 15 Juin, 2015, from http://www.kleocolor.com/.

Lichtenauer, J. F., I. Setyawan, T. Kalker and R. L. Lagendijk. 2003. Exhaustive geometrical search and the false positive watermark detection probability.

Licks, V. and R. Jordan. 2000. On digital image watermarking robust to geometric transformations. International Conference on Image Processing, IEEE.

Lin, C.-Y. and S.-F. Chang. 1999. Distortion modeling and invariant extraction for digital image print-and-scan process. Proceedings of International Symposium on Multimedia Information Processing.

Lin, C. Y., M. Wu, J. A. Bloom, I. J. Cox, M. L. Miller and Y. M. Lui. 2001. Rotation, scale, and translation resilient watermarking for images. IEEE Trans Image Process 10(5): 767-782.

Liu, L., T. Guan and Z. Zhang. 2013. Broadcast monitoring protocol based on secure watermark embedding. Computers & Electrical Engineering 39(7): 2299-2305.

Loukhaoukha, K. 2011. Tatouage numérique des images dans le domaine des ondelettes basé sur la décomposition en valeurs singulières et l'optimisation multi-objective, Université Laval.

Lubin, J. 1997. A human vision system model for objective picture quality measurements. International Broadcasting Convention, 1997.

Luisier, F., T. Blu and M. Unser. 2011. Image denoising in mixed Poisson-Gaussian noise. IEEE Trans Image Process 20(3): 696-708.

117

Mairgiotis, A., L. Kondi and Y. Yongyi. 2013. Locally optimum detection for additive watermarking in the DCT and DWT domains through non-Gaussian distributions. Digital Signal Processing (DSP), 2013 18th International Conference on.

Mallat, S. G. 1987. A theory for multiresolution signal decomposition: the wavelet representation.

Malvido, A., F. Pérez-González and A. Cousiño. 2006. A novel model for the print-and-capture channel in 2D bar codes. Multimedia Content Representation, Classification and Security, Springer: 627-634.

Miller, M. and J. Bloom. 2000. Computing the Probability of False Watermark Detection. Information Hiding. A. Pfitzmann, Springer Berlin Heidelberg. 1768: 146-158.

Ming-Sui, L. and C. Yu-Hsiang. 2010. Image recovery of geometric distortion with multi-bit data embedding. IEEE International Conference on Multimedia and Expo (ICME).

Mitrea, M., F. Prêteux, A. Vlad and C. Fetita. 2004. The 2D-DCT coefficient statistical behaviour: a comparative analysis on different types of image sequences. Journal of Optoelectronics and Advanced Materials 6(1): 95-102.

Moorthy, A. K. and A. C. Bovik. 2010. A Two-Step Framework for Constructing Blind Image Quality Indices. IEEE Signal Processing Letters 17(5): 513-516.

Nakamura, S. 1993. Applied numerical methods in C, Prentice-Hall, Inc.

Nan, L., W. Quan and Z. Kefeng. 2012. A Print-Scan Modeling Scheme Based on BP Neural Network. International Conference on Computational Intelligence and Security (CIS).

Nasir, I., F. Khelifi, J. Jiang and S. Ipson. 2012. Robust image watermarking via geometrically invariant feature points and image normalisation. IET Image Processing 6(4): 354-363.

Nguyen, P. B. 2011. On The Use of Human Visual System Modelling in Watermarking, Université de Paris 13.

Nikolaidis, N. and I. Pitas. 1998. Robust image watermarking in the spatial domain. Signal Processing 66(3): 385-403.

Nikolaidis, N., V. Solachidis, A. Tefas, V. Arguriou and I. Pitas. 2002. Benchmarking of still image watermarking methods: Principles and state of the art. Proc. of Electronic Imaging and the Visual Arts (EVA2002).

Pereira, S. and T. Pun. 2000. Robust template matching for affine resistant image watermarks. IEEE Trans Image Process 9(6): 1123-1129.

Petitcolas, F. A. P. 2000. Watermarking schemes evaluation. IEEE Signal Processing Magazine 17(5): 58-64.

118

Picard, J., C. Vielhauer and N. Thorwirth. 2004. Towards fraud-proof id documents using multiple

Dans le document Tatouage robuste d’images imprimées (Page 119-136)