• Aucun résultat trouvé

3.2 Méthodologie de l’étude

3.2.1 Pré-traitement

3.2.1.1 Conversion de l’image en niveaux de gris

Cette phase consiste à convertir les images en niveau de gris afin de rendre la valeur des composantes en couleur identique. Pour la transformation d’une image couleur en une image en niveaux de gris, on ne prend généralement pas la moyenne arithmétique des intensités de couleurs fondamentales, mais une moyenne pondérée.

La formule standard donnant le niveau de gris en fonction des trois composantes est :

gris=int(round(0.299rouge+ 0.587vert+ 0.114bleu)) (3.1) 3.2.1.2 Division en blocs superposés

Au cours de cette phase, on divise l’image en blocs superposés de taille fixe. Cette approche est appelée convolution. Soit une imagef de tailleM x N, soitL x Lla taille du bloc et soitBij un bloc, on a :

Bij(x, y) = f(x+j, y+i),

où x, y ∈ {0,· · · , L−1}, i∈ {0,· · · , M−1} et j ∈ {0,· · · , N −1}[10] (3.2)

Chapitre 3. Materiels et méthodes 3.2. Méthodologie de l’étude

Par conséquent, on obtientNblocksde sous-blocs superposés à partir de l’image entrée.

Nblocks = (M −L+ 1) x (N−L+ 1) (3.3)

La figure 3.2 nous montre le processus de subdivision de l’image en sous bloc de taille 3x3. On a une image de taille 6x6 représentée par les intensités de pixels en niveau de gris. En considérant

FIGURE 3.2 – Divison en bloc superposé de taille 3x3. (a) On a une image6x6représentée par ses pixels en niveau de gris. (b) Représente le premier bloc 3x3 obtenu après l’opération de division. (c) Représente le deuxième bloc obtenu après l’opération de division.

la figure 3.2, le nombre de blocs serait égal à :

Nblocks = (6−3 + 1) x (6−3 + 1)

= 16 (3.4)

On aura au total16 blocsaprès la subdivision.

3.2.1.3 HDWT

Le HDWT est une technique de filtrage qui permet de réduire la taille de l’image à chaque niveau. Le principal objectif de la transformation en ondelettes est de décomposer un signal en une fonction de base fixe. Ces fonctionnalités sont appelées ondelettes. Les ondelettes mères sont définies comme les ondelettes obtenues à partir d’un modèle unique par décalage et dila-tation. DWT divise le signal en parties basse et haute fréquence. La basse fréquence contient les informations brutes du signal et la partie haute fréquence contient les informations concernant les composants de bord.

L’algorithme HDWT utilise le système de codage sous-bande pour décomposer une image dans un ensemble de différentes sous-bandes de fréquence. Comme illustré aux figures 3.3 et 3.4, la taille de chaque sous-bande est un dixième de l’image d’origine dans le domaine

spa-Chapitre 3. Materiels et méthodes 3.2. Méthodologie de l’étude

tial. Les quatre (04) différentes sous-bandes peuvent être classées dans les sous-bandes basses, moyennes et hautes fréquences. La sous-bande basse fréquence d’une image contient plus d’énergie que les autres sous-bandes. Les coefficients sont les plus fragiles : si l’un d’entre eux est manipulé, on peut détecter les modifications effectuées sur l’image. Cependant, si les coef-ficients dans le milieu et/ou sous-bandes haute fréquence étant modifiées, les modifications de l’image du domaine spatial seront imperceptibles aux yeux de l’homme. Par conséquent, cette caractéristique est généralement exploitée pour cacher un message secret.

FIGURE3.3 – Processus de décomposition de HDWT à un niveaux

Chapitre 3. Materiels et méthodes 3.2. Méthodologie de l’étude

(a) (b)

FIGURE3.4 – Décomposition de HDWT à un niveau d’une image de document text

La transformation discrète en ondelettes de Haar en deux dimensions d’une image Mx N oùMetNsont des entiers positifs est définie comme suit :

B =WMAWNT (3.5)

Le blocHN/2 est appelé le bloc des moyennes et le blocGN/2est appelé bloc des détails.

Chapitre 3. Materiels et méthodes 3.2. Méthodologie de l’étude

Notons que l’image transformée B = WMAWNT est composée de quatre blocs. On suppose queAsoit une matriceMxN avecMetNdes entiers pairs positifs. En utilisant l’équation 3.6, on écritWM,WNT sous forme de bloc, et donc l’équation 3.5 peut être aussi écrite sous forme de bloc. On a : D’après l’équation 3.7, la construction des matricesWM,WN contribue directement à la struc-ture de bloc de la transformation bidimensionnelle. On peut également analyser chaque bloc et en savoir plus sur les informations qu’il détient. Le bloc supérieur gauche estA=WM/2AWN/2T etHM/2Aproduit la colonne moyennes. On multiplie ce produit parHN et rappelons que cette opération produit des moyennes (pondérées) le long des rangées, donc A est une approxima-tion de l’original de la matrice d’entrée A. On a :

B =WMAWNT =

Les moments d’image ont été largement utilisés dans le traitement d’image et la vision par ordinateur. Dans cette étude, la sous-bande d’approximation (LL) est sélectionnée pour l’ex-traction des caractéristiques car elle renferme le plus d’information sur l’image. En effet, les moments d’ordre(pq)pour une fonction2Dest défini comme suit :

mpq = x

xpsqf(x, y)dxdy où p, q = 0,1,2, . . . (3.9) En discret, les intégrales sont remplacées par la somme. En utilisant l’équation 3.9, pour une

Chapitre 3. Materiels et méthodes 3.2. Méthodologie de l’étude

image en niveau de gris d’intensitéI(x, y), le momentmij de cette image est calculé par : mij =X

x

X

y

xiyjI(x, y) (3.10)

Le moment d’ordre zéro désigne la masse d’une image et est défini comme suit : m00 =x

f(x, y)dxdy (3.11)

Les moments de premier ordre (m10m01) sont généralement utilisés pour déterminer le cen-troïde d’une image avec(xc, yc) :xc =m10/m00, yc=m01/m00. Si l’origine du cadre de référence est déplacé vers le centroïde, les moments centralisés peuvent être calculés par :

upq =x

(x−xc)i(y−yc)if(x, y)dxdy où p, q = 0,1,2, . . . (3.12) Les moments centralisés ont les propriétés de translation d’invariance. Lorsque l’image est tour-née ou redimensiontour-née, les moments centralisés ne changeront pas. Ainsi, produire les mo-ments avec invariance de rotation, de mise à l’échelle et de translation est très essentiel pour beaucoup d’applications telles que la reconnaissance de formes, le traitement d’image avec fi-ligrane numérique et la recherche multimédia. Cette propriété est utile pour la détection de falsification par copier-déplacer car une zone de l’image déplacé a le même moment que l’ori-ginal déplacé. Considérant que l’invariance d’échelle peut être obtenue par la normalisation des moments centraux qui sont invariants contre la mise à l’échelle, ils sont définis comme suit :

ypq = upq

u00r , r= p+q+ 2

2 , p+q= 2,3, . . . (3.13) Sur la base des moments centraux normalisés, Hu a introduit les invariants suivants de sept moments parmi lesquels on utilise quatre moments distinctifs afin de réduire la dimension du vecteur de caractéristiques. Les deuxièmes et troisièmes ordres des moments centralisés norma-lisés sont utinorma-lisés pour construire sept moments invariants, qui peuvent avoir une invariance contre la mise à l’échelle, la translation et la rotation. Les sept moments sont définis comme :

Chapitre 3. Materiels et méthodes 3.3. Interface web mise en place pour la détection

m1 = y20+y02

m2 = (y20+y02)2+ 4y211

m3 = (y30−3y12)2+ (3y21−y03)2 m4 = (y30+y12)2+ (y21−y03)2 m5 = (y30−3y12) + (y30−y12)

(y30−3y12)−3(y21−3y03)2

(3.14) +(3y21−y03)(y21−y03)

3(y30−y12)2−(y21−y03)2 m6 = (y20−y02)

(y30+y12)2−(y21+y03)2

+ 4y11(y30+y12)(y21+y03) m7 = (3y21−y03)(y30+y12)

(y30+y12)2−3(y21+y03)2 +(3y12−y30)(y21+y03)

(3y30+y12)2−(y21+y03)2

Les moments invariants de Hu décrits ci-dessus sont généralement robustes vis-à-vis du bruit, de la compression JPEG, du retournement, de la rotation et des transformations géométriques.

3.3 Interface web mise en place pour la détection

Nous présentons dans cette section un aperçu de l’interface du système web mis en place.

Ce système prend en paramètre une image et ensuite l’algorithme de détection est exécuté.

Pour faire fonctionner ce système, on démarre le serveur et on accède à l’application à travers la page d’accueil. La page d’accueil nous permet de sélectionner l’image qu’il soit en JPFG ou en PNG grâce à un bouton nommé "Sélectionner l’image". La figure 3.5 présente l’aperçu de la page d’accueil.

FIGURE3.5 – Page d’accueil

Après avoir sélectionner l’image, on est redirigé sur une page qui nous permet de visualiser

Chapitre 3. Materiels et méthodes 3.3. Interface web mise en place pour la détection

l’image choisie et de pouvoir lancer la détection via le bouton "Détecter". En cliquant sur le bouton, le programme est exécuté et on est redirigé sur la page de résultat. La figure 3.6 présente un aperçu de la page qui affiche l’image sélectionnée.

FIGURE3.6 – Page de lancement de la détection

Sur la page des résultats, deux images sont affichées. L’image de droite représente le sujet de la vérification c’est-à-dire l’image sélectionnée. L’image de gauche quant à elle représente le résultat de la vérification par le système mise en place. On remarque sur cette image des zones colorées en différentes couleurs. Les zones en couleurs représentent les parties du document ayant subi des altérations. Mais dans certains cas, certaines parties colorées représentent des zones mal classées. La figure 3.7 présente la page de résultat.

Chapitre 3. Materiels et méthodes 3.4. Mesures d’évaluation

FIGURE3.7 – Page de résultat

3.4 Mesures d’évaluation

La performance et la fiabilité des méthodes CMFD sont généralement évaluées aux niveaux image et pixel [30]. La première approche c’est à dire au niveau image met l’accent sur la capa-cité du détecteur à discerner l’altération de l’image, tandis que la seconde c’est à dire au niveau pixel présente la capacité du détecteur à localiser avec précision les patchs d’image clonés. La si-milarité entre les glyphes étant une propriété, intrinsèque à tous images de document, on utilise donc la méthode d’évaluation au niveau des pixels. Pour notre étude, nous nous concentrons sur trois paramètres de performance majeurs au niveau des pixels de l’image pour déterminer le fait qu’une image a été altérée ou non. IL s’agit de la précision (P) qui prend en compte le nombre de faux positifs (NFP) et lenombre de faux négatifs (NFN) qui constituent des paramètres d’évaluation des performances permettant d’évaluer l’efficacité des systèmes de détection de CM par bloc.

m Nombre de Vrai Positif(NVP) : représente le nombre de pixels correctement classé comme dupliqué par rapport au nombre réel de pixels dupliqués.

m Nombre de Faux Positif (NFP) : indique le nombre de pixels authentique mais classé comme falsifié.

m Nombre de Faux Négatif (NFN) : Nombre de pixels qui ont été falsifiés mais classés comme authentique.

m Nombre de Vrai Négatif(NVN) : Nombre de pixels correctement détectées comme non forgées.

m Précision (P) : fournit la qualité de la localisation des correctifs basée sur les vrais taux

Chapitre 3. Materiels et méthodes 3.4. Mesures d’évaluation

positifs et les taux véritablement négatifs. Elle est donnée par l’équation : P =

N V P N V P +N F P

∗100 (3.15)

Conclusion

Dans ce chapitre, nous avons présenté les différents outils et matériels ainsi que les tech-nologies et les données à utiliser pour effectuer nos travaux. Les techniques de pré-traitement, d’extraction de caractéristiques et de correspondance des caractéristiques sont autant de tech-niques que combine notre approche de solution pour proposer une méthode pour la détection des documents scannés.

La figure 3.8, montre en détail le schéma que suit notre méthode.

Chapitre 3. Materiels et méthodes 3.4. Mesures d’évaluation

FIGURE3.8 – Schéma détaillé de notre méthode

Chapitre 4

Résultats et discussions

Introduction

La méthode de détection des CM dans l’image d’un document texte utilisée dans l’approche proposée dans le chapitre précédent, possède ses forces et ses faiblesses, que nous devons prendre en compte. Dans ce chapitre, nous présentons les résultats de nos tests quant à la détec-tion des zones forgées. Les résultats obtenus sont présentés suivant les méthodes d’évaluadétec-tion des performances des algorithmes de détection des altérations par CM.

4.1 Détails de l’implémentation

Dans notre méthode, nous avons évalué pixel par pixel la détection des régions copiées, afin d’obtenir une évaluation plus détaillée des propriétés discriminantes des fonctionnalités. Au total, nous avons mené des expériences avec environ 30 images de documents text forgées afin de mieux comprendre le comportement des différents ensembles de fonctionnalités de notre méthode.

Taille du bloc : Le choix de la taille du bloc est déterminant dans la mise en œuvre de notre système. Afin de faire un choix judicieux et d’analyser le comportement du système, nous avons effectué nos expériences en considérant des blocs de tailles de8x8,16x16et32x32pixels.

L’analyse est faite sur plusieurs images mais le tableau 4.1 présente les résultats des tests sur deux images l’une de taille2583 x 1163et l’autre de taille944 x 1500.

Chapitre 4. Résultats et discussions 4.1. Détails de l’implémentation

TABLEAU 4.1 – Evaluation de la méthode sur les différentes tailles de bloc

Image Taille de bloc NVP NFP NFN NVN P(%)

2583 x 1163

Nous avons choisi d’utiliser une taille de bloc de16 x16pixels. Nous avons trouvé que c’est un bon compromis car nous travaillons sur des images de document contenant du texte. De plus les caractères sont de petite taille et donc ce qui permettra de réduire le nombre de pixels falsifiés mais classés comme authentique. Sur certain document avec l’utilisation des blocs de 8x8, on remarque qu’après vérification de l’image par le système, les zones d’arrière plan sur-tout celle qui sont blanches sont parfois considérées comme forgées alors que ce n’est pas le cas. La prise en compte des blocs de 16x16 remédie en quelque sorte à ce problème en réduisant le nombre de pixels authentiques mais classés comme falsifiés. Quand au niveau des blocs de 32x32 pixels, il arrive des fois que les parties forgées soient détectées comme authentiques à cause de la taille des caractères altérés. Ces remarques justifient le choix de la taille des blocs que nous avons fixé à16x16.

4.1.1 Résultat de l’implémentation

Nous avons effectué notre implémentation sur différentes images dont les tailles varient entre693 x 241et2583 x 1163. Le tableau 4.1.1 présente les résultats de l’implémentation sur huit (08) images prises parmi nos données. On remarque que sur certains documents le NVP = 0 ce qui signifie qu’aucun pixel falsifié n’a été détecté. Cela est dû au fait que la taille des caractères forgés n’est pas suffisante. C’est l’une des insuffisances de notre méthode qu’il faudra remédier.

Aussi sur d’autres documents, on constate que le NFP est grand, ce qui est causé par la présence des zones d’arrière plan dans les pixels falsifiés. Le taux le plus élevé du NFP est constaté sur les documents avec un arrière plan blanc. Lorsque le NFN = 0 cela signifie que tous les pixels falsifiés ont été détectés par le système ce qui représente l’objectif principal de notre méthode.

Des résultats issus de l’expérience, on déduit une précision de 88,61% pour notre méthode.

Chapitre 4. Résultats et discussions 4.1. Détails de l’implémentation

TABLEAU4.2 – Résultat de l’implémentation sur différentes images de document texte Documents Nombre de pixels total NVP NFP NFN NVN P(%)

1 2172480 7515 1486 405000 1444965 83,5

2 167013 3105 0 0 163908 100

3 2172480 1254 409 6293 2164187 75,4

4 167013 912 0 0 166101 100

5 1416000 4400 0 3228 1408372 100

6 247932 5780 965 1723 246209 85,7

7 1416000 10526 0 4059 1401415 100

8 1416000 10526 0 4800 1400674 100

9 3004029 14365 2000 1000 2986664 87,79

10 3004029 9243 1568 0 2989786 85,5

11 7305120 10400 2150 0 7292570 82,86

12 7305120 31196 1698 0 7272226 94,84

13 247932 5280 200 97 19216 96,35

14 247932 2552 1009 0 246668 71,66

15 130500 1164 0 0 129336 100

16 130500 1188 91 62 129159 92,88

17 119767 592 200 184 118791 74,74

Chapitre 4. Résultats et discussions 4.1. Détails de l’implémentation

18 119767 660 256 147 118704 72

19 193200 1242 123 0 191835 90,98

20 193200 585 85 59 192471 87,31

21 3680000 2365 468 1472 3675695 83,48

22 3680000 5165 104 2789 3671942 98,03

23 3680000 4160 271 1854 3673715 93,88

24 572565 3315 347 0 5689903 90,52

25 572565 1680 789 0 570096 68,04

26 572565 4322 157 0 568086 96,49

27 630287 1311 139 80 628757 90,41

28 630287 3618 674 56 625939 84,29

29 795750 1144 188 83 794335 85,88

30 795750 2480 415 154 792701 85,66

Le tableau 4.3 présente les résultats de la comparaison entre notre méthode et deux autres méthodes de l’état de l’art. Le tableau révèle que notre méthode présente en termes de précision un résultat meilleur que les deux autres méthodes.

Chapitre4.Résultatsetdiscussions4.1.Détailsdel’implémentation

TABLEAU4.3 – Tableau comparatif des performances avec certaines méthodes de l’état de l’art.

Documents Zernike Hu DCT

NVP NFP NFN NVN P(%) NVP NFP NFN NVN P(%) NVP NFP NFN NVN P(%)

1 3105 0 0 163908 100 3105 0 0 163908 100 1350 200 1940 163523 87,1

2 4400 2080 3228 1408372 68 1400 600 1500 1412500 70 910 1702 2480 1410908 34,84

3 9243 5000 0 2989786 64,89 8500 0 2000 2993529 100 6074 4795 578 2992582 55,88

4 10526 785 4800 1400674 93,06 9126 400 1005 1405469 95,8 7800 690 1804 1391706 91,87

49

4.2 Discussion

L’étude sur les paramètres à considérer pour une bonne détection a fourni des preuves d’une relation entre les tailles de bloc et de police par rapport à la NVP. Afin de donner une idée de la largeur et de la hauteur moyennes des symboles dans les images forgées de différentes tailles de police, nous avons effectué nos tests sur trois(03) différents blocs. Dans la plupart le NVP le plus élevé a été obtenu avec une taille de bloc de 16x16. La taille du bloc est donc un paramètre important pour le système. L’étude a aussi démontré que la taille de l’image influence fortement le résultat de la détection. Une solution consisterait à mettre à l’échelle chaque entrée d’image à une taille fixe. Cependant cela influencerait les performances de la détection. Dans le cas d’un sous-échantillonnage, la taille de la région altérée est également réduite, inhibant davantage la détection. Ainsi, nous avons mené toutes les expériences, en résolution d’image complète et no-tons cependant que les images elles-mêmes ont des tailles différentes, allant de 693x241 pixels à 2583x1163 pixels. En ce qui concerne les grandes valeurs du NFP démontrées dans certains tests, on peut dire que, la cause principale est la détermination erronée des espaces vides entre les lignes de texte copiées. Cependant, les résultats présentés ne peuvent pas être généralisés à tous les paramètres expérimentaux possibles. La décision finale de savoir si un pixel est au-thentique ou forgé est influencée par une combinaison de plusieurs paramètres. Pour avoir une image complète de la performance des méthodes CMFD dans le cas d’un document numérisé images, il est nécessaire de réaliser un grand nombre de tests expérimentaux et exécuter toutes les combinaisons de valeurs de paramètres. On a comparé notre travail aux autres travaux, et on a remarqué que notre méthode présente des résultats satisfaisants. Mais notre méthode pré-sente des insuffisances. Par exemple, lorsque les images sont grandes, le temps de détection est plus long et aussi le NFP est grande pour certaines images. Le système conçu a été intégré dans une application web pour faciliter l’utilisation de la méthode et permettre au grand public de tester l’application.

Conclusion

Dans ce chapitre nous avons évalué la performance de notre système à travers la précision.

L’analyse de nos résultats et leur confrontation aux méthodes disponibles dans la littérature, nous permettent de déduire que notre méthode présente des résultats satisfaisants. Ceux-ci peuvent néanmoins être encore améliorés.

Conclusion et perspectives

Dans notre travail, nous avons mise en place un système de détection de falsification sur les documents scannés. Il est évident que ce système a son utilité dans plusieurs domaines. Ainsi, le travail présenté a permis de détecter les altérations sur les images de document. Après une étape de pré-traitement qui consiste à convertir les images en niveau de gris, à appliquer un filtre passe haut et passe bas en utilisant la transformée discrète en ondelette et à diviser la composante (LL) en bloc superposé de taille 8x8. Cette étape est suivie de celle de l’extraction de caractéristiques de l’image. Nous avons utilisé les moments invariants Hu qui ont pour rôle l’extraction de paramètres pertinents des régions de l’image tout en tenant compte des variantes telles que la rotation, la translation des pixels. Le but de cette extraction de caractéristiques est de trouver les éléments nécessaires pour trouver les similarités entre les blocs afin de détecter les possibles blocs altérés à l’aide du tri lexicographique. Nous avons obtenus des résultats satisfaisants avec un taux de 88,61%.

De cette étude, on déduit que la combinaison de la transformée discrète en ondelette (HDWT) et les moments invariants Hu peuvent être efficacement utilisés pour la détection des falsifications dans les documents scannés. Elle montre également que le système mise en place peut être efficacement utilisé pour faciliter la détection sans connaissance du document original. En guise de perspective, on peut :

P améliorer la performance de notre système en nous basant sur l’analyse des caractéris-tique à extraire pour réduire le taux des mauvaises détections ;

P associer des OCR à notre méthode. L’OCR permettra de segmenter les images suivant les caractères et donc l’extraction des caractéristiques sera faite directement sur les caractères.

Cela permettra d’améliorer la précision du système ;

P utiliser l’apprentissage automatique (en anglais machine learning) afin d’apprendre le système à partir de donnée des images pour améliorer le système. Mais le problème qui se pose à ce niveau est l’inexistence d’une base de données pour ces types d’image.

English part

Theme :

Implementation of a system for detecting fraud and

forgery in scanned documents.

Chapitre 5

English version

Introduction

Document fraud is an intentional act designed to obtain a financial advantage or an un-due service. There are several types of approaches : modifying authentic documents to distort information (by removing, adding, modifying content) or creating false documents. The phe-nomenon of fraud and falsification of documents has expanded dramatically. There are many ways that some people nowadays are working to dishonestly achieve their goals. Many ad-ministrations and companies therefore request the implementation of standard computerized

Document fraud is an intentional act designed to obtain a financial advantage or an un-due service. There are several types of approaches : modifying authentic documents to distort information (by removing, adding, modifying content) or creating false documents. The phe-nomenon of fraud and falsification of documents has expanded dramatically. There are many ways that some people nowadays are working to dishonestly achieve their goals. Many ad-ministrations and companies therefore request the implementation of standard computerized