• Aucun résultat trouvé

Mise en œuvre d’un système de détection de fraude et de falsification de documents scannés.

N/A
N/A
Protected

Academic year: 2022

Partager "Mise en œuvre d’un système de détection de fraude et de falsification de documents scannés."

Copied!
91
0
0

Texte intégral

(1)

REPUBLIQUE DU BENIN

**********

MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE

**********

UNIVERSITE D’ABOMEY-CALAVI

**********

ECOLE POLYTECHNIQUE D’ABOMEY-CALAVI (EPAC)

**********

DEPARTEMENT DE GENIE INFORMATIQUE ET TELECOMMUNICATIONS

Option: Réseaux Informatiques et Internet (RII)

MEMOIRE DE FIN DE FORMATION POUR L’OBTENTION DU DIPLÔME D’INGÉNIEUR DE CONCEPTION

Thème:

Mise en oeuvre d’un système de détection de fraude et de falsification de documents scannés.

Réalisé par :

Carmen Laureta Y. DASSI

Soutenu publiquement le vendredi 05 Avril 2019 devant le jury composé de :

Président :

Dr. Médésu SOGBOHOSSOU Enseignant à l’EPAC/UAC Membres :

Dr. Marc Kokou ASSOGBA Maître de mémoire Dr. Théophile ABALLO Enseignant à l’EPAC/UAC Dr. Max Fréjus O. SANYA Enseignant à l’EPAC/UAC

Année académique: 2017-2018

11

ième

Promotion

(2)

Sommaire

Dédicaces ii

Remerciements iii

Liste des figures v

Liste des tableaux vi

Liste des sigles et abréviations vii

Résumé ix

Abstract x

Introduction 1

1 Le traitement d’image dans la détection de faux documents 4

2 État de l’art 13

3 Materiels et méthodes 31

4 Résultats et discussions 45

Conclusion et perspectives 51

5 English version 53

Bibliographie 68

Annexes 73

(3)

Dédicaces

Tous les mots ne sauraient exprimer la gratitude, l’amour, le respect, la reconnaissance que j’éprouve. Ainsi, je dédie ce travail,

A

ma mère Geneviève VODOUNOU. Tous les mots ne suffiraient pas pour exprimer mon amour et l’affection que j’éprouve pour toi. Tu es et tu resteras une source de moti- vation pour moi. Puisse Dieu te bénir, te donner la santé et la grâce de vivre longtemps pour bénéficier et jouir des fruits de tes efforts.

A

mon père Louïs DASSI, pour sa présence, son soutien, sa rigueur et pour avoir su nous donner l’éducation qu’il faut. Tes conseils ont toujours guidé mes pas vers la réus- site. Dieu te préserve, t’accorde santé et bonheur..

A

ma sœurNadineet à mes frèresFranck,DonaldetConstantin. Puisse Dieu nous pro- téger et nous unir d’avantage.

A

tous ceux qui voient en moi un exemple à suivre dans l’espoir qu’ils feront plus que moi.

(4)

Remerciements

La concrétisation de ce mémoire a été rendue possible grâce au concours de plusieurs per- sonnes à qui je voudrais témoigner toute ma reconnaissance.

Mes sincères remerciements à tous ceux qui ont participé à l’élaboration de ce travail, particu- lièrement :

z au Docteur Léopold DJOGBE, Chef du département de Génie Informatique et Télécom- munications (GIT) de l’EPAC ;

z au Docteur Kokou Marc ASSOGBA, Maître de Conférences pour avoir accepté superviser ce travail ;

z à l’ingénieur John AOGA, pour sa rigueur, sa patience, sa disponibilité et pour avoir ac- cepté encadrer ce travail en dépit de ses multiples responsabilités ;

z aux honorables membres du jury qui ont accepté d’évaluer ce travail, malgré leurs mul- tiples occupations ;

z à tous les enseignants des cours préparatoires et du département de GIT pour la formation reçue ;

z à tous nos camarades de la 11ième promotion, à ceux du département de Génie Informa- tique et Télécommunications de l’EPAC en particulier, ceux de l’option Réseaux Informa- tiques et Internet, pour le partage et tous les moments passés ensemble ;

Aussi je tiens à exprimer toute ma gratitude :

z à Mr Odon Vallet et toute l’équipe du CAEB pour le soutient qu’ils m’ont apporté durant tout mon cursus scolaire. Puisse Dieu les bénir abondamment ;

z à Mr Odran GBEOU pour son soutien indéfectible, sa patience, pour les conseils donnés, pour les idées apportées, et pour les sacrifices qu’il a consenti durant tout le travail ; z à mon oncle VODOUNOU Stéphane et à ma tante VODOUNOU Laure pour m’avoir

permis de séjourner auprès d’eux pendant la durée de mon stage ;

z à toutes les personnes dont je n’ai pas pu citer les noms ici, mais qui de près ou de loin ont contribué à la réalisation de ce travail.

« Le plaisir le plus délicat est de faire celui d’autrui. »

(5)

Table des figures

1.1 Altération d’image par la technique de Copy-Move. . . 7

(a) Image originale [5]. . . 7

(b) Image altérée [5]. . . 7

1.2 Altération d’image par la technique de Splicing. . . 8

(a) Image originale [5]. . . 8

(b) Image originale [5]. . . 8

(c) Image altérée [5]. . . 8

1.3 Classification des types de falsification d’image. . . 8

1.4 Les grandes étapes du traitement d’images . . . 12

2.1 Schéma illustrant la méthode basée sur les blocs . . . 15

2.2 Figure montrant la zone de fausse correspondance . . . 21

(a) Trié par mode 1 . . . 21

(b) Trié par mode 2 . . . 21

2.3 Figure montrant une amélioration de la zone de fausse correspondance. . . 22

(a) Trié par mode 1 . . . 22

(b) Trié par mode 2 . . . 22

2.4 Schéma fonctionnel de la détection de l’authenticité d’un document numérisé proposée par Ramzi[28] . . . 25

2.5 Schéma montrant le cadre d’analyse pour la détection de faux par CM dans les images de texte numérisées [30] . . . 28

3.1 Schéma décrivant notre méthode . . . 34

3.2 Divison en bloc superposé de taille 3x3. (a) On a une image6x6représentée par ses pixels en niveau de gris. (b) Représente le premier bloc 3x3 obtenu après l’opération de division. (c) Représente le deuxième bloc obtenu après l’opération de division. . . 35

3.3 Processus de décomposition de HDWT à un niveaux . . . 36

3.4 Décomposition de HDWT à un niveau d’une image de document text . . . 37

(a) . . . 37

(b) . . . 37

3.5 Page d’accueil . . . 40

3.6 Page de lancement de la détection . . . 41

(6)

TABLE DES FIGURES TABLE DES FIGURES

3.7 Page de résultat . . . 42 3.8 Schéma détaillé de notre méthode . . . 44 5.1 Les parties en couleur sur le document sont celles qui ont été copiées et collées . . 74 5.2 Image soumise au système pour la détection. L’image a été falsifiée par copier-

déplacer. . . 75 5.3 Résultat après détection par le système proposé. . . 76

(7)

Liste des tableaux

3.1 Caractéristiques des images utilisées. . . 32 4.1 Evaluation de la méthode sur les différentes tailles de bloc . . . 46 4.2 Résultat de l’implémentation sur différentes images de document texte . . . 47 4.3 Tableau comparatif des performances avec certaines méthodes de l’état de l’art. . 49 5.1 Result of implementation on different text document images. . . 62 5.2 Comparative table of performances with certain methods of the state of the art. . 65

(8)

Liste des sigles et abréviations

A

AWGN : Additive White Gaussian Noise

C

CM : Copy Move

CMFD : Copy Move Forgery Detection

D

DCT : Discrete Cosine Transform DWT : Discrete Wavelet Transform DyWT : Dyadic Wavelet Transform

F

FMT : Fourier-Mellin Transform

H

HDWT : Haar Discrete Wavelet Transform

(9)

LISTE DES SIGLES ET ABRÉVIATIONS LISTE DES SIGLES ET ABRÉVIATIONS

K

KPCA : Kernel Principal Component Analysis

P

PCA : Principal Component Analysis

PCT : Principal Components Transformation PHT : Polar Harmonic Transforms

S

SIFT : Scale Invariant Feature Transform SURF : Speeded Up Robust Features SVD : Singular Value Decomposition

(10)

Résumé.

La falsification de document est un acte illégal qui peut coûter cher à celui qui l’opère. Elle devient de plus en plus récurrente surtout grâce à la prolifération et l’accès facile aux logiciels de traitement d’image même pour les utilisateurs inex- périmentés. La falsification de type copier-déplacer consiste à copier une partie de l’image pour ajouter ou supprimer des informations sur l’image. Ce type de falsi- fication est la plus facile à faire mais aussi l’une des plus difficiles à détecter par l’ordinateur. En effet étant difficile à détecter à l’œil, des algorithmes automatiques sont utilisés. Mais ces algorithmes ne sont pas aussi performants pour les docu- ments. Dans ce travail, nous présentons une approche de détection automatique des altérations par copier-déplacer sur les images de documents et la localisation des parties altérées grâce aux méthodes de traitement d’image. La méthode proposée comporte quatre étapes. La première étape qui est le pré-traitement est composée de la conversion de l’image en niveau de gris, l’application de la transformée discrète en ondelette (HDWT) et la division en blocs superposés de taille L x L. L’étape d’ex- traction des caractéristiques est effectuée à l’aide des moments invariants Hu. Une fois les caractéristiques extraites, elles sont appariées grâce au tri lexicographique afin de trouver les similarités entre les blocs. Les blocs similaires sont ensuite co- lorés pour mettre en exergue les régions ayant subi des altérations afin de faciliter l’inspection visuelle. Une interface web est mise en place pour permettre à tout le monde de vérifier un document sans pour autant avoir des compétences de pro- grammation. Le système proposé a pu effectuer la détection des falsifications sur les documents texte scannés en images avec une précision de 88,61%.

Mots clés: falsification de document, copier-déplacer, moments invariants moments inva- riants Hu, HDWT, tri lexicographique.

(11)

Abstract.

Document forgery is an illegal act that can be costly for the person who performs it. It is becoming more and more recurrent, especially thanks to the proliferation and easy access to image processing software, even for inexperienced users. Copy- moving falsification is the copying of a part of the image to add or remove informa- tion about the image. In this work, we present an approach for automatic detection of alterations by copy-moving on document images and locating altered parts using image processing methods. The proposed method consists of four steps. The first step, which is pre-processing, consists of converting the image to grayscale, apply- ing the discrete wavelet transform (HDWT) and overlap block division of size L x L.

The characteristic extraction step performed using the Hu invariant moments. Once the characteristics have been extracted, they are matched using lexicographic sorting to find similarities between the blocks. Similar blocks are then colored to highlight areas that have been altered to facilitate visual inspection. A web interface is set up to allow everyone to check their document without having any programming skills.

The proposed system was able to detect forgeries on scanned image text documents with an accuracy of 88,61%.

Keys words: document forgery, copy-moving, Hu invariant moments, HDWT, lexico- graphical sorting.

(12)

Introduction

Avec l’essor des systèmes d’information et de communication, la numérisation des docu- ments est fondamentale dans tous les processus. Cependant, l’accès à des outils de retouche d’image même pour les utilisateurs inexpérimentés facilite leur falsification. La population re- présentée en majorité par les jeunes rêve tous d’un avenir meilleur. Pour réaliser leurs rêves certains d’entre eux préfèrent recourir à la recherche du gain facile. Ainsi, pour postuler à des postes de responsabilité ou à des opportunités d’affaires, certains présentent des faux diplômes ou documents administratifs pour élargir leur chance afin de sortir gagnant. Par exemple, les clients peuvent présenter de faux documents aux banques afin d’obtenir un prêt. Ils peuvent aussi présenter des documents altérés aux compagnies d’assurance afin d’obtenir le montant d’assurance. D’autres peuvent aussi modifier leurs diplômes ou bulletins pour remplir les conditions afin de postuler à des postes de responsabilité ou pour participer aux concours or- ganiser par leurs gouvernements. Plusieurs approches peuvent être utilisées pour falsifier un document. Par exemple, les documents peuvent être copiés à l’aide de photocopieurs, refaits à l’aide d’un logiciel de traitement de texte, modifiés numériquement et finalement imprimés.

Par conséquent, la mise en place de système numérique standardisé pour la fraude et la falsifi- cation des documents devient un enjeu de taille pour les entreprises et les gouvernements afin de garantir la légalité et la conformité des documents avec les originaux. Pour être aussi effi- cace que possible, ce système doit combiner plusieurs méthodes d’analyses complémentaires, qui permettent ensemble une appréciation optimale de l’authenticité des éléments.

Problématique

Les documents peu importe leur différents rôles sont sujets de falsifications pour des fins diverses. La détection à l’œil nu des modifications effectuées sur les documents étant très dif- ficile et fastidieuse, on fait donc recours à des systèmes de détection automatique. Cependant, il existe beaucoup de système adapté aux images mais pas aux documents et de plus, les sys- tèmes les plus performants sont couteux et difficiles d’accès. Aussi l’indisponibilité du docu- ment original ne permet pas l’utilisation des approches de comparaison. Il est donc important d’apporter une solution à ce problème pour s’assurer de l’authenticité des documents afin de

(13)

INTRODUCTION INTRODUCTION

limiter les dégâts que causeront leurs utilisations.

Objectifs

L’objectif principal de ce travail est de mettre en place un système capable de détecter les falsifications sur un document scanné en absence de l’original.

Méthodologie

Pour atteindre l’objectif visé par notre travail, on procèdera de la manière suivante :

• étudier les méthodes de détection automatique de falsification sur les images ;

• collecter des données de documents falsifiés ;

• étudier les outils et langage de programmations nécessaires pour mettre en œuvre le sys- tème ;

• étudier les caractéristiques à extraire du document pour la détection ;

• mettre en place le système de détection de la falsification en se basant sur les caractéris- tiques extraites ;

Résultat attendu

A la fin de ce travail, on voudrait avoir un système de détection de falsification sur les documents et ensuite concevoir une interface web pour faciliter l’utilisation du système.

Limites de notre travail

Notre système connaît certaines limites. Il s’agit entre autres de la prise en compte des do- cuments sous forme d’image au format JPEG et PNG. Une autre limite est que l’ensemble des données constitué d’images de documents falsifiés a été créé spécialement pour notre travail à cause du manque de données pouvant nous servir. Notons aussi que le temps que prend le système pour la détection dépend de la taille de l’image et aussi une inspection visuelle est requise pour remarquer les zones forgées.

Organisation du document

Ce présent document fait le point de nos travaux et est organisé comme suit :

• dans le premier chapitre nous présentons, les connaissances générales relatives à la fraude et falsification sur les documents et au traitement d’image ;

(14)

INTRODUCTION INTRODUCTION

• dans le deuxième chapitre, nous présentons l’état de l’art des techniques utilisées dans la détection de falsification sur les images digitales, ce qui nous permet de faire des choix pour notre approche ;

• dans le troisième chapitre, nous présentons la méthodologie que nous utilisons pour mettre en œuvre notre approche de solution à la problématique de notre sujet, ensuite nous présentons ladite approche ;

• le quatrième et dernier chapitre de ce document fait une analyse critique des résultats issus de nos tests. En dernière analyse, nous faisons le point de nos travaux et proposons des perspectives dans la conclusion de notre travail.

(15)

Chapitre 1

Le traitement d’image dans la détection de faux documents

Introduction

La fraude documentaire constitue une infraction et l’un des problèmes qui portent atteinte à la vie sociale et économique. Elle est difficile à cerner car elle généralement réalisé en support d’une autre infraction. La compréhension de ce phénomène qui se répand sur toutes les couches de la société est donc nécessaire pour lutter contre les fraudeurs et décourager cet acte immoral.

Dans les lignes qui suivent, nous expliquons ce qu’est la fraude et la falsification de document, les différents types et méthodes de détection.

1.1 La fraude documentaire

1.1.1 Définition

La fraude documentaire porte sur la falsification et la contrefaçon d’un document. C’est une infraction qui consiste à commettre un faux dans un document délivré par une administration publique ou privée dans le but de donner un droit, d’établir l’identité, de constater une qualité ou d’accorder une autorisation.

1.1.2 Les différents types de fraude documentaire

Il existe cinq (05) types de fraudes documentaires à savoir : la contrefaçon, la falsification, l’usurpation d’identité, les documents volés vierges les documents fantaisistes.

La contrefaçonest une reproduction complète d’un document d’identité. Elle est difficile à réaliser et se détecte facilement même à l’œil nu à cause de leur mauvaise reproduction.

(16)

Chapitre 1. Le traitement d’image dans la détection de faux documents 1.2. La falsification de document

La falsificationconsiste à modifier un document original. Cette modification peut porter sur la date de validité, sur les mentions d’identités ou sur la photographie. Il faut analyser le document en détail pour remarquer le changement qu’a subit ce dernier.

L’usurpation d’identitéest identifiée lorsqu’une personne utilise le document d’identité d’une autre. Dans ce cas de figure, le document est authentique mais la personne qui le détient n’est pas propriétaire dudit document. Il faut donc comparer la photo sur le document d’identité avec la personne que vous avez en face de vous.

Les documents volés vierges sont des documents qui ont été volés et complété par des faussaires avant leur personnalisation. On peut donc les qualifiées de documents falsifiés.

Les documents fantaisistessont des documents créés de toute pièce par le faussaire à la différence de la contrefaçon qui est une copie de l’original.

Notons que seule la falsification peut être détectée automatiquement et donc notre travail ne s’intéressera qu’à ce type de fraude.

1.2 La falsification de document

1.2.1 Définition

La falsification de document quant à elle est un acte intentionnel qui tend à rendre un docu- ment illicite en inscrivant de fausses données dans le but de commettre une fraude, de tromper, d’embarrasser, de discréditer ou de faire chanter des personnes.

La falsification est un faux partiel qui ne porte que sur des détails, par additions, soustractions, substitutions ou tous autres procédés frauduleux sur un document authentique, pour en altérer ou en modifier la vérité. Falsification de passeport, de pièces d’identité, de diplôme, de bulle- tin de note ou de paie, de certificat, de contrat de travail, d’autographes, de photos sont des exemples.

La falsification est faite minutieusement qu’il est difficile de détecter la région modifiée à partir de l’original. Il existe deux types de technique d’analyse d’image que sont :l’approche active etl’approche passive.

Dansl’approche active, les images numériques subissent un pré-traitement pendant lequel des filigranes sont incorporés ou des signatures numériques sont générées lors de la création de l’image. Mais il existe aujourd’hui beaucoup d’images qui ne contiennent ni filigrane, ni si- gnature numérique ce qui limite l’utilisation de cette approche pour vérifier l’authenticité de l’image.

les signatures numériques

La signature numérique constitue la forme de signature électronique la plus avancée et

(17)

Chapitre 1. Le traitement d’image dans la détection de faux documents 1.2. La falsification de document

sécurisée. C’est un mécanisme permettant de garantir l’intégrité d’un document électro- nique et d’en authentifier l’auteur, par analogie avec la signature manuscrite d’un docu- ment papier. Elle se différencie de la signature écrite par le fait qu’elle n’est pas visuelle, mais correspond à une suite de caractères. Une signature numérique doit respecter cer- taines conditions qui sont toutes obligatoires pour sa validation. La signature doit être :

– authentique : l’identité du signataire doit pouvoir être retrouvée de manière cer- taine ;

– infalsifiable: la signature ne peut pas être falsifiée. Quelqu’un ne peut se faire passer pour un autre ;

– non réutilisable : la signature n’est pas réutilisable. Elle fait partie du document signé et ne peut être déplacée sur un autre document ;

– inaltérable : un document signé est inaltérable. Une fois qu’il est signé, on ne peut plus le modifier ;

– irrévocable: la personne qui a signé ne peut le nier.

filigrane numérique

Le filigrane numérique est une technique permettant d’ajouter des informations de copy- right ou d’autres messages de vérification à un fichier ou signal audio, vidéo, une image ou un autre document numérique. Le message inclus dans le signal hôte, généralement appelé marque ou bien simplement message, est un ensemble de bits, dont le contenu dépend de l’application. La marque peut être le nom ou un identifiant du créateur, du propriétaire, de l’acheteur ou encore une forme de signature décrivant le signal hôte. Le nom de cette technique provient du marquage des documents papier et des billets[1].

Dans l’approche passive, l’authentification de l’image ne nécessite pas une connaissance des informations au préalable mais de l’image elle-même. La détection de la falsification dans ce cas se base sur les caractéristiques et les incohérences de l’image. Les algorithmes sont donc utilisés pour traiter l’image afin de localiser les zones altérées. Cette approche permet donc de classifier l’image en deux catégories : soit l’image est originale ou soit l’image est falsifiée.

1.2.2 Les différents types de falsification

Plusieurs méthodes sont utilisées pour altérer les images. Il s’agit entre autre du retouche d’image, de la falsification par copier-déplacer et du photomontage.

1.2.2.1 Le retouche d’image

Il est considéré comme le type de falsification le moins nuisible d’image numérique. Il ne change pas les informations ou le contenu de l’image, mais réduit ou améliore certaines carac- téristiques de l’image comme la couleur, les zones d’arrière-plan.

(18)

Chapitre 1. Le traitement d’image dans la détection de faux documents 1.2. La falsification de document

1.2.2.2 Le Copy-Move ( en français : Copier-Déplacer)

C’est la technique de modification la plus utilisée et la plus répandue. Il est difficile à détec- ter à l’œil nu et consiste à couvrir une région ou une partie importante de la scène dans l’image en ajoutant ou en supprimant des informations. L’objectif de cette technique est de cacher une scène ou une information dans l’image originale avec une autre partie de la même image. Ainsi, le faussaire copie une partie de l’image en la superposant à une partie de la même image. La dé- tection de ce type de falsification consiste donc à déterminer les zone identiques ou similaires.

(a) Image originale [5]. (b) Image altérée [5].

FIGURE1.1 – Altération d’image par la technique de Copy-Move.

1.2.2.3 Image Splicing ( en français : photomontage)

C’est une technique qui consiste à copier des informations ou des scènes sur une ou plu- sieurs autres images et à les coller sur une image originale pour créer l’image forgée. Grâce aux outils numériques de traitement d’image disponibles, cette technique est plus simple à réaliser même pour des utilisateurs inexpérimentés.

(19)

Chapitre 1. Le traitement d’image dans la détection de faux documents 1.2. La falsification de document

(a) Image originale [5]. (b) Image originale [5]. (c) Image altérée [5].

FIGURE1.2 – Altération d’image par la technique de Splicing.

La figure ci-dessous résume les types de falsification et leur classification.

FIGURE1.3 – Classification des types de falsification d’image.

1.2.3 Les types de falsification sur document scanné

Falsifier un document c’est le rendre illicite en inscrivant de fausses données. Ainsi, on peut retenir que de tous les types de falsification évoqués ci dessus, le copy-move et le splicing sont les techniques qui sont favorables pour notre étude dans le cas des documents numériques. Ces deux techniques peuvent changer le contenu informationnel du document alors que la retouche agit sur l’aspect visuel du document.

(20)

Chapitre 1. Le traitement d’image dans la détection de faux documents 1.3. Traitement d’image

1.3 Traitement d’image

1.3.1 Généralité

Le traitement d’image est un domaine vaste qui a connu et qui connait encore un dévelop- pement fulgurant depuis des années.

Le traitement d’image se définit comme une discipline qui associe l’informatique et les ma- thématiques appliquées et qui étudie les images numériques et leur transformations dans le but d’améliorer leur qualité ou d’en extrait de l’information [2]. C’est aussi l’ensemble des mé- thodes et techniques permettant d’opérer des modifications sur une image. Parmi ces modifi- cations on peut citer la création d’effets spéciaux au cinéma, l’amélioration de la qualité des photos en corrigeant les conditions de prise de vue, la détection de lettres ou de visages, l’iden- tification de zones cancéreuses en imagerie médicale, etc.

Le traitement d’image joue un rôle de plus en plus important dans de nombreux aspect de notre vie quotidienne et il intervient dans plusieurs domaines tels que :

• l’informatique ;

• l’imagerie médicale (aide au diagnostic, tomographie, suivi automatique, reconstruction 3D) ;

• traitement des documents manuscrits ou scannés ;

• la reconnaissance ( : identification de visages, reconnaissance d’empreintes digitales) ;

• la vision par ordinateur ;

• la photographie ;

• la télévision ;

• la robotique (reconnaissance/assemblage de pièces, véhicules autonomes) ;

• la télédétection (météo, cartographie, astronomie) ;

• inspection industrielle.

Il constitue également un domaine de recherche essentiel dans les disciplines de l’ingénierie et de l’informatique.

On distingue deux types de traitement d’image à savoir :

Le traitement basé sur les images analogiques qui est effectué sur des signaux analogiques

(21)

Chapitre 1. Le traitement d’image dans la détection de faux documents 1.3. Traitement d’image

bidimensionnels. Dans ce type de traitement, les images sont manipulées par des moyens élec- triques en faisant varier le signal électrique. L’exemple le plus courant est l’image de télévision dans les temps anciens par le biais des systèmes d’antenne parabolique.

Le traitement des images numériques a dominé le traitement des images analogiques avec le temps, en raison de la diversité de ses applications.

Le traitement basé sur les images numériques qui traite de la manipulation d’images nu- mériques à l’aide d’un ordinateur numérique. Le traitement d’image numérique se concentre sur le développement d’un système informatique capable de traiter une image. L’entrée de ce système est une image numérique et le système traite cette image en utilisant des algorithmes puissants et efficaces et donne en sortie une image ou des informations ou des caractéristiques de cette image.

Dans notre contexte, nous utiliserons la méthode de traitement numérique d’image car les images à traiter sont numériques.

1.3.2 Traitement numérique d’image

De manière générale, l’image est difficile à décrire. Une image est une représentation vi- suelle voir mentale de quelque chose (un objet, un être vivant et/ou un concept)[3]. En traite- ment d’image, l’imageest définie comme une fonction mathématique de type RxR dans R à valeurs discrètes et finies où le couplet d’entrée est considéré comme une position spatiale et le singleton de sortie comme l’intensité (couleur ou niveaux de gris).

L’image numériqueest donc l’imageacquise1,créée2,traitée3 etstockée4.

1.3.2.1 Les différents types d’images

Il existe différentes catégories d’images classées selon le nombre de bits sur lequel est codée la valeur de chaque pixel.

Image noir et blanc

Le mode le plus simple, chaque pixel y est soit allumé [Blanc] soit éteint [Noir], l’image obtenue n’est pas très nuancée. Alors, pour convertir une image couleur en mode noir et blanc il faut d’abord passer par le mode niveaux de gris.

1acquise par des convertisseurs analogique-numérique situés dans des dispositifs comme les scanners, les ap- pareils photo...

2créée directement par des programmes informatiques

3traitée grâce à des outils graphique de traitement d’image, de manière à transformer, à modifier la taille, les couleurs, d’ajouter ou de supprimer des éléments...

4stockée sur un support numérique

(22)

Chapitre 1. Le traitement d’image dans la détection de faux documents 1.3. Traitement d’image

L’image en niveaux de gris

Le niveau de gris est la valeur de l’intensité lumineuse en un point. La couleur de pixel prend des valeurs allant de noir au blanc en passent par un nombre fini de niveaux intermédiaires.

Les valeurs peuvent être comprises entre 0 et 255.

Images en couleurs

Encore appelée image RGB, c’est une image basée sur une synthèse additive des couleurs.

Elle peut-être codée elle sur 4 bits (image en 16 couleurs), 8 bits (image en 256 couleurs) ou davantage : 24 bits pour une image en 16 millions de couleurs (16777216= 224). On obtient ainsi 256 x 256 x 256 = 16777216 (plus de 16 millions de couleurs différentes).

1.3.2.2 Formats d’image

Il existe deux grands types de format d’image à savoir les images matricielles et les images vectorielles.

Les images matricielles (ou image en point, en anglais bitmap) sont des images constituées d’un ensemble de pixel. Chaque pixel porte des informations sur la position et la couleur. Pour ce type d’image on peut citer les images numériques, les images scannées. Notons que lors- qu’on agrandit trop ces genres d’images, elles perdent de leur qualité.

Les images vectorielles sont les images dont chacune de ses composantes sont représentées sous forme mathématique. Elles ne peuvent pas être utilisées pour la photographie, mais per- met de représenter des formes plus simples et donc adaptées au rendu typographiques, aux logos et autres formes composées de tracés simples. L’avantage des images vectorielles est que les fichiers qui les composent sont très petits de telles sortes que leurs redimensionnements n’affectent pas la qualité de l’image.

1.3.3 Les étapes du traitement d’image

En général, le traitement d’image est une chaine séquentielle d’étapes. Ces étapes sont dé- crites dans les lignes qui suivent.

étape d’acquisition d’image: c’est la transformation que subit une image et qui permet de le rendre lisible et manipulable par un système informatique. Cette transformation c’est à dire, le passage de cet objet externe (l’image d’origine) à sa représentation interne (dans l’unité de traitement) se fait grâce à une procédure de numérisation à travers des dispositifs comme les caméras numériques, et les scanners ;

étape de pré-traitement : elle consiste à l’amélioration de la qualité de l’image acquise, tout en éliminant le bruit ou en rehaussant le contraste de l’image ;

(23)

Chapitre 1. Le traitement d’image dans la détection de faux documents 1.3. Traitement d’image

étape de segmentation : c’est un processus important dans le traitement d’image. Elle permet de partitionner l’image en parties significatives ayant des caractéristiques et des propriétés similaires comme l’intensité, la couleur, la texture...pour une analyse plus ap- profondie.

étape d’interprétation: elle consiste à passer de la description structurelle à la description sémantique de l’image en identifiant les différents objets qui la constituent (mesure de paramètres sur des formes, description du contenu de la scène en termes de concepts non mathématiques).

Ces différentes étapes décrites ci-dessus peut-être illustrées à travers le schéma suivant.

FIGURE1.4 – Les grandes étapes du traitement d’images

(24)

Chapitre 2

État de l’art

Introduction

Les images numériques sont les principales sources de partage d’informations dans la vie moderne. Mais avec les progrès de la technologie, la crédibilité des images devient une préoc- cupation majeure. Les logiciels de traitement d’image existants proposent des fonctionnalités qui permettent aux utilisateurs de modifier des informations contenues dans ces images. Ap- prendre à détecter de telles manipulations reste toutefois un problème épineux en raison du manque de données manipulées. Nous abordons dans ce chapitre les techniques existantes et qui sont utilisées pour la détection des différents types de falsification.

2.1 Détection de falsification par CM

En nous référant à la littérature existante, la détection de la falsification par CM passe en général par les étapes suivantes

• extraction des caractéristiques

• correspondance des caractéristiques

• filtrage

• post-traitement

Nous abordons dans cette section, les approches que nous révèle la littérature et qui sont utili- sées pour la détection de ce type d’altération.

2.1.1 Extraction des caractéristiques

Bon nombre de travaux ont été effectués sur le développement d’algorithme pour la détec- tion de la falsification par CM. La plupart d’entre eux suit un canevas commun mais diffère

(25)

Chapitre 2. État de l’art 2.1. Détection de falsification par CM

généralement au niveau de l’étape d’extraction des caractéristiques. Il existe deux alternatives pour cette étape : soit on utilise la méthode basée sur la détection des points clés ou celle basée sur les blocs.

Les techniques d’extraction de caractéristiques identifient des propriétés significatives de l’image qui agiront en tant que représentant de l’image entière. Ces caractéristiques permettent généralement de mieux rendre compte de certaines propriétés visuelles de l’image. Elles peuvent être utilisées pour des traitements ultérieurs tels que la classification d’images.

2.1.1.1 Méthode basée sur la détection des points clés

Les points clés sont des localisations spatiales ou des points dans l’image qui définissent ce qui est intéressant ou ce qui se démarque dans l’image. La particularité des points clés est que peu importe le sens d’orientation de l’image c’est à dire si l’image est pivotée ou agrandie ou a subi une distorsion, on retrouve également ces mêmes points dans l’image modifiée. Les algorithmes de détection des points clés se focalisent donc sur la recherche de ces points. Après la détection, on applique un algorithme d’extraction de caractéristique à l’image pour calculer sur chaque partie détectée un vecteur de caractéristique. Sous un point de vue particulier, ce vecteur contient en quelque sorte le résumé du contenu de la partie détectée. Certain algorithme comprend à la fois la phase de détection et la phase d’extraction. Parmi ces algorithmes on peut citer SIFT et SURF??.

Plusieurs travaux ont été menés dans ce sens dont en voici quelques-uns :

• La méthode proposée parHuang et al[5]. Cette méthode de détection de la falsification se réalise par transfert de copie en tirant parti de la corrélation entre la région de l’image d’origine et la région collée. Il a été introduit l’algorithme SIFT (Scale Invariant Feature Transform) pour une détection précise et pour rendre la technique robuste face au post- traitement. Il a été d’abord calculé les points-clés SIFT. Il a été ensuite apparié les points clés entre eux pour rechercher une éventuelle falsification des images. Si des points SIFT identiques sont trouvés, l’image est falsifiée par CM. Le processus de correspondance a été effectué pour chaque point clé en identifiant son plus proche voisin.

• La méthode proposée par Xunyu et al[6]. Cette méthode consiste à détecter une région dupliquée dans une image. Ils utilisent la transformation entre des points-clés SIFT qui est insensible aux distorsions géométriques et d’éclairage, puis recherchent tous les pixels dans les régions dupliquées.

• Bo et al[7] ont mené une étude sur la détection de contrefaçon par CM à l’aide de l’algo- rithme SURF. Cela implique la détection et la description de points-clés. Ils ont utilisé la matrice de Hessian pour détecter les points clés et les ondelettes de Haar pour attribuer l’orientation. Ils ont estimé l’orientation dominante et décrit l’orientation du descripteur de points clés. En extrayant des régions carrées autour de ces points clés, ils ont construit

(26)

Chapitre 2. État de l’art 2.1. Détection de falsification par CM

des descripteurs SURF alignés sur l’orientation dominante. En pondérant les réponses avec les ondelettes de Haar, ils ont augmenté la robustesse face aux erreurs de localisa- tion et aux déformations géométriques. Les descripteurs SURF sont ensuite utilisés pour l’appariement et ils ont utilisé un seuil pour augmenter la robustesse et éviter les fausses détections. Leur méthode réussit à localiser les régions altérées même lorsque le post- traitement est effectué sur les images. Cependant, ils ne pouvaient pas trouver les limites exactes de la région altérée.

• Une étude de Zheng et al[8] révèle une nouvelle méthode d’appariement des points clés basée sur la relation de position des points clés. Les points clés dans la région falsifiée et dans la région d’origine doivent être cohérents et répartis uniformément sur toute l’image.

Cela garantit que les grandes textures similaires, produisent également un nombre consi- dérable de points-clés. Leur algorithme diffère de SIFT dans la façon de déterminer les caractéristiques. L’algorithme trouve une paire de points clés cohérents et les marque comme points clés candidats uniquement lorsqu’ils satisfont à certaines conditions. Ils ont également défini une valeur de seuil pour réduire le nombre de fausses détections.

Cependant, l’algorithme ne permet pas de détecter les altérations impliquant un post- traitement tel que la rotation et la mise à l’échelle.

2.1.1.2 Méthode basée sur les blocs

Cette méthode est basée sur le fait qu’il existe une relation entre la région de l’image origi- nale copiée et la région collée. Pour l’extraction de caractéristiques, la méthode basée sur des blocs subdivise l’image en de régions rectangulaires. Pour chacune de ces régions, un vecteur de caractéristiques est calculé. Les vecteurs caractéristiques similaires sont ensuite appariés.

Les méthodes basées sur les blocs peuvent être regroupées en quatre catégories : les caractéris- tiques basées sur le moment, sur la réduction de dimension, sur l’intensité et sur le domaine fréquentiel.

En général, les méthodes basées sur les blocs suivent un même canevas. La figure ci-dessous illustre les étapes de cette méthode :

FIGURE2.1 – Schéma illustrant la méthode basée sur les blocs

Voici quelques travaux effectués pour l’extraction de caractéristiques par la méthode de bloc.

(27)

Chapitre 2. État de l’art 2.1. Détection de falsification par CM

Caractéristiques basées sur les moments

La méthode proposée par Mahdian et Saic[9] qui utilise les moments invariants de flou pour représenter des régions d’image car ils ne pouvaient pas être affectés par la dégradation du flou et du bruit additif. Leur méthode commence par la division des images par blocs d’une taille particulière. Chaque bloc est représenté avec des invariants de flou. Le vecteur de caractéristiques de chaque bloc est de longueur 72.

Celles-ci sont normalisées afin d’améliorer les capacités de détection de duplication de l’algorithme. Ils ont appliqué la transformation en composantes principales (PCT) pour réduire la dimension du vecteur de caractéristiques. L’algorithme k-d tree est ensuite utilisé pour l’analyse de similarité des blocs.

La méthode proposée par Ryu et al[10] qui permet de faire une détection à l’aide de moments Zernike. Puisque la magnitude des moments de Zernike est algébri- quement invariante par rapport à la rotation, la méthode proposée peut détecter une région forgée même si elle a subit une rotation. Le système résiste également aux dis- torsions intentionnelles telles que le bruit gaussien, le blanc additif, la compression JPEG et le flou.

Caractéristiques basées sur la réduction de la dimensionnalité

La méthode proposée parPopescu et Farid[11] qui utilise PCA (Analyse en Compo- sante Principale). Leur méthode est similaire à l’approche DCT et permet de mieux saisir les caractéristiques discriminantes. La méthode PCA est utilisée pour repré- senter les différents blocs de manière alternative. PCA est capable de détecter des variations même mineures dues au bruit ou à une compression avec pertes. Leur mé- thode ne concerne que les images en niveaux de gris. Cependant, la méthode peut également fonctionner pour les images couleur en traitant l’image pour chaque ca- nal de couleur, ce qui donne trois cartes de duplication. Ensuite, PCA est appliquée à chaque carte séparément pour détecter les contrefaçons. Leur méthode est très ef- ficace pour détecter les contrefaçons par copie-transfert et génère également moins de faux positifs. Cependant, l’efficacité diminue lorsque la taille du bloc diminue et également si la qualité de l’image est faible.

La méthode proposée par Ting et Rang-ding[12] qui utilise la décomposition en va- leurs singulières (SVD). L’algorithme développé est moins complexe du point de vue informatique et résiste aux techniques de post-traitement. Ils ont utilisé la corrélation entre les régions copiées et collées et recherché des régions identiques. Dans un pre- mier temps, ils ont divisé l’image en plusieurs petits blocs superposés. Ensuite, ils ont appliqué SVD à chaque bloc et extrait des vecteurs uniques de valeurs singulières pour chaque bloc. À l’aide de ces vecteurs, ils ont trouvé les blocs correspondants en

(28)

Chapitre 2. État de l’art 2.1. Détection de falsification par CM

transformant chaque caractéristique du bloc en un arbre k-d. Ils ont utilisé une va- leur de seuil pour augmenter la robustesse. Leur algorithme a détecté avec succès la falsification, même lorsque le post-traitement est effectué sur les images. Cependant, il ne parvient pas à détecter que sur deux blocs correspondants, quel bloc est copié et quel bloc est collé.

La méthode proposée parBashar et al[13]. Dans cette méthode, ils proposent une ap- proche de détection de duplication pouvant adopter deux fonctionnalités robustes basées sur la transformation en ondelettes discrète (DWT) et analyse des composants principaux du noyau (KPCA). Ils ont utilisé ces méthodes en raison de leur fonc- tionnalité de correspondance de blocs robuste. Ils ont divisé l’image en plusieurs blocs de petite taille. Ils ont calculé des vecteurs basés sur KPCA et des vecteurs DWT pour chaque bloc. Ces vecteurs sont ensuite disposés dans une matrice pour le tri lexicographique. Les blocs triés sont utilisés pour trouver les points similaires et on calcule leurs fréquences de décalage. Pour éviter les fausses détections, ils ont placé une valeur seuil pour la fréquence de décalage. Ils ont développé un nouvel algorithme pour détecter les types de contrefaçon par rotation à l’aide d’une tech- nique d’étiquetage et d’une transformation géométrique. Cet algorithme a montré des améliorations prometteuses par rapport à l’approche PCA conventionnelle. Il détecte également les faux qui ont un bruit additif et une conversation JPEG avec perte.

La méthode proposée par Zimba et Xingming[14]. Ici on propose une nouvelle mé- thode de détection des contrefaçons par copie-déplacement. Après la conversion de l’image couleur en une image en niveaux de gris, ils ont appliqué DWT à l’image entière. Cela donne quatre sous-bandes, à partir desquelles la sous-bande basse fré- quence qui contient plus d’information suffit pour effectuer le processus de détec- tion. Après division de l’image en plusieurs blocs qui se chevauchent, on applique l’analyse en composantes principales avec la décomposition en valeurs propres (PCA- EVD) sur les blocs. Ils ont placé ces vecteurs de caractéristiques dans la matrice et fait un tri lexicographique sur les entrées. Cette méthode de tri rend la correspondance moins complexe. Ils ont calculé le vecteur de décalage normalisé, puis la fréquence de décalage. Cette fréquence de décalage est soumise à un traitement morphologique pour donner des résultats finaux. Ils ont rendu cette méthode plus efficace que la mé- thode PCA conventionnelle en réduisant la taille de l’image au début du processus.

Leur algorithme peut détecter les duplications impliquant une rotation à des degrés divers. Ils comprenaient des opérations morphologiques pour éviter les fausses dé- tections. Le seul inconvénient est que la région dupliquée doit être supérieure à la taille du bloc, sinon elle ne peut pas être détectée. En outre, leur méthode ne détecte pas les contrefaçons impliquant une mise à l’échelle, une rotation et une compression importante.

(29)

Chapitre 2. État de l’art 2.1. Détection de falsification par CM

Caractéristiques basées sur l’intensité

L’étude proposée parLuo et al[15]. Dans cette méthode, ils divisent l’image en plu- sieurs blocs qui se chevauchent. Ensuite, les blocs sont répartis en deux parties égales et quatre directions. Un vecteur de caractéristiques de bloc est calculé pour tous les blocs à l’aide de l’opération AWGN (Additive White Gaussian Noise) et un tri lexico- graphique est fait. Etant donné que chaque paire de vecteurs de caractéristiques de bloc similaires ne représente pas nécessairement une région dupliquée de l’image, une méthode est développée pour déterminer quelles paires représentent réellement la région dupliquée. Pour ce fait, ils ont utilisé la méthode du vecteur de décalage en définissant une valeur particulière de vecteur de décalage et deux blocs sont considé- rés comme égaux lorsque le vecteur de décalage de cette paire le dépasse. Le vecteur de décalage le plus élevé est trouvé et les paires sont écartées, leurs vecteurs de dé- calage étant très différents de cette valeur. Ensuite, ils ont utilisé une méthode pour s’assurer que la falsification est réellement faite ou non. Leur algorithme a une com- plexité informatique inférieure et est robuste pour les opérations de post-traitement.

Il ne tient bien que lorsque les régions forgées sont plus grandes que la taille du bloc. Cependant, l’algorithme échoue lorsque les images sont fortement déformées et comportent de grandes régions lisses.

La méthode proposée par Bravo-Solorio et Nandi[16]. Ils ont mené une étude sur la technique de détection impliquant la réflexion, la rotation et la mise à l’échelle. Ils ont divisé l’image sous forme de bloc de pixels et calculé des vecteurs de caracté- ristiques dépendant de la couleur. De ce fait, ils ont réduit le nombre de recherches, augmentant ainsi l’efficacité. Ils ont calculé quatre caractéristiques parmi lesquelles trois sont calculées indépendamment en tant que composantes rouge, verte et bleue.

La quatrième caractéristique est calculée comme l’entropie du canal de luminance.

Ils ont utilisé cette quatrième fonctionnalité pour éliminer les blocs contenant des in- formations de textures insuffisantes. Ces fonctionnalités sont répertoriées après un tri lexicographique, puis la correspondance est effectuée. Ils ont utilisé des descrip- teurs unidimensionnels pour réduire l’utilisation de la mémoire. Ces descripteurs unidimensionnels sont invariants à la rotation et à la réflexion. Cette méthode est plus efficace que beaucoup d’autres méthodes en termes de calcul et de détection de régions altérées avec post-traitement.

La méthode proposée par Lin et al[17]. Dans cette méthode, ils ont divisé l’image en plusieurs blocs de taille égale qui ont ensuite été divisés en quatre blocs. Ils ont calculé l’intensité moyenne d’un seul bloc en utilisant l’intensité des quatre sous- blocs. L’intensité relative est ensuite calculée en recherchant la différence entre les intensités individuelles et l’intensité moyenne. Ils l’ont fait pour tous les blocs et ont obtenu des vecteurs de caractéristiques. Ces vecteurs de caractéristiques sont des

(30)

Chapitre 2. État de l’art 2.1. Détection de falsification par CM

entiers ; ils ont donc utilisé la méthode de tri radix au lieu du tri lexicographique. Ils ont enregistré le coin en haut à gauche de chaque bloc et l’ont utilisé pour calculer un vecteur de décalage en trouvant la différence entre les vecteurs de caractéristiques adjacents. Ce vecteur de décalage est par nature cumulatif pour les régions qui ont été falsifiées et la détection de falsification est basée sur cette valeur. Leur méthode est efficace et capable de détecter même la compression JPEG et le bruit gaussien.

Cependant, leur algorithme échoue lorsque la région altérée est tournée à certains angles arbitraires.

Caractéristiques basées sur la fréquence

Une étude deZhang et al[18] décrit un algorithme efficace et robuste basé sur le DWT et la mise en correspondance de pixels. Leur algorithme peut détecter les régions du- pliquées dans une image en niveaux de gris. Premièrement, ils ont calculé le DWT pour l’ensemble de l’image afin d’obtenir une sous-bande. Ensuite, ils ont calculé le décalage spatial entre la région copiée et la région collée. L’image est décalée avec cette valeur de décalage et est superposée à l’image donnée. La région copiée de l’image donnée et la région collée de l’image décalée partagent la même région spa- tiale. Par conséquent, les pixels seront identiques si une falsification par CM est ef- fectuée sur l’image. Leur méthode est efficace et robuste pour diverses techniques de falsification par copie.

Bayram et al[19] ont mené une étude à l’aide de la transformée de Fourier-Mellin (FMT). Ils ont choisi FMT car il résiste aux effets de post-traitement.Ils ont divisé l’image en plusieurs blocs de petite taille et ont calculé la transformation de Fourier de chaque bloc. Ils ont ré-échantillonné, projeté et quantifié la transformation obtenu pour obtenir des vecteurs de caractéristiques. La rotation de ces vecteurs de carac- téristiques est invariante pour les petits angles de rotation. Les vecteurs de caracté- ristiques similaires sont trouvés en utilisant le tri lexicographique. Même une image naturelle peut avoir plusieurs blocs similaires. Par conséquent, ils ont authentifié la falsification uniquement lorsqu’il y a un certain nombre de blocs connectés à une même distance. Cela réduit les faux positifs, ce qui rend la technique plus efficace.

Leur méthode permettait de détecter les contrefaçons impliquant des blocs avec des rotations allant jusqu’à 10 degrés et une mise à l’échelle de 10. Leur algorithme est également robuste à la compression JPEG.

La méthode proposée parMuhammad et al[20] qui utilise la transformation dyadique en ondelettes (DyWT). Leur méthode est basée sur l’extraction d’une composante basse fréquence et d’une composante haute fréquence. DyWT est le plus couram- ment utilisé dans de nombreuses méthodes de détection. L’image est décomposée à l’aide d’un filtre passe-bas et d’un filtre passe-haut. Ensuite, ils ont utilisé un algo- rithme pour calculer DyWT de cette image. Quatre sous-bandes sont obtenues à la

(31)

Chapitre 2. État de l’art 2.1. Détection de falsification par CM

sortie et elles ont la même taille que celle de l’image d’origine. On obtient deux sous- bandes, LL et HH. Ils ont divisé ces sous-bandes en blocs de 16 x 16 pixels avec un chevauchement de 8 pixels. L’appariement effectué sur LL et HH, ainsi LL doit être identique et HH doit être très différent des régions forgées. La similitude, est faite à l’aide de la méthode de la distance euclidienne.

La méthode deGhorbani et Firouzmand[21] qui utilise DWT et DCT. Après conversion de l’image en niveaux de gris, ils ont appliqué DWT au début pour obtenir quatre sous-bandes. La sous-bande basse fréquence est utilisée pour la détection. Ensuite, ils ont divisé l’image en plusieurs blocs superposeés de même taille et ils ont appliqué DCT pour obtenir les vecteurs de caractéristiques. Ces vecteurs caractéristiques sont disposés dans une matrice. Pour réduire la complexité des calculs, ils ont fait un tri lexicographique sur la matrice. Pour chaque paire de lignes adjacentes dans la matrice, ils ont calculé le vecteur de décalage normalisé. Ils ont compté le nombre de fois qu’un vecteur de décalage apparaît. Une valeur de seuil est définie pour la valeur de comptage et les blocs ne doivent être forgés que si la valeur de comptage dépasse cette valeur de seuil. Leur méthode est efficace pour détecter les faux, par rapport aux autres méthodes. Cependant, cette méthode ne permet pas de détecter les contrefaçons lorsque la région altérée subit un post-traitement tel qu’une rotation, une mise à l’échelle et une compression importante. De plus, cette méthode impose certaines restrictions aux zones forgées.

2.1.2 Correspondance des caractéristiques

La correspondance consiste à trouver une possible région dupliquée dans l’image. L’idée principale de la méthode de détection de falsification de copy-move basée sur le tri lexicogra- phique consiste à comparer les vecteurs propres de deux régions. Les rangées de la matrice formée par les vecteurs caractéristiques sont triées par ordre lexicographique. Chaque paire de lignes est comparée. Si la différence entre les deux rangées est inférieure à un seuilT1, les deux blocs sont considérés comme similaires. Si le nombre de blocs semblables dans certaines régions dépassent le seuilT2, on considère que la falsification est identique. Mais l’algorithme pourrait trouver trop de blocs correspondants, y compris de faux blocs correspondants. Afin d’améliorer la précision de l’appariement, on utilise un algorithme de tri lexicographique basé sur distance.

On suppose qu’une partie (région copiée) de l’image est copiée et collée dans une autre partie (région altérée) de la même image. Sur la figure 2.2, le point A désigne le vecteur propre de la région copiée etB, le vecteur propre de la région altérée. Pour simplifier, on suppose que le vecteur propre n’a que deux valeurs propres xet y. Les deux valeurs propres peuvent former deux types de vecteurs propres selon différents modes de tri.

Mode 1: la priorité dexest supérieure à celle dey, donc le vecteur propre est[x, y].

Mode 2:ya une priorité plus élevée quex, donc le vecteur propre est[y, x].

(32)

Chapitre 2. État de l’art 2.1. Détection de falsification par CM

Si le vecteur propre est trié par mode 1, la valeur propre dans le champ de la barre oblique de la figure 2.2a affectera la précision de l’appariement. Seulement lorsqueBest adjacent à A, les blocs d’image représentés par les deux points sont considérés comme similaires. S’il y a un autre vecteur propre C entre A et B (dans la zone des barres obliques), la valeur x de C est plus proche de celle deB. Puisque les vecteurs propres sont triés parxd’abord,Best considéré comme non adjacent àA, ce qui conduit à une fausse correspondance.

(a) Trié par mode 1 (b) Trié par mode 2

FIGURE2.2 – Figure montrant la zone de fausse correspondance

De même, les vecteurs propres dans la zone de barre oblique de la figure 2.2b affecteront la précision de la correspondance lorsque le tri est fait par mode 2. La figure 2.2 montre que les décalages de l’axe des x affectent les résultats plus que l’axe des ordonnées lorsque le tri est fait par mode 1. Les décalages de l’axe y affectent davantage les résultats triés par mode 2.

Afin de réduire l’effet des axes, on réduire la taille de la zone de barre oblique de la figure 2.2 si possible. Ainsi, la distance entreAetBest calculée. La distance est utilisée alors comme valeur propre au lieu dexouy. Les zones de barre oblique qui conduisent à la détection d’erreur sont illustrées à la figure 2.3. La figure 2.3 montre que la surface oblique a diminué, ce qui améliore la robustesse de l’algorithme de détection. On calcule donc la distance des coefficients groupés entre chaque paire de blocs. Cette distance est utilisée pour le tri, ce qui réduit le rapport de faux appariement.

(33)

Chapitre 2. État de l’art 2.1. Détection de falsification par CM

(a) Trié par mode 1 (b) Trié par mode 2

FIGURE2.3 – Figure montrant une amélioration de la zone de fausse correspondance.

La littérature foisonne de plusieurs méthodes pour la correspondance des caractéristiques après l’étape d’extraction. Ici nous parlons des trois méthodes les plus utilisées.

2.1.2.1 Le tri lexicographique

La grande similarité entre deux descripteurs d’entités est interprétée comme une indica- tion pour une région dupliquée. Pour les méthodes basées sur les blocs, la plupart des auteurs proposent d’utiliser le tri lexicographique pour identifier des vecteurs de caractéristiques simi- laires. Dans le tri lexicographique, une matrice de vecteurs de caractéristiques est construite de sorte que chaque vecteur de caractéristiques devienne une ligne dans la matrice. Cette matrice est ensuite triée par rangée. Ainsi, les caractéristiques les plus similaires apparaissent dans des lignes consécutives. Les travaux effectués par les auteurs des différentes articles ([11], [14], [16], [17], [22], [19], [21], [23]), implémentent cette technique.

2.1.2.2 L’algorithme kd-tree

D’autres auteurs utilisent la méthode de recherche Best-Bin-First dérivée de l’algorithme kd-tree1pour obtenir approximativement le plus proche voisins. En particulier, les méthodes basées sur des points-clés utilisent souvent cette approche. La correspondance avec kd-tree donne une recherche relativement efficace du plus proche voisin. Par exemple, cette technique

1Un arbre k-d (abréviation d’arborescence k-dimensionnelle) est une structure de données à partitionnement d’espace permettant d’organiser des points dans un espace k-dimensionnel. Les arbres k-d sont une structure de données utile pour plusieurs applications, telles que les recherches impliquant une clé de recherche multidimen- sionnelle (par exemple, les recherches par plage et les recherches par le voisin le plus proche). Les arbres k-d sont un cas particulier d’arbres de partitionnement d’espace binaire.[24]

(34)

Chapitre 2. État de l’art 2.1. Détection de falsification par CM

est utilisée dans les travaux ([9], [12]) pour apparier les régions de l’image en utilisant les vec- teurs caractéristiques .

Il a été démontré que l’utilisation de la correspondance kd-tree conduit en général à de meilleurs résultats que le tri lexicographique, mais les besoins en mémoire sont nettement plus élevés.

2.1.2.3 La distance euclidienne

En générale, la distance euclidienne est utilisée comme mesure de similarité ([20], [25]). Elle est donnée par l’équation 2.1.

d(p, q) = v u u t

1 N

n

X

i=1

(pi−qi)2 (2.1)

oùd(p, q)donne la distance entre les blocspetq,pietqicorrespondent aux valeurs de coefficient de transformation LL correspondantes aux blocs et N est le nombre total de pixels d’un bloc.

2.1.3 Filtrage

L’étape de filtrage permet de réduire la probabilité de fausses correspondances. Par exemple, une mesure commune de suppression du bruit implique la suppression de correspondances entre régions spatialement proches. Pixels voisins ont souvent des intensités similaires, ce qui peut conduire à de fausses détections. Différents critères de distance ont également été pro- posés, afin de filtrer les correspondances faibles. Par exemple, plusieurs auteurs ont proposé la distance euclidienne entre les vecteurs de caractéristiques appariés ([9], [10]). En revanche, Bravo-Solorio et Nandi [16] ont proposé le coefficient de corrélation entre deux vecteurs carac- téristiques comme critère de similarité.

2.1.4 Post-traitement

Le but de cette dernière étape est de conserver les correspondances qui présentent un com- portement commun. Considérons un ensemble de correspondances appartenant à une région copiée. Ces correspondances sont censées être proches les unes des autres dans les régions sources et les régions cibles. Les correspondances provenant de la même action de copier- déplacer doivent présenter des niveaux similaires de translation, de mise à l’échelle et de ro- tation. La variante de post-traitement la plus largement utilisée gère les valeurs éloignées en imposant un nombre minimal de vecteurs de décalage similaires entre les correspondances.

Un vecteur de décalage contient la traduction (en coordonnées de l’image) entre deux vecteurs caractéristiques appariés. En effet, Mahdian et Saic[9] considèrent qu’une paire de vecteurs de caractéristiques appariés sont forgés si :

(35)

Chapitre 2. État de l’art 2.2. Détection de falsification par Splicing

a- ils sont suffisamment similaires, c’est-à-dire que leur distance euclidienne est inférieure à un seuil ;

b- le voisinage autour de leur emplacement spatial contient des caractéristiques similaires.

2.2 Détection de falsification par Splicing

La falsification par splicing est une astuce très courante et simple dans la falsification et constitue une menace pour l’intégrité et l’authenticité des images. Par conséquent, la détection de ce type de falsification est d’une grande importance en criminalistique numérique. Plusieurs travaux ont été effectués dans la détection de la falsification par splicing.

• La méthode proposée parZhongwei et al[26] qui est basée sur les caractéristiques de Mar- kov extrait de DCT (Discrete Cosine Transform), mais aussi dans le domaine DWT (Dis- crete Wavelet Transform). Le choix d’utilisation des fonctionnalités de Markov est fait en raison de leur efficacité et de leur simplicité, ce qui permet de supprimer toutes les fonctionnalités basées sur le moment. D’abord les caractéristiques de Markov extraites du domaine DCT sont utilisées dans le but de capturer non seulement les corrélations intra-bloc mais aussi les corrélations inter-bloc entre les coefficients DCT. Ensuite, plus de fonctionnalités sont construites dans le domaine DWT pour caractériser les trois types de dépendance entre les coefficients d’ondelettes à travers les positions, les échelles et les orientations. Une fois toutes les fonctionnalités associées générées, la méthode appelée SVM-RFE (machine à vecteurs de support récursive par élimination des caractéristiques) est adoptée pour réduire la dimensionnalité du dernier vecteur de caractéristiques, ce qui permet de gérer la complexité du calcul. Enfin, le vecteur de caractéristiques n-D obtenu est utilisé pour distinguer des images authentiques et altérées avec le classificateur SVM.

• Minyoung et al[27] ont proposé une méthode qui utilise un algorithme d’apprentissage pour la détection de manipulations d’images visuelles, formé uniquement à l’aide d’un grand ensemble de données de photographies réelles. L’algorithme utilise les métadon- néesEXIF2(Exchangeable image file format) de photos enregistrées automatiquement en tant que signal de supervision pour former un modèle de classification afin de déterminer si une image est cohérente, c’est-à-dire si son contenu aurait pu être produit par une seule image. Les EXIF sont des spécifications de l’appareil photo qui sont gravées numérique- ment dans un fichier image au moment de la capture et qui sont disponibles partout. Ils appliquent ce modèle d’auto-cohérence pour détecter et localiser les cas de splicing sur une image. Le modèle est auto-supervisé en ce sens que seul des photographies réelles et leurs métadonnées EXIF sont utilisées pour la formation. Un classificateur de cohérence

2Les EXIF sont des spécifications de l’appareil photo qui sont gravées numériquement dans un fichier image au moment de la capture et qui sont disponibles partout.

(36)

Chapitre 2. État de l’art 2.3. Détection de falsification sur les documents numérisés

est appris pour chaque balise EXIF séparément à l’aide de paires de photographies, et les classificateurs résultants sont combinés ensemble pour estimer la cohérence des paires de photographies dans une nouvelle image d’entrée.

2.3 Détection de falsification sur les documents numérisés

Les documents numérisés sont un accessoire direct de nombreux actes criminels et terro- ristes. Les exemples incluent la falsification ou modification de documents numérisés utilisés à des fins d’identité, sécurité ou enregistrement des transactions.

z La méthode proposée parRamzi M. Abed[28] pour la détection de faux dans les documents numérisés. Il a proposé un système de détection de falsification développé sur la base de l’identification du scanner utilisé pour numériser le document. Pour lui, cette technique dépend de l’identification de la signature du scanner. Il est observable que la qualité des bords des caractères dans les documents numérisés varie en fonction du scanner utilisé.

Lors du processus de numérisation, les scanners haute résolution produisent des lignes noires plus solides avec des bords plus nets, tandis que les scanners à basse résolution produisent des caractères représentés par lignes noires composées de variations du noir et de gris, et les bords des caractères sont graduels. Ces différences entraînent des chan- gements de texture. Le système proposé doit pouvoir décider de la falsification ou de l’authenticité du document numérisé qui lui est soumis. La figure 2.4 décrit les étapes que suit le système :

FIGURE 2.4 – Schéma fonctionnel de la détection de l’authenticité d’un document numérisé proposée par Ramzi[28]

Pour aboutir à ce résultat, le système extrait les lettres "e" du document, comme il est le caractère le plus fréquent en langue anglaise. Ensuite, un ensemble de fonctionnalités de chaque groupe de caractères ("e") est extrait pour former un vecteur de caractéristique par division du document numérisé en blocs non superposés de taille N ×N pixels. On extrait alors un ensemble différent de caractéristiques de chacun de ces blocs. Chacun de ces vecteurs de caractéristiques sont ensuite testés et classés séparément en utilisant le classificateur SVM (Support Vector Machine), qui va décider si l’image du document numérisée est authentique ou altéré.

Références

Documents relatifs

Ainsi, la perte d’informa- tion liée au secret statistique risque d’affecter prioritairement les types de sol limono-sableux sains, spécialement pour les itinéraires de travail

• Sur la Terre, l’eau se trouve sous trois états physiques (cf.. Elle est surtout présente

Ce graphique montre que les températures pendant l’Optimum climatique médiéval étaient plus élevées que celles d’aujourd’hui (comme le suggèrent les quelques vers des Contes

au trafic de faux vaccins sur son territoire depuis treize ans [9] : vaccins pédiatriques combinés contre la diphtérie, le tétanos, la poliomyélite, la coqueluche et

« D’abord, le fait considérable de l’universalité du langage : « Tous les hommes parlent » ; c’est là un critère d’humanité à côté de l’outil,

Sachant que la mutation qui conduit à la forme mutée de la protéine correspond à une substitution et qu'elle provoque l'apparition d'un site de restriction BclI dans la

Meyerson précise qu’il ne vise pas le pan-algébrisme de l’école de Marburg, pourtant présenté comme la « forme la plus définie » d’idéalisme

L’article 540 du code pénal stipule : Quiconque, en vue de se procurer ou de procurer à un tiers, un profit pécuniaire illégitime, induit astucieusement en erreur une