• Aucun résultat trouvé

1.5 État de l’art des méthodes mathématiques

2.1.1 Données et notations

2.1.3 Estimation des performances d’une méthode de classification . . . . 48

2.2 Méthodes paramétriques . . . . 50

2.2.1 Modèles de mélange . . . . 50

2.2.2 Modèle de mélange sur variables quantitatives . . . . 51

2.2.2.1 Modèle de mélange gaussien . . . . 51

2.2.2.2 Estimation paramétrique: cas quantitatif . . . . 52

2.2.3 Modèle de mélange sur variables qualitatives . . . . 55

2.2.3.1 Modèle de mélange multinomial . . . . 55

2.2.3.2 Estimation paramétrique: cas qualitatif . . . . 56

2.3 Méthodes non paramétriques . . . . 57

2.3.1 Noyaux . . . . 57

2.3.2 Noyaux sur des données structurées . . . . 63

2.3.3 Méthodes à noyaux . . . . 65

2.3.3.1 Séparateurs à Vaste Marge (SVM) . . . . 65

2.3.3.2 Méthode des plus proches voisins (KNN) . . . . 67

2.3.3.3 Processus gaussien parcimonieux en analyse discriminante

(pg-pDA) . . . . 68

2.4 Mesure de similarité . . . . 70

2.4.1 Définitions . . . . 71

2.4.2 Mesure de similarité pour des données binaires . . . . 72

2.1 Introduction

Notre travail s’inscrit dans le cadre des méthodes d’apprentissage statistique. Ce chapitre a pour

but d’introduire les notions et concepts clés en analyse discriminante, sur les méthodes à noyaux

et sur les mesures de similarité.

Un modèle mathématique est une représentation d’un phénomène étudié, dont la qualité

dépend essentiellement de la connaissance de ce phénomène et des moyens dont on dispose pour

construire le modèle. La connaissance étant souvent imparfaite (limitation de la compréhension

du phénomène, du nombre de données et des expériences) et les moyens limités (scientifiques

et numériques). De plus, expliquer un phénomène, revient à comprendre son fonctionnement,

étudier sa complexité et prendre une décision au vu de prédire son comportement. Avec le

nombre croissant de données dans le monde moderne, le besoin en analyse augmente et devient

de plus en plus complexe. Cette modélisation peut se faire de différentes manières.

Une approche pertinente pour aborder les problèmes complexes est la fouille de données. La

fouille de données est l’ensemble des méthodes permettant d’explorer et d’analyser des données

de façon automatique ou semi automatique, dans le but de détecter des structures particulières

ou cachées en établissant des règles de décision. Une des parties importantes des méthodes de

fouille de données est la classification.

La classification est une méthode d’analyse des données qui vise à regrouper en classes

homogènes un ensemble d’observations. Elle a pour but la résolution de manière automatique

des problèmes par la prise de décision sur la base des observations induites aux problèmes. Son

objectif est principalement de définir des règles permettant de classer des objets à partir de

variables qualitatives ou quantitatives caractérisant ces objets. Elle joue un rôle de plus en plus

important dans de nombreux domaines scientifiques et techniques.

La classification revêt de plus en plus une place importante en analyse de données

ex-ploratoire et décisionnelle. La classification se subdivise en deux approches:

Approche explicative Les méthodes explicatives cherchent à découvrir les variables ou les

associations de variables. Elles cherchent ainsi à découvrir les variables les plus pertinentes pour

décrire les différences entre groupes a priori et à déterminer si ces différences sont significatives.

Approche décisionnelle L’approche décisionnelle cherche à affecter tout nouvel individu ou

objet à des groupes définis a priori. Pour cela la méthode proposée doit s’adapter à la diversité

des données comme l’abondance, la rareté des individus ou objets, le nombre de descripteurs et

le nombre de classes.

La classification se subdivise souvent en trois types de méthodes:

Méthode non supervisée La classification non supervisée dite aussi clustering permet de

modéliser le système qui a généré les données observées et à partir de cette modélisation

construit la règle de décision. Elle cherche une typologie ou segmentation c’est-à-dire une

partition ou une répartition des individus en classes ou groupes. Le classement se fait en

optimisant un critère permettant de regrouper les individus dans des classes les plus homogènes

et les plus distinctes possible. Le nombre de partitions n’est pas souvent connu a priori.

Méthode semi supervisée L’approche semi supervisée permet de prendre en compte les

données non classées pour améliorer la règle de classification. Elle modélise la distribution

conjointe des prédicteurs et de la classe. L’auto-apprentissage constitue une des premières

méthodes utilisées en classification semi-supervisée. Elle consiste à subdiviser les données en

deux parties. Dans une des parties, on construit une règle de classement à partir des données

classées. Ainsi à partir de ce classifieur, on classe les autres parties des données sans leurs

étiquettes [25].

Méthode supervisée La classification supervisée construit directement la règle de décision

à partir des données observées. Elle s’applique à des populations décrites par des variables et

munies d’une partition définie a priori et d’un intérêt particulier. Elle vise à séparer au mieux les

classes de la partition à l’aide des variables explicatives.

De plus la performance de certaines méthodes de classification repose souvent sur le choix

d’une bonne mesure de similarité. De ce fait, depuis plusieurs années, des mesures de similarité

sont proposées dans des domaines divers et variés. Leur terminologie varie suivant les domaines

considérés (similarité, ressemblance, proximité, . . . ) et suivant les types de données. La

clas-sification peut aussi s’appuyer sur l’utilisation de noyau. Les méthodes à noyaux constituent

une classe de modèles qui étendent astucieusement les méthodes linéaires au cas non linéaire.

L’utilisation des noyaux ne modifie pas fondamentalement la nature des données et du problème

posé. Ce chapitre se propose d’énoncer les principaux concepts mathématiques utilisés dans

nos travaux. Nous élaborons une étude sur les méthodes de classification particulièrement en

classification supervisée. Au niveau du paragraphe 2.2 nous nous focaliserons sur les méthodes

paramétriques avec l’introduction des modèles de mélanges sur des données quantitatives et

qual-itatives. Au paragraphe 2.3 nous décrirons les méthodes non paramétriques. Nous aborderons

les noyaux et les stratégies de construction des fonctions noyaux sur des données structurées et

non structurées. Nous nous focaliserons par la suite sur trois méthodes de classification utilisant

un noyau. Les mesures de similarités étant importantes pour la construction des noyaux, de ce

fait dans le paragraphe 2.4 nous aborderons une étude élargie des mesures de similarités.

2.1.1 Données et notations

Dans la suite du document, on s’intéresse à la classification supervisée. Nous adopterons les

notations suivantes.

On dispose d’un échantillon denindividus décrits parpvariables à expliquerX

1

, . . . , X

p

.

L’appartenance de chaque individu à l’un des K groupes a priori C

1

, . . . , C

K

est connue.

On suppose que les observations {x

1

, . . . , x

n

} sont des réalisations d’un vecteur aléatoire

X = (X

1

, . . . , X

p

)∈R

p

. On suppose en outre que{y

1

, . . . , y

n

}décrivent l’appartenance des

observationsx={x

1

, . . . , x

n

}et sont des réalisations de la variable aléatoireY ∈ {1, . . . , K}.

Soitx= (x

1

, . . . , x

p

)les caractéristiques d’un individu donné, on note:

P(X)la loi de probabilité du vecteurX,

P(C

k

)la probabilité de la classeC

k

,

P(X|C

k

)la loi de probabilité du vecteurXsachant queXappartient à la classeC

k

,

P(C

k

|X)la probabilité queXappartienne à la classeC

k

.

La distribution du couple des vecteurs aléatoires(X, Y)est construite en supposant que:

• La variableY est munie de la loi de probabilitéπ

1

, . . . , π

k

. π

k

représente la probabilité a

priori d’un groupe i.e

• SachantY =k, les vecteurs de description suivent la loiP(X|C

k

).