d’apprentissage, en considérant le même nombre de paramètres à estimer. Cependant, la limite
est qu’en augmentant le nombre de Gaussiennes, il est toujours possible d’avoir une
estima-tion correcte des données. Ensuite, il y a une différence entre la théorie et la pratique. En
effet, la classification de données réelles montre que les résultats sont significativement les
mêmes suivant l’hypothèse de mélange choisi. Dans ce cas, il est difficile de conclure quant à
la pertinence du choix du modèle. Les paramètres extraits des images sonar ont une densité de
probabilité plutôt type mélange de Gaussiennes ce qui peut expliquer le fait que les résultats
soient significativement les mêmes. Il serait intéressant de travailler sur des données qui se
prêtent plus aux distributionsα-stables pour avoir des taux de classification meilleurs.
Références
Caron, F., B. Ristic, E. Duflos, et P. Vanheeghe (2006). Least Committed basic belief density
induced by a multivariate Gaussian pdf. In9th International Conference on Information
Fusion, Florence, Italie.
Chambers, J., C. Mallows, et B. Stuck (1976). A method for simulating stable random
va-riables.Journal of the American Statistical Association 71(354), 340–344.
Delmotte, F. et P. Smets (2004). Target identification based on the transferable belief model
interpretation of Dempster-Shafer model. Systems, Man and Cybernetics, Part A : Systems
and Humans, IEEE Transactions on 34(4), 457–471.
Dempster, A. (1967). Upper and lower probabilities generated by a random closed interval.
The Annals of Mathematical Statistics 38, 325–339.
Dempster, A., N. Laird, D. Rubin, et al. (1977). Maximum likelihood from incomplete data
via the EM algorithm.Journal of the Royal Statistical Society 39(1), 1–38.
Fiche, A. et A. Martin (2009). Approche bayésienne et fonctions de croyance continues pour la
classification. InRencontre francophone sur la Logique Floue et ses Applications, Annecy,
France.
Fiche, A., A. Martin, J. Cexus, et A. Khenchaf (2010a). Continuous belief functions and
alpha-stable distributions. In13th International Conference on Information Fusion, Edinburgh,
United-Kingdom.
Fiche, A., A. Martin, J. Cexus, et A. Khenchaf (2010b). Estimation d’un mélange de
distri-butions alpha-stables à partir de l’algorithme em. InRencontre francophone sur la Logique
Floue et ses Applications, Lannion, France.
Haralick, R. (1979). Statistical and structural approaches to texture. Proceedings of the
IEEE 67(5), 786–804.
Haralick, R., K. Shanmugam, et I. Dinstein (1973). Textural features for image classification.
IEEE Transactions on systems, man and cybernetics 3(6), 610–621.
Kernéis, D. (2007). Amélioration de la classification automatique des fonds marins par la
fusion multicapteurs acoustiques. Ph. D. thesis, Thèse de doctorat de l’ENSTB.
Laanaya, I. (2007).Classification en environnement incertain : application à la caractérisation
de sédiments marins. Ph. D. thesis, thèse de doctorat de l’UBO.
Lévy, P. (1924). Théorie des erreurs : La loi de gauss et les lois exponentielles. Bulletin de la
Société Mathématique de France 52, 49–85.
Nolan, J. (1997). Numerical calculation of stable densities and distribution functions.
Com-munications in Statistics-Stochastic Models 13(4), 759–774.
Samorodnitsky, G. et M. Taqqu (1994). Stable non-Gaussian random processes : stochastic
models with infinite variance. Chapman & Hall.
Shafer, G. (1976).A mathematical theory of evidence. Princeton university press Princeton.
Smets, P. (1990). Constructing the pignistic probability function in a context of uncertainty. In
Uncertainty in artificial intelligence, Volume 5, pp. 29–39.
Smets, P. (1993). Belief functions : The disjunctive rule of combination and the generalized
Bayesian theorem.International Journal of Approximate Reasoning 9(1), 1–35.
Smets, P. (2005). Belief functions on real numbers. International journal of approximate
reasoning 40(3), 181–223.
Strat, T. (1984). Continuous belief functions for evidential reasoning. InProceedings of the
National Conference on Artificial Intelligence, University of Texas at Austin.
Williams, D. (2009). Bayesian data fusion of multiview Synthetic Aperture Sonar imagery for
seabed classification.Image Processing, IEEE Transactions on 18(6), 1239–1254.
Zolotarev, V. (1986). One-dimensional stable distributions, Translations of Mathematical
Mo-nographs, vol. 65.American Mathematical Society.
Summary
This paper shows a classification of data based on the theory of belief functions. The
complexity of this problem can be seen as two ways. Firstly, data can be imprecise and/or
uncertain. Then, it is difficult to choose the right model to represent data. Gaussian model is
often used but is limited when data are complex. This model is a particular case ofα-stable
distributions. Classification is divided into two steps. Learning step allows to modelize data by
a mixture ofα-stable distributions and Gaussian distributions. Test step allows to classify data
with the theory of belief functions and compare the two models. The classification is realized
firstly on generated data and then on real data type sonar images.
Riwal Lefort
∗,∗∗Ronan Fablet
∗∗Jean-Marc Boucher
∗∗∗
Ifremer/STH, Technopole Brest Iroise - 29280 Plouzane, France
riwal.lefort@ifremer.fr,
http://www.ifremer.fr
∗∗
Telecom Bretagne/LabSTICC, Technopol Brest Iroise
CS83818, 29238 Brest Cedex, France
riwal.lefort@telecom-bretagne.eu
http://www.telecom-bretagne.eu
Résumé. Ce papier synthétise les travaux présentés dans la revue " RNTI-fouille
de données complexes, 2010 ". Nous proposons de traiter le problème de
l’ap-prentissage faiblement supervisé pour lequel l’ensemble d’apl’ap-prentissage est
consti-tué de données de labels inconnus mais dont les probabilités de classificationa
priorisont connues (Lefort et al. (2011)). Premièrement, nous proposons une
méthode pour apprendre des arbres de décision à l’aide des probabilités de
clas-sification a priori. Deuxièmement, une procédure itérative est proposée pour
modifier les labels des données d’apprentissage, le but étant que les a priori
faibles convergent vers desa prioriforts. Les méthodes proposées sont évaluées
sur des jeux de données issus de la base de données UCI.
1 Introduction
Depuis un grand nombre d’années, la classification automatique d’objets a
prodigieuse-ment évoluée dans le domaine de la vision par ordinateur. Ces évolutions ont donné naissance
à de nouveaux formalismes des modèles de classification dont la complexité d’apprentissage
dépend des données d’apprentissage. Les premiers travaux de Fisher (Fisher (1936)) sur les
Iris se basent sur une classification supervisée des pétales de fleurs : à partir d’un ensemble
de données labélisées, un modèle de classification est établi. Plus tard, naît la classification
non-supervisée dont l’objectif est de classer les objets en groupes homogènes (Lloyd (1982)).
L’ensemble d’apprentissage est alors constitué de données sans label. L’obtention de données
labélisées est souvent difficile et couteuse, dans ce contexte, les méthodes d’apprentissage
semi-supervisé montrent que l’ajout de données sans label à des données labélisées permettent
d’améliorer les performances de classification (Chapelle et al. (2006)). Cette méthode est
per-formante, mais elle augmente la complexité de l’ensemble d’apprentissage qui est alors
consti-tué à la fois de données labélisées et de données non labélisées (Blum et Mitchel (1998)). Dans
le domaine de la vision par ordinateur, quand on classe des objets dans des images, l’annotation
des données d’apprentissage s’effectue par la connaissance de la présence et/ou de l’absence
des classes dans les images (Weber et al. (2000)). Cette annotation entraine la constitution d’un
ensemble d’apprentissage pour lequel les objets sont associés à des vecteurs qui donnent les
a prioripour chaque classe (Ulusoy et Bishop (2005)). Certaines applications produisent des
ensembles d’apprentissage pour lesquels lesa priorides classes sont connus. C’est le cas
d’an-notations directes par un expert (Rossiter et Mukai (2007)), ou encore, en acoustique
halieu-tique dont lesa priorides classes sont fournis à l’aide de chalutages qui donnent la probabilité
des classes dans des images acoustiques de la colonne d’eau (Lefort et al. (2011)).
Dans ce papier, nous proposons un formalisme d’apprentissage faiblement supervisé qui
généralise toutes les formes d’apprentissage précédemment citées. Nous nous plaçons dans
le cas d’un ensemble d’apprentissage constitué d’objets associés à un vecteur dont les
com-posantes donnent les probabilités de classification pour chaque classe. Soit{x
n, π
n}
1≤n≤N
Dans le document
8ème édition de l'atelier "Fouille de données complexes" : complexité liée aux données multiples
(Page 44-47)