• Aucun résultat trouvé

IFT3395/6390Fondements de l’apprentissage machineProfesseur: Pascal Vincent

N/A
N/A
Protected

Academic year: 2022

Partager "IFT3395/6390Fondements de l’apprentissage machineProfesseur: Pascal Vincent"

Copied!
28
0
0

Texte intégral

(1)

Département d'informatique et de recherche opérationnelle

Laboratoire d’Informatique des Systèmes d’Apprentissage

IFT3395/6390

Fondements de l’apprentissage machine

Professeur: Pascal Vincent

Premier cours:

INTRODUCTION

(2)

Au programme aujourd’hui

Faire connaissance...

Page Web du cours:

Inscrivez-vous au cours IFT 3395/6390 sur le

système Moodle: http://moodle.iro.umontreal.ca

Présentation des objectifs, du plan de cours, des modalités d’évaluation, ...

Présentation informelle du domaine de l’apprentissage automatique.

(3)

Plan de Cours

et autres informations pratiques

PREMIÈRE PARTIE

(4)

La page Web du cours:

http://moodle.iro.umontreal.ca

Les informations de plan de cours se trouvent sur:

Objectifs du cours 1

Technologie: algorithmes d’apprentissage

pr ´e-requis: algorithmique, structure de donn ´ees, programmation, statis- tiques, alg `ebre lin ´eaire

focaliser sur la classification

Philosophie: la th ´eorie de l’apprentissage

Applications: . . .

(5)

Tonalité du cours

Matériel pédagogique principal produit par Balázs Kégl & Pascal Vincent.

Le cours nécessite d’être assez à l’aise en mathématiques & informatique.

Le cours sera donné en Français, mais beaucoup de matériel est en Anglais

(lectures, et matériel parfois utilisé comme support de cours).

(6)

Présentation informelle du domaine de l’apprentissage automatique

DEUXIÈME PARTIE

(7)

Au programme

Place de l’apprentissage en Intelligence Artificielle.

Les disciplines fondatrices de l’apprentissage.

Les domaines d’application de l’apprentissage.

Ex. de types de problèmes en apprentissage.

La représentation des données.

Ex. d’un algorithme simple.

(8)
(9)

L’Intelligence Artificielle, 2 approches historiques

Sub-symbolique

Inspirée du fonctionnement du cerveau (réseaux neuronaux)

L’apprentissage est très tôt au coeur de cette approche.

“Elephants don’t play chess”

(R. Brooks, 1990)

I.A. “connexioniste”

Symbolique

Systèmes à base de règles “logiques”

construites à la main.

Ex: systèmes experts.

Succès moderne: Deep Blue bat Kasparov aux échecs en 1996.

I.A. “classique”

(10)

1983

(11)

De la science-fiction à la réalité...

1983: dans WarGames, un

ordinateur apprend en jouant

contre lui-même à tic-tac-toe et

“global thermonuclear war”.

1995: TD-gammon, un réseau neuronal entraîné en jouant

200 000 parties de backgammon contre lui-même, joue à un niveau équivalent aux meilleurs joueurs mondiaux (Tesauro 1995).

THE ONLY WINNING

MOVE IS NOT TO PLAY

Conclusion:

(12)

Vision de l’intelligence artificielle en 1957

L’apprentissage: historique

1957 Rosenblatt Perceptron

INFORMATIQUE

Intelligence Artificielle

Classique Connexioniste

NEURO!SCIENCES

(symbolique) (réseaux neuronaux)

– p.2

(Rosenblatt, “Perceptron”)

(13)

Place de l’apprentissage en I.A. en 2009

L’I.A. “connexioniste” a mûri, s’est mathématisée, a engendré l’apprentissage statistique dont les réseaux neuronaux ne sont plus qu’une sous-

partie.

L’I.A. classique, en intégrant l’incertain, a

engendré les modèles graphiques probabilistes

(réseaux Bayesiens), dont les parmètres peuvent être appris.

Le rôle fondamental de l’apprentissage et d’une approche probabiliste est largement reconnu.

apprentissage statistique

}

(14)

Vision 2009 des disciplines fondatrices

L’apprentissage: historique 2003

INFORMATIQUE Intelligence Artificielle

NEURO!SCIENCES

Théorie de l’Information Traitement du signal STATISTIQUES

Machine Learning

Apprentissage Statistique

– p.3

Orientation 7

Sources d’inspiration pour les algorithmes d’apprentissage

sciences cognitives/neurosciences

“beaut ´e math ´ematique”

solutions d’ing ´enierie

sources d’inspiration:

+ Optimisation

+ probabilités

SCIENCES COGNITIVES

(15)

Apprendre à partir d’exemples !

“cheval” “cheval” “cheval”

Principe beaucoup plus général que d’écrire à la main, en partant de zéro, un algorithme pour reconnaître un cheval...

Vous savez programmer: comment feriez-vous ?

(16)

Algorithmes “classiques” vs. d’apprentissage 3

Approche classique

description formelle des contraintes de l’entr ´ee et de la sortie souhait ´ee

compr ´ehension du probl `eme computationnel

design d’une solution algorithmique bas ´ee sur ces connaissances

Probl `emes

Connaissances incompl `etes

Algorithme trop co ˆuteux

(17)

Algorithmes “classiques” vs. d’apprentissage 4

Approche d’apprentissage

donn ´ees (exemples) de forme (entr ´ee,sortie)

compr ´ehension partielle du probl `eme: connaissances a-priori

apprendre: chercher dans un ensemble de fonctions

(18)

Ex: la reconnaissance de caractères

2 3

Ensemble d’apprentissage

2 ou 3 ?

Point de test

Apprendre n’est pas simplement

mémoriser...

C’est être capable de généraliser!

(19)

Apprentissage 2

Une caract ´eristique essentielle de l’intelligence naturelle

Apprendre par coeur vs. l’apprentissage inductif

Mot cl ´e: G ´EN ´ERALISATION

Situation d’apprentissage typique:

1 On nous donne des exemples (des donn ´ees)

2 On nous pr ´esente un nouveau cas et il faut prendre une d ´ecision

(20)

Cat ´egories d’apprentissage automatique 5

Classification

classifier le nouvel exemple

R ´egression

faire une pr ´ediction `a partir du nouvel exemple

Estimation de densit ´e

dire si le nouvel exemple ressemble aux exemples d ´ej `a vus

(Mod `eles graphiques)

(21)

Applications 18

Applications “traditionnelles”: reconnaissance des formes

´ecriture, parole, empreinte digitale. etc.

les experts humains les font bien

nombre de donn ´ees, nombre d’attributs, nombre de classes mod ´er ´es

bruit/ambigu¨ıt ´e mod ´er ´e

(22)

Applications 19

Applications “modernes”:

forage de donn ´ees, forage de texte, pr ´ediction financi `ere, ranger des

“hits”(Google), analyse des expressions g ´en ´etiques

les experts humains n’existent pas

nombre de donn ´ees, nombre d’attributs, nombre de classes ´enormes

bruit/ambigu¨ıt ´e augment ´e

(23)

Applications 20

Reconnaissance des formes

´ecriture

parole

empreinte digitale

Forage de texte

Google

classification de textes

(24)

Applications 21

Forage de donn ´ees

marketing direct

pr ´ediction des primes

Bioinformatique

pr ´ediction du risque de cancer

d ´etection de cancer

d ´ecouverte de m ´edicament

(25)

Applications 22

Traitement de langage

pr ´ediction du prochain mot

d ´esambigu¨ısation du sens

pr ´ediction du POS

G ´enie logiciel

pr ´ediction de la stabilit ´e

(Part-Of-Speech)

(26)

Représentation des données

x = ( 0, 0, ... , 140, 0, ... )

x vecteur de Rn

?

x 1 x2

x1 x2

(27)

L’algorithme du plus proches voisin

On trouve le plus proche voisin de x parmi l’ensemble d’apprentissage selon une

certaine mesure de distance (ex: distance Euclidienne).

Pour un point test x:

BLEU!

On associe à x la classe de ce plus proche voisin.

Ensemble d’apprentissage

x?

(28)

La notion de niveau de représentation

Références

Documents relatifs

Dans cette partie, nous avons donc présenté comment l’utilisation des matrices d’auto- similarité peut être intéressante pour l’apprentissage d’un réseau de

Dorénavant on suppose que l’on a une famille convexe de classifieurs

[r]

Par exemple, la classification de données de très grande dimension ou la classification de données corrélées sont des problèmes particulièrement présents en analyse d’images

4 Apprentissage de dictionnaire et ACP parcimonieuse D´ebruitage et restauration d’images.. Dictionnaire parcimonieux structur´e pour la reconnaissance

a) Expliquez brièvement mais clairement l’algorithme de classification des K plus proches voisins (K-ppv ou K-NN) pour un problème à m classes. Expliquez précisément dans vos

2.5 Expliquez, par un pseudo-code informel de haut niveau, la procédure qu’on va typiquement utiliser pour choisir une valeur appropriée de ces leviers, pour un problème donné sous

Les choix de méthodes, de modèles, sont complexes à opérer et se dé- clinent en sous-objectifs qui restreignent où précisent les classes de modèles à considérer. L’objectif