IA : Interface Homme-‐Machine Chapitre 4. Perceptron
Yu LI, yu.li@u-‐picardie.fr
Laboratoire MIS, Université de Picardie Jules
Verne, France
Plan
• ApprenIssage AutomaIque
• Perceptron
Apprentissage Automatique
• Qu’est-‐ce que l’apprenIssage automaIque?
– C'est une technique pour apprend à parIr des
données. Il est basé très vaguement sur la façon dont le cerveau humain foncIonne que nous pensons.
– Tout d'abord, un réseau de neurones arIficiels est
construit. Ensuite, le réseau est demandé de résoudre un problème, et il tente de refaire à chaque fois,
renforçant les connexions qui mènent au succès et
diminuant celles qui mènent à l'échec.
Apprentissage Automatique
• L’apprenIssage automaIque a pour objecIf de construire une « bonne » foncIon h(x) à parIr d’un échanIllon S de données, en
espérant que h(x) prédit bien la valeur de sorIe des données à venir.
– L’échanIllon S est un ensemble de données dont un exemple est consItué de l’entrée x= (x1,x2,…
xn) et de la sorIe yt.
Exemple
• Voici un échanIllon S de données contenant 20 observaIons sur 20 femmes d’âges (X1) et de pression sanguine systolique (X2), et de la présence ou l’absence cardiaque (Yt=1,
présence ; Yt=0, absence) :
X1 :50 49 46 49 62 35 67 65 47 58 X2 : 126 126 144 139 154 156 160 140 143 165 Yt : 0 0 0 0 1 0 1 1 0 1
-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐
X1 :57 59 44 41 54 52 57 50 44 49 X2 : 115 145 175 153 152 169 168 158 170 171 Yt : 0 1 1 0 1 1 1 1 1 1
• L’objecIf est prédire la présence ou l’absence cardiaque à parIr de l’âge et la pression sanguine d’une personne.
Perceptron
• Le perceptron, appelé neurone ar(ficiel, est le modèle simplifié du neurone biologie. :
Perceptron
• Dans sa forme la plus basique, un réseau de neurones ne comporte qu'un seul neurone, appelé perceptron.
• L’algorithme d’apprenIssage automaIque associé au
perceptron peut être uIlisé pour faire la classificaIon binaire:
– hlps://fr.wikipedia.org/wiki/Perceptron
• L’idée intuiIve est de placer l’échanIllon de données dans un plan (le plan cartésien si un exemple est “x1, x2”), et tracer une ligne qui sépare les données.
Perceptron
• La ligne est représentée par w0+w1*x1+…+wn*xn=0.
• La foncIon d’acIvaIon h :
– y = h(z) = 1, si z= w0+w1*x1+…+wn*xn>0;
– y = h(z) = -‐1, si z= w0+w1*x1+…+wn*xn<0.
Perceptron
• La quesIon : comment calculer les poids synapIques wi à parIr d’un échanIllon S de données?
– IniIaliser aléatoirement les poids wi
– Faire passer les exemples l’un après l’autre
• calculer l’erreur de prédicIon pour l’exemple
• ajuster les poids avec une règle d’apprenIssage
– Jusqu’à convergence du processus
• Une règle d'apprenIssage
– wi’ = wi + alpha * (yt – y) *xi
• xi : l’entrée
• y : le résultat calculé
• yt : le résultat alendu
• wi : le poids actuel
• wi’ : le poids corrigé
• alpha : le taux d’apprenIssage