Algorithme de la descente de gradien et Filtrage collaboratif
A3 - WMMFB40
Ex 1. Algorithme de la descente de gradient
1.1 Calculer les gradients des fonctions suivant définies dans un espace de dimension 2 ? L(w) = w12+w1∗w2+w22 (1) L(w) =
√
w21 +w22 (2)
L(w) = log(1 +e−w1−w2) (3)
L(w) = e−w1−w2 (4)
L(w) =
12 cos
(w21+w22 4
)
3 +w21+w22 (5)
L(w) = (a−w1)2+b(w2 −w12)2; pour (a, b)∈R2+ (6) 1.2 Donner les mises à jour des poids d’après l’algorithme de la descente de gradient pour l’apprentissage de l’algorithme de Preceptron
Ex 2. Apprentissage de représentation pour le filtrage collaboratif
Nous allons considérer le problème du filtrage collaboratif via l’apprentissage de représen- tation des utilisateurs et des items dans un espace latent commun. SoitRapp={rui;u∈ U, i ∈ V} l’ensemble des scores données par les utilisateurs aux items de la base d’entraînement. On pose U et I les matrices des utilisateurs et des items qui doivent être apprises. Les vecteurs de représentation Uu ∈ Rd et Vi ∈ Rd correspondent aux vecteurs de représentation de l’utilisateur u∈ U et de l’itemi∈ I dans l’espace latent.
Les matrices U etV sont trouvées en minimisant la fonction:
argminRm(A,U,V) = ∑
rui∈Rapp
(rui−U⊤uVi)2+λ(∥Uu∥2+∥Vi∥2)
2.1 Calculer les gradients de Rm par rapport àUu etVi.
2.2 Donner un schéma de mise à jour des vecteurs de représentation Uu et Vi. 1