HAL Id: hal-01941846
https://hal.inria.fr/hal-01941846
Submitted on 2 Dec 2018
HAL
is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire
HAL, estdestinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.
Calculer sur la langue mais qu’y comprendre ?
Maxime Amblard
To cite this version:
Maxime Amblard. Calculer sur la langue mais qu’y comprendre ?. Colloque Cathy Dufour, Nov 2018,
Nancy, France. �hal-01941846�
Calculer sur la langue mais qu’y comprendre ? Colloque Cathy Dufour
Maxime Amblard 14 novembre 2018
Plan
Calculer sur la langue
Mod ´eliser formellement le sens
Mod ´eliser stochastiquement le sens
Compositionnalit ´e dans les r ´eseaux de neurones
Conclusion
2/38
Calculer sur la langue
Introduction
1. L’IA s’impose comme un enjeu avec des domaines et des m ´ethodes 2. Le traitement de la langue (natural language) peut ˆetre inclus dans l’IA
1
3. Volont ´e decalculersur la langue pour produire des repr ´esentations et des outils
4. Volont ´e d’yinclureles propri ´et ´es de la langue (i.e.la linguistique)
1.
On se souviendra que le traitement de la langue est ant ´erieur `a l’IA, mais comme aujourd’hui on utilise les m ˆemes outils et que le terme IA a gagn ´e, on ne pol ´emiquera par sur l’inclusion du TAL dans l’IA ou de l’IA dans le TAL.
3/38
Introduction
1. L’IA s’impose comme un enjeu avec des domaines et des m ´ethodes 2. Le traitement de la langue (natural language) peut ˆetre inclus dans l’IA1
3. Volont ´e decalculersur la langue pour produire des repr ´esentations et des outils
4. Volont ´e d’yinclureles propri ´et ´es de la langue (i.e.la linguistique)
1. On se souviendra que le traitement de la langue est ant ´erieur `a l’IA, mais comme aujourd’hui on utilise les m ˆemes outils et que le terme IA a gagn ´e, on ne pol ´emiquera par sur l’inclusion du TAL dans l’IA ou de l’IA dans le TAL.
Introduction
1. L’IA s’impose comme un enjeu avec des domaines et des m ´ethodes 2. Le traitement de la langue (natural language) peut ˆetre inclus dans l’IA1 3. Volont ´e decalculersur la langue pour produire des repr ´esentations et
des outils
4. Volont ´e d’yinclureles propri ´et ´es de la langue (i.e.la linguistique)
1. On se souviendra que le traitement de la langue est ant ´erieur `a l’IA, mais comme aujourd’hui on utilise les m ˆemes outils et que le terme IA a gagn ´e, on ne pol ´emiquera par sur l’inclusion du TAL dans l’IA ou de l’IA dans le TAL.
3/38
Introduction
1. L’IA s’impose comme un enjeu avec des domaines et des m ´ethodes 2. Le traitement de la langue (natural language) peut ˆetre inclus dans l’IA1 3. Volont ´e decalculersur la langue pour produire des repr ´esentations et
des outils
4. Volont ´e d’yinclureles propri ´et ´es de la langue (i.e.la linguistique)
1. On se souviendra que le traitement de la langue est ant ´erieur `a l’IA, mais comme aujourd’hui on utilise les m ˆemes outils et que le terme IA a gagn ´e, on ne pol ´emiquera par sur l’inclusion du TAL dans l’IA ou de l’IA dans le TAL.
Deux points de vue
Calculeretinclure la linguistique
• Natural Language Processing (NLP)
Traitement Automatique des Langues (TAL)
engineering, r ´esolution de t ˆaches, approche exp ´erimentale par l’ ´evaluation
• Computational Linguistics
Linguistique informatique
mod `eles explicatifs, validation par les donn ´ees
4/38
Deux points de vue
Calculeretinclure la linguistique
• Natural Language Processing (NLP)
Traitement Automatique des Langues (TAL)
engineering, r ´esolution de t ˆaches, approche exp ´erimentale par l’ ´evaluation
• Computational Linguistics
Linguistique informatique
mod `eles explicatifs, validation par les donn ´ees
Deux points de vue
Calculeretinclure la linguistique
• Natural Language Processing (NLP)
Traitement Automatique des Langues (TAL) engineering, r ´esolution de t ˆaches, approche exp ´erimentale par
l’ ´evaluation
• Computational Linguistics
Linguistique informatique mod `eles explicatifs, validation par les donn ´ees
4/38
Calculer sur la langue
Contexte
Mod ´elisation de la langue naturelle :
• Analyseoug ´en ´eration?
• Deux paradigmes : Paradigme symbolique
(Grammaires, lexiques, syst `emes `a base de r `egles) Paradigme stochastique
(Machine learning, r ´eseau de neurones)
6/38
Contexte
Mod ´elisation de la langue naturelle :
• Analyseoug ´en ´eration?
• Deux paradigmes : Paradigme symbolique
(Grammaires, lexiques, syst `emes `a base de r `egles) Paradigme stochastique
(Machine learning, r ´eseau de neurones)
O `u et pour quoi faire ?
O `u :
• mails, SMS, Twitter, Facebook, commentaires, blogs, articles, pages web, ...
Pour quoi faire :
• interface humain-machine, dialogues automatiques
• traduction automatique, analyse d’opinion
• g ´en ´eration de documents, r ´esum ´e
• Watson !
• recherche d’information, repr ´esentation de l’information Sous-domaines tr `es riches : m ´edical, l ´egal, champs techniques
7/38
O `u et pour quoi faire ?
O `u :
• mails, SMS, Twitter, Facebook, commentaires, blogs, articles, pages web, ...
Pour quoi faire :
• interface humain-machine, dialogues automatiques
• traduction automatique, analyse d’opinion
• g ´en ´eration de documents, r ´esum ´e
• Watson !
• recherche d’information, repr ´esentation de l’information Sous-domaines tr `es riches : m ´edical, l ´egal, champs techniques
vs
8/38
Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es
• phonologie
Ginette Garcin ´ecouter
• morphologie
autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?
• syntaxe
Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture
• s ´emantique
La belle ferme la porte
´etoile : c ´el ´ebrit ´e ou astre ?
• pragmatique
La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece
Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es
• phonologie Ginette Garcin ´ecouter
• morphologie
autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?
• syntaxe
Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture
• s ´emantique
La belle ferme la porte
´etoile : c ´el ´ebrit ´e ou astre ?
• pragmatique
La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece
9/38
Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es
• phonologie
Ginette Garcin ´ecouter
• morphologie
autossa = dans l’auto autossaniko = dans mon auto
la : pronom, nom ou d ´eterminant ?
• syntaxe
Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture
• s ´emantique
La belle ferme la porte
´etoile : c ´el ´ebrit ´e ou astre ?
• pragmatique
La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece
Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es
• phonologie
Ginette Garcin ´ecouter
• morphologie
autossa = dans l’auto autossaniko = dans mon auto
la : pronom, nom ou d ´eterminant ?
• syntaxe
Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture
• s ´emantique
La belle ferme la porte
´etoile : c ´el ´ebrit ´e ou astre ?
• pragmatique
La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece
9/38
Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es
• phonologie
Ginette Garcin ´ecouter
• morphologie
autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?
• syntaxe
Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope)
Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture
• s ´emantique
La belle ferme la porte
´etoile : c ´el ´ebrit ´e ou astre ?
• pragmatique
La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece
Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es
• phonologie
Ginette Garcin ´ecouter
• morphologie
autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?
• syntaxe
Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope)
Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture
• s ´emantique
La belle ferme la porte
´etoile : c ´el ´ebrit ´e ou astre ?
• pragmatique
La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece
9/38
Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es
• phonologie
Ginette Garcin ´ecouter
• morphologie
autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?
• syntaxe
Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture
• s ´emantique
La belle ferme la porte
´etoile : c ´el ´ebrit ´e ou astre ?
• pragmatique
La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece
Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es
• phonologie
Ginette Garcin ´ecouter
• morphologie
autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?
• syntaxe
Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture
• s ´emantique
La belle ferme la porte
´etoile : c ´el ´ebrit ´e ou astre ?
• pragmatique
La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece
9/38
Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es
• phonologie
Ginette Garcin ´ecouter
• morphologie
autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?
• syntaxe
Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture
• s ´emantique
La belle ferme la porte
´etoile : c ´el ´ebrit ´e ou astre ?
• pragmatique
La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece
Mod ´eliser formellement le sens
Calcul s ´emantique
LOGIQUE
LANGAGE
N. Chomsky
G. Frege R. Montague
A. Tarski
-
-
? 6
? 6 MODELE`
MONDE
Principe de compositionnalit ´e Satisfiabilit ´e
Linguistique computationnelle S ´emantique computationnelle
Calcul s ´emantique
LOGIQUE
LANGAGE
N. Chomsky
G. Frege
R. Montague
A. Tarski
-
-
? 6
? 6 MODELE`
MONDE
Principe de compositionnalit ´e
Satisfiabilit ´e
Linguistique computationnelle S ´emantique computationnelle
10/38
Calcul s ´emantique
LOGIQUE
LANGAGE
N. Chomsky
G. Frege
R. Montague
A. Tarski
-
-
? 6
? 6 MODELE`
MONDE
Principe de compositionnalit ´e Satisfiabilit ´e
Linguistique computationnelle S ´emantique computationnelle
Calcul s ´emantique
LOGIQUE
LANGAGE N. Chomsky
G. Frege
R. Montague
A. Tarski
-
-
? 6
? 6 MODELE`
MONDE
Principe de compositionnalit ´e Satisfiabilit ´e
Linguistique computationnelle
S ´emantique computationnelle
10/38
Calcul s ´emantique
LOGIQUE
LANGAGE N. Chomsky
G. Frege R. Montague
A. Tarski
-
-
? 6
? 6 MODELE`
MONDE
Principe de compositionnalit ´e Satisfiabilit ´e
Linguistique computationnelle
Semantique
• Semantique
• Compositionnalit ´e(Frege)
Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas
compl `etement
• Approches logique(Montague) (1) John loves Mary
love(John,Mary)
• Comment utiliser ces repr ´esentations ?
• Utilit ´e de ces repr ´esentations ?
(2) If a farmer owns a donkey, he beats it
∀x∀y.((farmerx∧donkeyy∧ownx y)→beatx y)
11/38
Semantique
• Semantique
• Compositionnalit ´e(Frege)
Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas
compl `etement
• Approches logique(Montague) (1) John loves Mary
love(John,Mary)
• Comment utiliser ces repr ´esentations ?
• Utilit ´e de ces repr ´esentations ?
(2) If a farmer owns a donkey, he beats it
∀x∀y.((farmerx∧donkeyy∧ownx y)→beatx y)
Semantique
• Semantique
• Compositionnalit ´e(Frege)
Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas
compl `etement
• Approches logique(Montague)
(1) John loves Mary
love(John,Mary)
• Comment utiliser ces repr ´esentations ?
• Utilit ´e de ces repr ´esentations ?
(2) If a farmer owns a donkey, he beats it
∀x∀y.((farmerx∧donkeyy∧ownx y)→beatx y)
11/38
Semantique
• Semantique
• Compositionnalit ´e(Frege)
Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas
compl `etement
• Approches logique(Montague) (1) John loves Mary
love(John,Mary)
• Comment utiliser ces repr ´esentations ?
• Utilit ´e de ces repr ´esentations ?
(2) If a farmer owns a donkey, he beats it
∀x∀y.((farmerx∧donkeyy∧ownx y)→beatx y)
Semantique
• Semantique
• Compositionnalit ´e(Frege)
Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas
compl `etement
• Approches logique(Montague) (1) John loves Mary
love(John,Mary)
• Comment utiliser ces repr ´esentations ?
• Utilit ´e de ces repr ´esentations ?
(2) If a farmer owns a donkey, he beats it
∀x∀y.((farmerx∧donkeyy∧ownx y)→beatx y)
11/38
Semantique
• Semantique
• Compositionnalit ´e(Frege)
Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas
compl `etement
• Approches logique(Montague) (1) John loves Mary
love(John,Mary)
• Comment utiliser ces repr ´esentations ?
• Utilit ´e de ces repr ´esentations ?
(2) If a farmer owns a donkey, he beats it
∀x∀y.((farmerx∧donkeyy∧ownx y)→beatx y)
Semantique
• Semantique
• Compositionnalit ´e(Frege)
Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas
compl `etement
• Approches logique(Montague) (1) John loves Mary
love(John,Mary)
• Comment utiliser ces repr ´esentations ?
• Utilit ´e de ces repr ´esentations ?
(2) If a farmer owns a donkey, he beats it
∀x∀y.((farmerx∧donkeyy∧ownx y)→beatx y)
11/38
Semantique
• Semantique
• Compositionnalit ´e(Frege)
Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas
compl `etement
• Approches logique(Montague) (1) John loves Mary
love(John,Mary)
• Comment utiliser ces repr ´esentations ?
• Utilit ´e de ces repr ´esentations ?
(2) If a farmer owns a donkey, he beats it
∀x∀y.((farmerx∧donkeyy∧ownx y)→beatx y)
Repr ´esentation DRT (KAMP et REYLE 1993) et SDRT (ASHER et LASCA-
RIDES2003)
Old mathematicians never die ; they just lose some of their functions.
An engineer thinks that his equations are an approximation to reality. A physicist thinks reality is an approximation to his equations. A mathematician doesn’t care.
12/38
Repr ´esentation DRT (KAMP et REYLE 1993) et SDRT (ASHER et LASCA-
RIDES2003)
Old mathematicians never die ; they just lose some of their functions.
An engineer thinks that his equations are an approximation to reality. A physicist thinks reality is an approximation to his equations. A mathematician doesn’t care.
Repr ´esentation DRT (KAMP et REYLE 1993) et SDRT (ASHER et LASCA-
RIDES2003)
Old mathematicians never die ; they just lose some of their functions.
An engineer thinks that his equations are an approximation to reality. A physicist thinks reality is an approximation to his equations. A mathematician doesn’t care.
12/38
Repr ´esentation DRT (KAMP et REYLE 1993) et SDRT (ASHER et LASCA-
RIDES2003)
Old mathematicians never die ; they just lose some of their functions.
An engineer thinks that his equations are an approximation to reality.
A physicist thinks reality is an approximation to his equations.
A mathematician doesn’t care.
Repr ´esentation DRT (KAMP et REYLE 1993) et SDRT (ASHER et LASCA-
RIDES2003)
Old mathematicians never die ; they just lose some of their functions.
An engineer thinks that his equations are an approximation to reality.
A physicist thinks reality is an approximation to his equations.
A mathematician doesn’t care.
12/38
Conclusion partielle
• Nombreuses strat ´egies pourmod ´eliser finementles ph ´enom `enes de sens dans les ´enonc ´es
• Bas ´ees sur lacompositionnalit ´e
Mais
• Mod ´eliser (parfaitement) un ph ´enom `ene particuliern’est pas comprendre le sensg ´en ´eral de l’ ´enonc ´e
• Difficult ´e d’avoir une repr ´esentation compl `ete du sens (ce que fait tr `es bien la langue)
• Couverture tr `es limit ´ee
• R ´ealit ´e cognitive, r ´ealit ´e conceptuelle ? ...
Conclusion partielle
• Nombreuses strat ´egies pourmod ´eliser finementles ph ´enom `enes de sens dans les ´enonc ´es
• Bas ´ees sur lacompositionnalit ´e Mais
• Mod ´eliser (parfaitement) un ph ´enom `ene particuliern’est pas comprendre le sensg ´en ´eral de l’ ´enonc ´e
• Difficult ´e d’avoir une repr ´esentation compl `ete du sens (ce que fait tr `es bien la langue)
• Couverture tr `es limit ´ee
• R ´ealit ´e cognitive, r ´ealit ´e conceptuelle ? ...
13/38
Conclusion partielle
• Nombreuses strat ´egies pourmod ´eliser finementles ph ´enom `enes de sens dans les ´enonc ´es
• Bas ´ees sur lacompositionnalit ´e Mais
• Mod ´eliser (parfaitement) un ph ´enom `ene particuliern’est pas comprendre le sensg ´en ´eral de l’ ´enonc ´e
• Difficult ´e d’avoir une repr ´esentation compl `ete du sens (ce que fait tr `es bien la langue)
• Couverture tr `es limit ´ee
• R ´ealit ´e cognitive, r ´ealit ´e conceptuelle ? ...
Conclusion partielle
• Nombreuses strat ´egies pourmod ´eliser finementles ph ´enom `enes de sens dans les ´enonc ´es
• Bas ´ees sur lacompositionnalit ´e Mais
• Mod ´eliser (parfaitement) un ph ´enom `ene particuliern’est pas comprendre le sensg ´en ´eral de l’ ´enonc ´e
• Difficult ´e d’avoir une repr ´esentation compl `ete du sens (ce que fait tr `es bien la langue)
• Couverture tr `es limit ´ee
• R ´ealit ´e cognitive, r ´ealit ´e conceptuelle ? ...
13/38
Mod ´eliser stochastiquement le sens
S ´emantique distributionnelle
Des mots apparaissant dans contextes similaires ont des sens proches (Harris, 1954)
On peut ´etudier leur synonymie ou leursimilarit ´e
Fr ´equences des cooccurences→Mod `eles distributionnels
Les mots sont repr ´esent ´es par des valeurs r ´eelles dans un espace avec peu de dimensions
14/38
S ´emantique distributionnelle
Des mots apparaissant dans contextes similaires ont des sens proches (Harris, 1954)
On peut ´etudier leur synonymie ou leursimilarit ´e
Fr ´equences des cooccurences→Mod `eles distributionnels
Les mots sont repr ´esent ´es par des valeurs r ´eelles dans un espace avec peu de dimensions
S ´emantique distributionnelle
Des mots apparaissant dans contextes similaires ont des sens proches (Harris, 1954)
On peut ´etudier leur synonymie ou leursimilarit ´e
Fr ´equences des cooccurences→Mod `eles distributionnels
Les mots sont repr ´esent ´es par des valeurs r ´eelles dans un espace avec peu de dimensions
14/38
S ´emantique distributionnelle
Des mots apparaissant dans contextes similaires ont des sens proches (Harris, 1954)
On peut ´etudier leur synonymie ou leursimilarit ´e
Fr ´equences des cooccurences→Mod `eles distributionnels
Les mots sont repr ´esent ´es par des valeurs r ´eelles dans un espace avec peu de dimensions
S ´emantique distributionnelle
Des mots apparaissant dans contextes similaires ont des sens proches (Harris, 1954)
On peut ´etudier leur synonymie ou leursimilarit ´e
Fr ´equences des cooccurences→Mod `eles distributionnels
Les mots sont repr ´esent ´es par des valeurs r ´eelles dans un espace avec peu de dimensions
14/38
Plongements lexicaux
L’int ´er ˆet est d’avoir des mots/sens proches dans l’espace de repr ´esentation
• Score de similarit ´e entre deux mots (cosinus)
• Voisins de chat : chien, chaton, lapin, oiseau etc.
• Bas ´e sur le comptage : extraire lesfr ´equences de cooccurrenced’un corpus
• Bas ´e sur la pr ´ediction : induire des param `etres bas ´es sur lapr ´ediction du mot correct
Au d ´epart, deux m ´ethodes diff ´erentes, o `u l’approche fond ´ee sur la pr ´ediction donnait de meilleurs r ´esultats
Par la suite, preuves qu’elles sont r ´eellement ´equivalentes ou assez semblables
Plongements lexicaux
L’int ´er ˆet est d’avoir des mots/sens proches dans l’espace de repr ´esentation
• Score de similarit ´e entre deux mots (cosinus)
• Voisins de chat : chien, chaton, lapin, oiseau etc.
• Bas ´e sur le comptage : extraire lesfr ´equences de cooccurrenced’un corpus
• Bas ´e sur la pr ´ediction : induire des param `etres bas ´es sur lapr ´ediction du mot correct
Au d ´epart, deux m ´ethodes diff ´erentes, o `u l’approche fond ´ee sur la pr ´ediction donnait de meilleurs r ´esultats
Par la suite, preuves qu’elles sont r ´eellement ´equivalentes ou assez semblables
15/38
Plongements lexicaux
L’int ´er ˆet est d’avoir des mots/sens proches dans l’espace de repr ´esentation
• Score de similarit ´e entre deux mots (cosinus)
• Voisins de chat : chien, chaton, lapin, oiseau etc.
• Bas ´e sur le comptage : extraire lesfr ´equences de cooccurrenced’un corpus
• Bas ´e sur la pr ´ediction : induire des param `etres bas ´es sur lapr ´ediction du mot correct
Au d ´epart, deux m ´ethodes diff ´erentes, o `u l’approche fond ´ee sur la pr ´ediction donnait de meilleurs r ´esultats
Par la suite, preuves qu’elles sont r ´eellement ´equivalentes ou assez semblables
Plongements lexicaux
L’int ´er ˆet est d’avoir des mots/sens proches dans l’espace de repr ´esentation
• Score de similarit ´e entre deux mots (cosinus)
• Voisins de chat : chien, chaton, lapin, oiseau etc.
• Bas ´e sur le comptage : extraire lesfr ´equences de cooccurrenced’un corpus
• Bas ´e sur la pr ´ediction : induire des param `etres bas ´es sur lapr ´ediction du mot correct
Au d ´epart, deux m ´ethodes diff ´erentes, o `u l’approche fond ´ee sur la pr ´ediction donnait de meilleurs r ´esultats
Par la suite, preuves qu’elles sont r ´eellement ´equivalentes ou assez semblables
15/38
16/38
16/38
Calcul de l’analogie
a is to b as c is to d
homme roi - femme reine
autriche vienne - allemagne berlin
´ecrivain livre - po `ete po `eme
france Emmanuel Macron - ´etats-unis Trump
droite LR - gauche ps
Calcul de l’analogie
a is to b as c is to d
homme roi - femme reine
autriche vienne - allemagne berlin
´ecrivain livre - po `ete po `eme
france Emmanuel Macron - ´etats-unis Trump
droite LR - gauche ps
17/38
Plongements lexicaux
Plongements lexicaux : des param `etres
• Objectif de l’entraˆınement
• Choix des contextes (sac de mots, syntaxe, corpus parall `ele)
• Taille de la fen ˆetre (petite, phrase, paragraphe, dynamique)
• Dirig ´e
• Lemmatisation, normalisation, mots d’arr ˆet. . .
19/38
En pratique
• Les plongements de mots sont souvent utilis ´es pour l’entraˆınement
• Non supervis ´e : bas ´e sur du texte brut (donc possibilit ´e d’utiliser de nombreuses donn ´ees)
• Algorithmes rapides et disponibles
• Le mod `ele peut ˆetre raffin ´e pour une t ˆache
En pratique
• Les plongements de mots sont souvent utilis ´es pour l’entraˆınement
• Non supervis ´e : bas ´e sur du texte brut (donc possibilit ´e d’utiliser de nombreuses donn ´ees)
• Algorithmes rapides et disponibles
• Le mod `ele peut ˆetre raffin ´e pour une t ˆache
20/38
Plongements lexicaux
Pour
• Faciles `a manipuler (si on les entraˆıne sur des corpus ad ´equats)
• Bons r ´esultats rapidement(bonne couverture)
• Adapt ´e pour le Deep Learning Contre
• Difficile d’interpr ´eter les r ´esultats
• Difficult ´es de contr ˆoler les param `etres du mod `ele
Compositionnalit ´e dans les r ´eseaux de neurones
Et la compositionnalit ´e ?
Travaux r ´ecents de FAIR sur la compositionnali ´e dans les r ´eseaux de neurones ( ! !)
Compositionnalit ´e syst ´ematique
Brenden Lake and Marco Baroni. Generalization without systematicity : On the compositional skills of sequence-to-sequence recurrent networks. ICML 2018
• Walk
• Walk twice
• Run
• Run twice
• Dax
• Dax twice
[[X twice]] = [[X]][[X]] [[dax]]= realiser l’action dax
23/38
Compositionnalit ´e syst ´ematique
Brenden Lake and Marco Baroni. Generalization without systematicity : On the compositional skills of sequence-to-sequence recurrent networks. ICML 2018
• Walk
• Walk twice
• Run
• Run twice
• Dax
• Dax twice
[[X twice]] = [[X]][[X]] [[dax]]= realiser l’action dax
Compositionnalit ´e syst ´ematique
Brenden Lake and Marco Baroni. Generalization without systematicity : On the compositional skills of sequence-to-sequence recurrent networks. ICML 2018
• Walk
• Walk twice
• Run
• Run twice
• Dax
• Dax twice
[[X twice]] = [[X]][[X]] [[dax]]= realiser l’action dax
23/38
Compositionnalit ´e syst ´ematique
Brenden Lake and Marco Baroni. Generalization without systematicity : On the compositional skills of sequence-to-sequence recurrent networks. ICML 2018
• Walk
• Walk twice
• Run
• Run twice
• Dax
• Dax twice
[[X twice]] = [[X]][[X]]
[[dax]]= realiser l’action dax
Test de g ´en ´eralisation
24/38
D ´ecomposition des commandes
Commandes de base :
• run→RUN
• walk→WALK
• turn left→LTURN Modificateurs :
• walk left→LTURN WALK
• run twice→RUN RUN Conjonctions :
• walk left and run twice→LTURN WALK RUN RUN
• run twice after walk left→RUN RUN LTURN WALK Simplifications :
• Pas d’ambigu¨ıt ´e de port ´e (”walk and [run twice]”)
• Pas de recursion (”walk and run” vs *”walk and run and walk”)
Infrastructure
• Entraˆınement d’un mod `ele sequence-to-sequence RNN sur 100k commandes et les s ´equences correspondantes
• Pour le test, uniquement des nouvelles commandes
• Chaque commande de test n’est utilis ´ee qu’une fois
• Le mod `ele doit ˆetre performant imm ´ediatement
• 2-layer LSTM avec 200 unit ´es par niveau, pas d’attention, 0.5 dropout
26/38
Exp ´erience 1 : R ´epartition al ´eatoire des donn ´ees d’entraˆınement et de test
Dans les donn ´ees d’entraˆınement :
• look around left twice
• look around left twiceandturn left
• jump right twice
• run twiceandjump right twice Dans le test :
• look around left twiceandjump right twice
Exp ´erience 1 : c¸a marche
28/38
Exp ´erience 2 : d ´ecoupage par le nombre d’action
Entraˆınement sur les commandes avec les s ´equences d’actions les plus courtes (max 22 actions)
• jump around left twice(16 actions)
• walk opposite right thrice(9 actions)
• jump around left twiceandwalk opposite right twice (22 actions) Test sur les commandes avec les s ´equences d’actions les plus longues (de 24 `a 48 actions)
• jump around left twiceandwalk opposite right thrice(25 actions)
Exp ´erience 2 : c¸a ne marche pas (du tout)
30/38
Exp ´erience 3 : g ´en ´eralisation de la composition de commande de base (“dax”)
Les donn ´ees d’entraˆınement contiennent toutes les commandes possibles avec “run”, “walk”, “look”, “turn left”, “turn right”
• “run”, “run twice”, “turn left and run opposite thrice”, “walk after run”, ...
Mais seulement un petit ensemble de commandes compos ´ees avec ”jump” :
• “jump”, “jump left”, “run and jump”, “jump around twice”
Le syst `eme est test ´e sur toutes les autres commandes “jump”
• jump twice
• jump left and run opposite thrice
• walk after jump
Exp ´erience 3 : beaucoup de donn ´ees sont n ´ecessaires !
32/38
Probl `eme de consultation de table
Memorize or generalize ? Searching for a compositional RNN in a haystack, Adam Liska, Germ ´an Kruszewski and Marco Baroni, AEGAP Workshop 2018
t1(00)=10 t3(00)=00
t4(t5(01))=11 t5(t4(01))=01 t2(t2(10))=00
t1(t4(t5(11)))=11 t1(t5(t1(10)))=10 Aucune intelligence, les donn ´ees sont m ´emoris ´ees, et les possibilit ´es de composition sont infinies
Probl `eme de consultation de table
Memorize or generalize ? Searching for a compositional RNN in a haystack, Adam Liska, Germ ´an Kruszewski and Marco Baroni, AEGAP Workshop 2018
t1(00)=10 t3(00)=00
t4(t5(01))=11 t5(t4(01))=01 t2(t2(10))=00
t1(t4(t5(11)))=11 t1(t5(t1(10)))=10
Aucune intelligence, les donn ´ees sont m ´emoris ´ees, et les possibilit ´es de composition sont infinies
33/38
Probl `eme de consultation de table
Memorize or generalize ? Searching for a compositional RNN in a haystack, Adam Liska, Germ ´an Kruszewski and Marco Baroni, AEGAP Workshop 2018
t1(00)=10 t3(00)=00
t4(t5(01))=11 t5(t4(01))=01 t2(t2(10))=00
t1(t4(t5(11)))=11 t1(t5(t1(10)))=10 Aucune intelligence, les donn ´ees sont m ´emoris ´ees, et les possibilit ´es de composition sont infinies
Test de la g ´en ´eralisation de la composition
Entraˆınement #1 : consultation simple des tables t1 :00.10. t4 :10.00. t301.01. ...
Entraˆınement #2 : consultation simple et compos ´ee des tables ct1t4 :00 :00. t3 :10.10. ct5t5 :01.10. ...
Test : consultation compos ´ees avec de nouvelles donn ´ees ct1t4 :01 :01. ct5t5 :00.01. ct3t2 :10.01.
34/38
Test de la g ´en ´eralisation de la composition
Entraˆınement #1 : consultation simple des tables t1 :00.10. t4 :10.00. t301.01. ...
Entraˆınement #2 : consultation simple et compos ´ee des tables ct1t4 :00 :00. t3 :10.10. ct5t5 :01.10. ...
Test : consultation compos ´ees avec de nouvelles donn ´ees ct1t4 :01 :01. ct5t5 :00.01. ct3t2 :10.01.
Test de la g ´en ´eralisation de la composition
Entraˆınement #1 : consultation simple des tables t1 :00.10. t4 :10.00. t301.01. ...
Entraˆınement #2 : consultation simple et compos ´ee des tables ct1t4 :00 :00. t3 :10.10. ct5t5 :01.10. ...
Test : consultation compos ´ees avec de nouvelles donn ´ees ct1t4 :01 :01. ct5t5 :00.01. ct3t2 :10.01.
34/38
Infrastucture
• R ´eseaux de neurones avec deux niveaux cach ´es, architecture
th ´eoriquement apte pour la composition (Recurrent 60-unit LSTM layer, 10-unit sigmoid layer)
• 1M d’exemples pour les entraˆınement des phases #1 et #2
• 128 donn ´ees conserv ´ees pour le test (2 par composition de table de premier ordre possible)
• Entraˆınement standard : r ´etro-propagation des param `etres, mise `a jour avec descente stochastique du gradient (mises `a jour parall `eles `a partir de 40 processeurs)
• Exp ´erience r ´ep ´et ´ee 50k fois avec des initialisations al ´eatoires
R ´esultat
36/38
R ´esultat
M ˆeme initialisation, autre apprentissage
R ´esultat
Et en cachant les parties compositionnelles ( ! !)
36/38
Conclusion
Conclusion 1/2
• L’approchestatistiquede la s ´emantique dela languedonne de (tr `es) bons r ´esultats
• En particulier gr ˆace auxr ´eseaux de neuronesqui sont agnostiques sur la t ˆache
• Mais leur g ´en ´eralisationne capte pas syst ´ematiquement les propri ´et ´es compositionnelles
• Lacompositionnalit ´e reste complexe pour les humains
• Un enjeu important est celui de comprendre/mod ´eliser la composition dans ces approches
• ou de simuler la compositionnalit ´e par composition de diff ´erents r ´eseaux
• ou d’utiliser en entr ´ee des donn ´ees rendant compte de ces ph ´enom `enes
37/38
Conclusion 1/2
• L’approchestatistiquede la s ´emantique dela languedonne de (tr `es) bons r ´esultats
• En particulier gr ˆace auxr ´eseaux de neuronesqui sont agnostiques sur la t ˆache
• Mais leur g ´en ´eralisationne capte pas syst ´ematiquement les propri ´et ´es compositionnelles
• Lacompositionnalit ´e reste complexe pour les humains
• Un enjeu important est celui de comprendre/mod ´eliser la composition dans ces approches
• ou de simuler la compositionnalit ´e par composition de diff ´erents r ´eseaux
• ou d’utiliser en entr ´ee des donn ´ees rendant compte de ces ph ´enom `enes
Conclusion 1/2
• L’approchestatistiquede la s ´emantique dela languedonne de (tr `es) bons r ´esultats
• En particulier gr ˆace auxr ´eseaux de neuronesqui sont agnostiques sur la t ˆache
• Mais leur g ´en ´eralisationne capte pas syst ´ematiquement les propri ´et ´es compositionnelles
• Lacompositionnalit ´e reste complexe pour les humains
• Un enjeu important est celui de comprendre/mod ´eliser la composition dans ces approches
• ou de simuler la compositionnalit ´e par composition de diff ´erents r ´eseaux
• ou d’utiliser en entr ´ee des donn ´ees rendant compte de ces ph ´enom `enes
37/38
Conclusion 1/2
• L’approchestatistiquede la s ´emantique dela languedonne de (tr `es) bons r ´esultats
• En particulier gr ˆace auxr ´eseaux de neuronesqui sont agnostiques sur la t ˆache
• Mais leur g ´en ´eralisationne capte pas syst ´ematiquement les propri ´et ´es compositionnelles
• Lacompositionnalit ´e reste complexe pour les humains
• Un enjeu important est celui de comprendre/mod ´eliser la composition dans ces approches
• ou de simuler la compositionnalit ´e par composition de diff ´erents r ´eseaux
• ou d’utiliser en entr ´ee des donn ´ees rendant compte de ces ph ´enom `enes
Conclusion 1/2
• L’approchestatistiquede la s ´emantique dela languedonne de (tr `es) bons r ´esultats
• En particulier gr ˆace auxr ´eseaux de neuronesqui sont agnostiques sur la t ˆache
• Mais leur g ´en ´eralisationne capte pas syst ´ematiquement les propri ´et ´es compositionnelles
• Lacompositionnalit ´e reste complexe pour les humains
• Un enjeu important est celui de comprendre/mod ´eliser la composition dans ces approches
• ou de simuler la compositionnalit ´e par composition de diff ´erents r ´eseaux
• ou d’utiliser en entr ´ee des donn ´ees rendant compte de ces ph ´enom `enes
37/38
Conclusion 2/2
• On calcule relativement bien sur la langue
• mais on comprend plut ˆot superficiellement
• ou tr `es pr ´ecis ´ement de choses tr `es compliqu ´ees (et uniquement celles-l `a)
Merci !