• Aucun résultat trouvé

Calculer sur la langue mais qu'y comprendre ?

N/A
N/A
Protected

Academic year: 2021

Partager "Calculer sur la langue mais qu'y comprendre ?"

Copied!
103
0
0

Texte intégral

(1)

HAL Id: hal-01941846

https://hal.inria.fr/hal-01941846

Submitted on 2 Dec 2018

HAL

is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire

HAL, est

destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Calculer sur la langue mais qu’y comprendre ?

Maxime Amblard

To cite this version:

Maxime Amblard. Calculer sur la langue mais qu’y comprendre ?. Colloque Cathy Dufour, Nov 2018,

Nancy, France. �hal-01941846�

(2)

Calculer sur la langue mais qu’y comprendre ? Colloque Cathy Dufour

Maxime Amblard 14 novembre 2018

(3)

Plan

Calculer sur la langue

Mod ´eliser formellement le sens

Mod ´eliser stochastiquement le sens

Compositionnalit ´e dans les r ´eseaux de neurones

Conclusion

2/38

(4)

Calculer sur la langue

(5)

Introduction

1. L’IA s’impose comme un enjeu avec des domaines et des m ´ethodes 2. Le traitement de la langue (natural language) peut ˆetre inclus dans l’IA

1

3. Volont ´e decalculersur la langue pour produire des repr ´esentations et des outils

4. Volont ´e d’yinclureles propri ´et ´es de la langue (i.e.la linguistique)

1.

On se souviendra que le traitement de la langue est ant ´erieur `a l’IA, mais comme aujourd’hui on utilise les m ˆemes outils et que le terme IA a gagn ´e, on ne pol ´emiquera par sur l’inclusion du TAL dans l’IA ou de l’IA dans le TAL.

3/38

(6)

Introduction

1. L’IA s’impose comme un enjeu avec des domaines et des m ´ethodes 2. Le traitement de la langue (natural language) peut ˆetre inclus dans l’IA1

3. Volont ´e decalculersur la langue pour produire des repr ´esentations et des outils

4. Volont ´e d’yinclureles propri ´et ´es de la langue (i.e.la linguistique)

1. On se souviendra que le traitement de la langue est ant ´erieur `a l’IA, mais comme aujourd’hui on utilise les m ˆemes outils et que le terme IA a gagn ´e, on ne pol ´emiquera par sur l’inclusion du TAL dans l’IA ou de l’IA dans le TAL.

(7)

Introduction

1. L’IA s’impose comme un enjeu avec des domaines et des m ´ethodes 2. Le traitement de la langue (natural language) peut ˆetre inclus dans l’IA1 3. Volont ´e decalculersur la langue pour produire des repr ´esentations et

des outils

4. Volont ´e d’yinclureles propri ´et ´es de la langue (i.e.la linguistique)

1. On se souviendra que le traitement de la langue est ant ´erieur `a l’IA, mais comme aujourd’hui on utilise les m ˆemes outils et que le terme IA a gagn ´e, on ne pol ´emiquera par sur l’inclusion du TAL dans l’IA ou de l’IA dans le TAL.

3/38

(8)

Introduction

1. L’IA s’impose comme un enjeu avec des domaines et des m ´ethodes 2. Le traitement de la langue (natural language) peut ˆetre inclus dans l’IA1 3. Volont ´e decalculersur la langue pour produire des repr ´esentations et

des outils

4. Volont ´e d’yinclureles propri ´et ´es de la langue (i.e.la linguistique)

1. On se souviendra que le traitement de la langue est ant ´erieur `a l’IA, mais comme aujourd’hui on utilise les m ˆemes outils et que le terme IA a gagn ´e, on ne pol ´emiquera par sur l’inclusion du TAL dans l’IA ou de l’IA dans le TAL.

(9)

Deux points de vue

Calculeretinclure la linguistique

• Natural Language Processing (NLP)

Traitement Automatique des Langues (TAL)

engineering, r ´esolution de t ˆaches, approche exp ´erimentale par l’ ´evaluation

• Computational Linguistics

Linguistique informatique

mod `eles explicatifs, validation par les donn ´ees

4/38

(10)

Deux points de vue

Calculeretinclure la linguistique

• Natural Language Processing (NLP)

Traitement Automatique des Langues (TAL)

engineering, r ´esolution de t ˆaches, approche exp ´erimentale par l’ ´evaluation

• Computational Linguistics

Linguistique informatique

mod `eles explicatifs, validation par les donn ´ees

(11)

Deux points de vue

Calculeretinclure la linguistique

• Natural Language Processing (NLP)

Traitement Automatique des Langues (TAL) engineering, r ´esolution de t ˆaches, approche exp ´erimentale par

l’ ´evaluation

• Computational Linguistics

Linguistique informatique mod `eles explicatifs, validation par les donn ´ees

4/38

(12)

Calculer sur la langue

(13)

Contexte

Mod ´elisation de la langue naturelle :

• Analyseoug ´en ´eration?

• Deux paradigmes : Paradigme symbolique

(Grammaires, lexiques, syst `emes `a base de r `egles) Paradigme stochastique

(Machine learning, r ´eseau de neurones)

6/38

(14)

Contexte

Mod ´elisation de la langue naturelle :

• Analyseoug ´en ´eration?

• Deux paradigmes : Paradigme symbolique

(Grammaires, lexiques, syst `emes `a base de r `egles) Paradigme stochastique

(Machine learning, r ´eseau de neurones)

(15)

O `u et pour quoi faire ?

O `u :

• mails, SMS, Twitter, Facebook, commentaires, blogs, articles, pages web, ...

Pour quoi faire :

• interface humain-machine, dialogues automatiques

• traduction automatique, analyse d’opinion

• g ´en ´eration de documents, r ´esum ´e

• Watson !

• recherche d’information, repr ´esentation de l’information Sous-domaines tr `es riches : m ´edical, l ´egal, champs techniques

7/38

(16)

O `u et pour quoi faire ?

O `u :

• mails, SMS, Twitter, Facebook, commentaires, blogs, articles, pages web, ...

Pour quoi faire :

• interface humain-machine, dialogues automatiques

• traduction automatique, analyse d’opinion

• g ´en ´eration de documents, r ´esum ´e

• Watson !

• recherche d’information, repr ´esentation de l’information Sous-domaines tr `es riches : m ´edical, l ´egal, champs techniques

(17)

vs

8/38

(18)

Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es

• phonologie

Ginette Garcin ´ecouter

• morphologie

autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?

• syntaxe

Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture

• s ´emantique

La belle ferme la porte

´etoile : c ´el ´ebrit ´e ou astre ?

• pragmatique

La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece

(19)

Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es

• phonologie Ginette Garcin ´ecouter

• morphologie

autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?

• syntaxe

Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture

• s ´emantique

La belle ferme la porte

´etoile : c ´el ´ebrit ´e ou astre ?

• pragmatique

La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece

9/38

(20)

Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es

• phonologie

Ginette Garcin ´ecouter

• morphologie

autossa = dans l’auto autossaniko = dans mon auto

la : pronom, nom ou d ´eterminant ?

• syntaxe

Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture

• s ´emantique

La belle ferme la porte

´etoile : c ´el ´ebrit ´e ou astre ?

• pragmatique

La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece

(21)

Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es

• phonologie

Ginette Garcin ´ecouter

• morphologie

autossa = dans l’auto autossaniko = dans mon auto

la : pronom, nom ou d ´eterminant ?

• syntaxe

Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture

• s ´emantique

La belle ferme la porte

´etoile : c ´el ´ebrit ´e ou astre ?

• pragmatique

La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece

9/38

(22)

Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es

• phonologie

Ginette Garcin ´ecouter

• morphologie

autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?

• syntaxe

Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope)

Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture

• s ´emantique

La belle ferme la porte

´etoile : c ´el ´ebrit ´e ou astre ?

• pragmatique

La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece

(23)

Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es

• phonologie

Ginette Garcin ´ecouter

• morphologie

autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?

• syntaxe

Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope)

Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture

• s ´emantique

La belle ferme la porte

´etoile : c ´el ´ebrit ´e ou astre ?

• pragmatique

La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece

9/38

(24)

Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es

• phonologie

Ginette Garcin ´ecouter

• morphologie

autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?

• syntaxe

Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture

• s ´emantique

La belle ferme la porte

´etoile : c ´el ´ebrit ´e ou astre ?

• pragmatique

La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece

(25)

Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es

• phonologie

Ginette Garcin ´ecouter

• morphologie

autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?

• syntaxe

Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture

• s ´emantique

La belle ferme la porte

´etoile : c ´el ´ebrit ´e ou astre ?

• pragmatique

La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece

9/38

(26)

Mod ´eliser la langue = g ´erer les ambigu¨ıt ´es

• phonologie

Ginette Garcin ´ecouter

• morphologie

autossa = dans l’auto autossaniko = dans mon auto la : pronom, nom ou d ´eterminant ?

• syntaxe

Jean regarde (la fille avec un t ´elescope) Jean regarde (la fille) (avec un t ´elescope) Jean pense que Paul croit que Guillaume dit qu’il conduira la voiture

• s ´emantique

La belle ferme la porte

´etoile : c ´el ´ebrit ´e ou astre ?

• pragmatique

La pi `ece est dans le porte-monnaie Le porte-monnaie est dans la pi `ece

(27)

Mod ´eliser formellement le sens

(28)

Calcul s ´emantique

LOGIQUE

LANGAGE

N. Chomsky

G. Frege R. Montague

A. Tarski

-

-

? 6

? 6 MODELE`

MONDE

Principe de compositionnalit ´e Satisfiabilit ´e

Linguistique computationnelle S ´emantique computationnelle

(29)

Calcul s ´emantique

LOGIQUE

LANGAGE

N. Chomsky

G. Frege

R. Montague

A. Tarski

-

-

? 6

? 6 MODELE`

MONDE

Principe de compositionnalit ´e

Satisfiabilit ´e

Linguistique computationnelle S ´emantique computationnelle

10/38

(30)

Calcul s ´emantique

LOGIQUE

LANGAGE

N. Chomsky

G. Frege

R. Montague

A. Tarski

-

-

? 6

? 6 MODELE`

MONDE

Principe de compositionnalit ´e Satisfiabilit ´e

Linguistique computationnelle S ´emantique computationnelle

(31)

Calcul s ´emantique

LOGIQUE

LANGAGE N. Chomsky

G. Frege

R. Montague

A. Tarski

-

-

? 6

? 6 MODELE`

MONDE

Principe de compositionnalit ´e Satisfiabilit ´e

Linguistique computationnelle

S ´emantique computationnelle

10/38

(32)

Calcul s ´emantique

LOGIQUE

LANGAGE N. Chomsky

G. Frege R. Montague

A. Tarski

-

-

? 6

? 6 MODELE`

MONDE

Principe de compositionnalit ´e Satisfiabilit ´e

Linguistique computationnelle

(33)

Semantique

• Semantique

• Compositionnalit ´e(Frege)

Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas

compl `etement

• Approches logique(Montague) (1) John loves Mary

love(John,Mary)

• Comment utiliser ces repr ´esentations ?

• Utilit ´e de ces repr ´esentations ?

(2) If a farmer owns a donkey, he beats it

∀x∀y.((farmerxdonkeyyownx y)beatx y)

11/38

(34)

Semantique

• Semantique

• Compositionnalit ´e(Frege)

Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas

compl `etement

• Approches logique(Montague) (1) John loves Mary

love(John,Mary)

• Comment utiliser ces repr ´esentations ?

• Utilit ´e de ces repr ´esentations ?

(2) If a farmer owns a donkey, he beats it

∀x∀y.((farmerxdonkeyyownx y)beatx y)

(35)

Semantique

• Semantique

• Compositionnalit ´e(Frege)

Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas

compl `etement

• Approches logique(Montague)

(1) John loves Mary

love(John,Mary)

• Comment utiliser ces repr ´esentations ?

• Utilit ´e de ces repr ´esentations ?

(2) If a farmer owns a donkey, he beats it

∀x∀y.((farmerxdonkeyyownx y)beatx y)

11/38

(36)

Semantique

• Semantique

• Compositionnalit ´e(Frege)

Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas

compl `etement

• Approches logique(Montague) (1) John loves Mary

love(John,Mary)

• Comment utiliser ces repr ´esentations ?

• Utilit ´e de ces repr ´esentations ?

(2) If a farmer owns a donkey, he beats it

∀x∀y.((farmerxdonkeyyownx y)beatx y)

(37)

Semantique

• Semantique

• Compositionnalit ´e(Frege)

Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas

compl `etement

• Approches logique(Montague) (1) John loves Mary

love(John,Mary)

• Comment utiliser ces repr ´esentations ?

• Utilit ´e de ces repr ´esentations ?

(2) If a farmer owns a donkey, he beats it

∀x∀y.((farmerxdonkeyyownx y)beatx y)

11/38

(38)

Semantique

• Semantique

• Compositionnalit ´e(Frege)

Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas

compl `etement

• Approches logique(Montague) (1) John loves Mary

love(John,Mary)

• Comment utiliser ces repr ´esentations ?

• Utilit ´e de ces repr ´esentations ?

(2) If a farmer owns a donkey, he beats it

∀x∀y.((farmerxdonkeyyownx y)beatx y)

(39)

Semantique

• Semantique

• Compositionnalit ´e(Frege)

Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas

compl `etement

• Approches logique(Montague) (1) John loves Mary

love(John,Mary)

• Comment utiliser ces repr ´esentations ?

• Utilit ´e de ces repr ´esentations ?

(2) If a farmer owns a donkey, he beats it

∀x∀y.((farmerxdonkeyyownx y)beatx y)

11/38

(40)

Semantique

• Semantique

• Compositionnalit ´e(Frege)

Le sens d’une expression complexe est la composition du sens de ses parties Rq : La langue est massivement compositionnelle bien qu’elle ne le soit pas

compl `etement

• Approches logique(Montague) (1) John loves Mary

love(John,Mary)

• Comment utiliser ces repr ´esentations ?

• Utilit ´e de ces repr ´esentations ?

(2) If a farmer owns a donkey, he beats it

∀x∀y.((farmerxdonkeyyownx y)beatx y)

(41)

Repr ´esentation DRT (KAMP et REYLE 1993) et SDRT (ASHER et LASCA-

RIDES2003)

Old mathematicians never die ; they just lose some of their functions.

An engineer thinks that his equations are an approximation to reality. A physicist thinks reality is an approximation to his equations. A mathematician doesn’t care.

12/38

(42)

Repr ´esentation DRT (KAMP et REYLE 1993) et SDRT (ASHER et LASCA-

RIDES2003)

Old mathematicians never die ; they just lose some of their functions.

An engineer thinks that his equations are an approximation to reality. A physicist thinks reality is an approximation to his equations. A mathematician doesn’t care.

(43)

Repr ´esentation DRT (KAMP et REYLE 1993) et SDRT (ASHER et LASCA-

RIDES2003)

Old mathematicians never die ; they just lose some of their functions.

An engineer thinks that his equations are an approximation to reality. A physicist thinks reality is an approximation to his equations. A mathematician doesn’t care.

12/38

(44)

Repr ´esentation DRT (KAMP et REYLE 1993) et SDRT (ASHER et LASCA-

RIDES2003)

Old mathematicians never die ; they just lose some of their functions.

An engineer thinks that his equations are an approximation to reality.

A physicist thinks reality is an approximation to his equations.

A mathematician doesn’t care.

(45)

Repr ´esentation DRT (KAMP et REYLE 1993) et SDRT (ASHER et LASCA-

RIDES2003)

Old mathematicians never die ; they just lose some of their functions.

An engineer thinks that his equations are an approximation to reality.

A physicist thinks reality is an approximation to his equations.

A mathematician doesn’t care.

12/38

(46)

Conclusion partielle

• Nombreuses strat ´egies pourmod ´eliser finementles ph ´enom `enes de sens dans les ´enonc ´es

• Bas ´ees sur lacompositionnalit ´e

Mais

• Mod ´eliser (parfaitement) un ph ´enom `ene particuliern’est pas comprendre le sensg ´en ´eral de l’ ´enonc ´e

• Difficult ´e d’avoir une repr ´esentation compl `ete du sens (ce que fait tr `es bien la langue)

• Couverture tr `es limit ´ee

• R ´ealit ´e cognitive, r ´ealit ´e conceptuelle ? ...

(47)

Conclusion partielle

• Nombreuses strat ´egies pourmod ´eliser finementles ph ´enom `enes de sens dans les ´enonc ´es

• Bas ´ees sur lacompositionnalit ´e Mais

• Mod ´eliser (parfaitement) un ph ´enom `ene particuliern’est pas comprendre le sensg ´en ´eral de l’ ´enonc ´e

• Difficult ´e d’avoir une repr ´esentation compl `ete du sens (ce que fait tr `es bien la langue)

• Couverture tr `es limit ´ee

• R ´ealit ´e cognitive, r ´ealit ´e conceptuelle ? ...

13/38

(48)

Conclusion partielle

• Nombreuses strat ´egies pourmod ´eliser finementles ph ´enom `enes de sens dans les ´enonc ´es

• Bas ´ees sur lacompositionnalit ´e Mais

• Mod ´eliser (parfaitement) un ph ´enom `ene particuliern’est pas comprendre le sensg ´en ´eral de l’ ´enonc ´e

• Difficult ´e d’avoir une repr ´esentation compl `ete du sens (ce que fait tr `es bien la langue)

• Couverture tr `es limit ´ee

• R ´ealit ´e cognitive, r ´ealit ´e conceptuelle ? ...

(49)

Conclusion partielle

• Nombreuses strat ´egies pourmod ´eliser finementles ph ´enom `enes de sens dans les ´enonc ´es

• Bas ´ees sur lacompositionnalit ´e Mais

• Mod ´eliser (parfaitement) un ph ´enom `ene particuliern’est pas comprendre le sensg ´en ´eral de l’ ´enonc ´e

• Difficult ´e d’avoir une repr ´esentation compl `ete du sens (ce que fait tr `es bien la langue)

• Couverture tr `es limit ´ee

• R ´ealit ´e cognitive, r ´ealit ´e conceptuelle ? ...

13/38

(50)

Mod ´eliser stochastiquement le sens

(51)

S ´emantique distributionnelle

Des mots apparaissant dans contextes similaires ont des sens proches (Harris, 1954)

On peut ´etudier leur synonymie ou leursimilarit ´e

Fr ´equences des cooccurences→Mod `eles distributionnels

Les mots sont repr ´esent ´es par des valeurs r ´eelles dans un espace avec peu de dimensions

14/38

(52)

S ´emantique distributionnelle

Des mots apparaissant dans contextes similaires ont des sens proches (Harris, 1954)

On peut ´etudier leur synonymie ou leursimilarit ´e

Fr ´equences des cooccurences→Mod `eles distributionnels

Les mots sont repr ´esent ´es par des valeurs r ´eelles dans un espace avec peu de dimensions

(53)

S ´emantique distributionnelle

Des mots apparaissant dans contextes similaires ont des sens proches (Harris, 1954)

On peut ´etudier leur synonymie ou leursimilarit ´e

Fr ´equences des cooccurences→Mod `eles distributionnels

Les mots sont repr ´esent ´es par des valeurs r ´eelles dans un espace avec peu de dimensions

14/38

(54)

S ´emantique distributionnelle

Des mots apparaissant dans contextes similaires ont des sens proches (Harris, 1954)

On peut ´etudier leur synonymie ou leursimilarit ´e

Fr ´equences des cooccurences→Mod `eles distributionnels

Les mots sont repr ´esent ´es par des valeurs r ´eelles dans un espace avec peu de dimensions

(55)

S ´emantique distributionnelle

Des mots apparaissant dans contextes similaires ont des sens proches (Harris, 1954)

On peut ´etudier leur synonymie ou leursimilarit ´e

Fr ´equences des cooccurences→Mod `eles distributionnels

Les mots sont repr ´esent ´es par des valeurs r ´eelles dans un espace avec peu de dimensions

14/38

(56)

Plongements lexicaux

L’int ´er ˆet est d’avoir des mots/sens proches dans l’espace de repr ´esentation

• Score de similarit ´e entre deux mots (cosinus)

• Voisins de chat : chien, chaton, lapin, oiseau etc.

• Bas ´e sur le comptage : extraire lesfr ´equences de cooccurrenced’un corpus

• Bas ´e sur la pr ´ediction : induire des param `etres bas ´es sur lapr ´ediction du mot correct

Au d ´epart, deux m ´ethodes diff ´erentes, o `u l’approche fond ´ee sur la pr ´ediction donnait de meilleurs r ´esultats

Par la suite, preuves qu’elles sont r ´eellement ´equivalentes ou assez semblables

(57)

Plongements lexicaux

L’int ´er ˆet est d’avoir des mots/sens proches dans l’espace de repr ´esentation

• Score de similarit ´e entre deux mots (cosinus)

• Voisins de chat : chien, chaton, lapin, oiseau etc.

• Bas ´e sur le comptage : extraire lesfr ´equences de cooccurrenced’un corpus

• Bas ´e sur la pr ´ediction : induire des param `etres bas ´es sur lapr ´ediction du mot correct

Au d ´epart, deux m ´ethodes diff ´erentes, o `u l’approche fond ´ee sur la pr ´ediction donnait de meilleurs r ´esultats

Par la suite, preuves qu’elles sont r ´eellement ´equivalentes ou assez semblables

15/38

(58)

Plongements lexicaux

L’int ´er ˆet est d’avoir des mots/sens proches dans l’espace de repr ´esentation

• Score de similarit ´e entre deux mots (cosinus)

• Voisins de chat : chien, chaton, lapin, oiseau etc.

• Bas ´e sur le comptage : extraire lesfr ´equences de cooccurrenced’un corpus

• Bas ´e sur la pr ´ediction : induire des param `etres bas ´es sur lapr ´ediction du mot correct

Au d ´epart, deux m ´ethodes diff ´erentes, o `u l’approche fond ´ee sur la pr ´ediction donnait de meilleurs r ´esultats

Par la suite, preuves qu’elles sont r ´eellement ´equivalentes ou assez semblables

(59)

Plongements lexicaux

L’int ´er ˆet est d’avoir des mots/sens proches dans l’espace de repr ´esentation

• Score de similarit ´e entre deux mots (cosinus)

• Voisins de chat : chien, chaton, lapin, oiseau etc.

• Bas ´e sur le comptage : extraire lesfr ´equences de cooccurrenced’un corpus

• Bas ´e sur la pr ´ediction : induire des param `etres bas ´es sur lapr ´ediction du mot correct

Au d ´epart, deux m ´ethodes diff ´erentes, o `u l’approche fond ´ee sur la pr ´ediction donnait de meilleurs r ´esultats

Par la suite, preuves qu’elles sont r ´eellement ´equivalentes ou assez semblables

15/38

(60)
(61)

16/38

(62)
(63)

16/38

(64)

Calcul de l’analogie

a is to b as c is to d

homme roi - femme reine

autriche vienne - allemagne berlin

´ecrivain livre - po `ete po `eme

france Emmanuel Macron - ´etats-unis Trump

droite LR - gauche ps

(65)

Calcul de l’analogie

a is to b as c is to d

homme roi - femme reine

autriche vienne - allemagne berlin

´ecrivain livre - po `ete po `eme

france Emmanuel Macron - ´etats-unis Trump

droite LR - gauche ps

17/38

(66)

Plongements lexicaux

(67)

Plongements lexicaux : des param `etres

• Objectif de l’entraˆınement

• Choix des contextes (sac de mots, syntaxe, corpus parall `ele)

• Taille de la fen ˆetre (petite, phrase, paragraphe, dynamique)

• Dirig ´e

• Lemmatisation, normalisation, mots d’arr ˆet. . .

19/38

(68)

En pratique

• Les plongements de mots sont souvent utilis ´es pour l’entraˆınement

• Non supervis ´e : bas ´e sur du texte brut (donc possibilit ´e d’utiliser de nombreuses donn ´ees)

• Algorithmes rapides et disponibles

• Le mod `ele peut ˆetre raffin ´e pour une t ˆache

(69)

En pratique

• Les plongements de mots sont souvent utilis ´es pour l’entraˆınement

• Non supervis ´e : bas ´e sur du texte brut (donc possibilit ´e d’utiliser de nombreuses donn ´ees)

• Algorithmes rapides et disponibles

• Le mod `ele peut ˆetre raffin ´e pour une t ˆache

20/38

(70)

Plongements lexicaux

Pour

• Faciles `a manipuler (si on les entraˆıne sur des corpus ad ´equats)

• Bons r ´esultats rapidement(bonne couverture)

• Adapt ´e pour le Deep Learning Contre

• Difficile d’interpr ´eter les r ´esultats

• Difficult ´es de contr ˆoler les param `etres du mod `ele

(71)

Compositionnalit ´e dans les r ´eseaux de neurones

(72)

Et la compositionnalit ´e ?

Travaux r ´ecents de FAIR sur la compositionnali ´e dans les r ´eseaux de neurones ( ! !)

(73)

Compositionnalit ´e syst ´ematique

Brenden Lake and Marco Baroni. Generalization without systematicity : On the compositional skills of sequence-to-sequence recurrent networks. ICML 2018

• Walk

• Walk twice

• Run

• Run twice

• Dax

• Dax twice

[[X twice]] = [[X]][[X]] [[dax]]= realiser l’action dax

23/38

(74)

Compositionnalit ´e syst ´ematique

Brenden Lake and Marco Baroni. Generalization without systematicity : On the compositional skills of sequence-to-sequence recurrent networks. ICML 2018

• Walk

• Walk twice

• Run

• Run twice

• Dax

• Dax twice

[[X twice]] = [[X]][[X]] [[dax]]= realiser l’action dax

(75)

Compositionnalit ´e syst ´ematique

Brenden Lake and Marco Baroni. Generalization without systematicity : On the compositional skills of sequence-to-sequence recurrent networks. ICML 2018

• Walk

• Walk twice

• Run

• Run twice

• Dax

• Dax twice

[[X twice]] = [[X]][[X]] [[dax]]= realiser l’action dax

23/38

(76)

Compositionnalit ´e syst ´ematique

Brenden Lake and Marco Baroni. Generalization without systematicity : On the compositional skills of sequence-to-sequence recurrent networks. ICML 2018

• Walk

• Walk twice

• Run

• Run twice

• Dax

• Dax twice

[[X twice]] = [[X]][[X]]

[[dax]]= realiser l’action dax

(77)

Test de g ´en ´eralisation

24/38

(78)

D ´ecomposition des commandes

Commandes de base :

• run→RUN

• walk→WALK

• turn left→LTURN Modificateurs :

• walk left→LTURN WALK

• run twice→RUN RUN Conjonctions :

• walk left and run twice→LTURN WALK RUN RUN

• run twice after walk left→RUN RUN LTURN WALK Simplifications :

• Pas d’ambigu¨ıt ´e de port ´e (”walk and [run twice]”)

• Pas de recursion (”walk and run” vs *”walk and run and walk”)

(79)

Infrastructure

• Entraˆınement d’un mod `ele sequence-to-sequence RNN sur 100k commandes et les s ´equences correspondantes

• Pour le test, uniquement des nouvelles commandes

• Chaque commande de test n’est utilis ´ee qu’une fois

• Le mod `ele doit ˆetre performant imm ´ediatement

• 2-layer LSTM avec 200 unit ´es par niveau, pas d’attention, 0.5 dropout

26/38

(80)

Exp ´erience 1 : R ´epartition al ´eatoire des donn ´ees d’entraˆınement et de test

Dans les donn ´ees d’entraˆınement :

• look around left twice

• look around left twiceandturn left

• jump right twice

• run twiceandjump right twice Dans le test :

• look around left twiceandjump right twice

(81)

Exp ´erience 1 : c¸a marche

28/38

(82)

Exp ´erience 2 : d ´ecoupage par le nombre d’action

Entraˆınement sur les commandes avec les s ´equences d’actions les plus courtes (max 22 actions)

• jump around left twice(16 actions)

• walk opposite right thrice(9 actions)

• jump around left twiceandwalk opposite right twice (22 actions) Test sur les commandes avec les s ´equences d’actions les plus longues (de 24 `a 48 actions)

• jump around left twiceandwalk opposite right thrice(25 actions)

(83)

Exp ´erience 2 : c¸a ne marche pas (du tout)

30/38

(84)

Exp ´erience 3 : g ´en ´eralisation de la composition de commande de base (“dax”)

Les donn ´ees d’entraˆınement contiennent toutes les commandes possibles avec “run”, “walk”, “look”, “turn left”, “turn right”

• “run”, “run twice”, “turn left and run opposite thrice”, “walk after run”, ...

Mais seulement un petit ensemble de commandes compos ´ees avec ”jump” :

• “jump”, “jump left”, “run and jump”, “jump around twice”

Le syst `eme est test ´e sur toutes les autres commandes “jump”

• jump twice

• jump left and run opposite thrice

• walk after jump

(85)

Exp ´erience 3 : beaucoup de donn ´ees sont n ´ecessaires !

32/38

(86)

Probl `eme de consultation de table

Memorize or generalize ? Searching for a compositional RNN in a haystack, Adam Liska, Germ ´an Kruszewski and Marco Baroni, AEGAP Workshop 2018

t1(00)=10 t3(00)=00

t4(t5(01))=11 t5(t4(01))=01 t2(t2(10))=00

t1(t4(t5(11)))=11 t1(t5(t1(10)))=10 Aucune intelligence, les donn ´ees sont m ´emoris ´ees, et les possibilit ´es de composition sont infinies

(87)

Probl `eme de consultation de table

Memorize or generalize ? Searching for a compositional RNN in a haystack, Adam Liska, Germ ´an Kruszewski and Marco Baroni, AEGAP Workshop 2018

t1(00)=10 t3(00)=00

t4(t5(01))=11 t5(t4(01))=01 t2(t2(10))=00

t1(t4(t5(11)))=11 t1(t5(t1(10)))=10

Aucune intelligence, les donn ´ees sont m ´emoris ´ees, et les possibilit ´es de composition sont infinies

33/38

(88)

Probl `eme de consultation de table

Memorize or generalize ? Searching for a compositional RNN in a haystack, Adam Liska, Germ ´an Kruszewski and Marco Baroni, AEGAP Workshop 2018

t1(00)=10 t3(00)=00

t4(t5(01))=11 t5(t4(01))=01 t2(t2(10))=00

t1(t4(t5(11)))=11 t1(t5(t1(10)))=10 Aucune intelligence, les donn ´ees sont m ´emoris ´ees, et les possibilit ´es de composition sont infinies

(89)

Test de la g ´en ´eralisation de la composition

Entraˆınement #1 : consultation simple des tables t1 :00.10. t4 :10.00. t301.01. ...

Entraˆınement #2 : consultation simple et compos ´ee des tables ct1t4 :00 :00. t3 :10.10. ct5t5 :01.10. ...

Test : consultation compos ´ees avec de nouvelles donn ´ees ct1t4 :01 :01. ct5t5 :00.01. ct3t2 :10.01.

34/38

(90)

Test de la g ´en ´eralisation de la composition

Entraˆınement #1 : consultation simple des tables t1 :00.10. t4 :10.00. t301.01. ...

Entraˆınement #2 : consultation simple et compos ´ee des tables ct1t4 :00 :00. t3 :10.10. ct5t5 :01.10. ...

Test : consultation compos ´ees avec de nouvelles donn ´ees ct1t4 :01 :01. ct5t5 :00.01. ct3t2 :10.01.

(91)

Test de la g ´en ´eralisation de la composition

Entraˆınement #1 : consultation simple des tables t1 :00.10. t4 :10.00. t301.01. ...

Entraˆınement #2 : consultation simple et compos ´ee des tables ct1t4 :00 :00. t3 :10.10. ct5t5 :01.10. ...

Test : consultation compos ´ees avec de nouvelles donn ´ees ct1t4 :01 :01. ct5t5 :00.01. ct3t2 :10.01.

34/38

(92)

Infrastucture

• R ´eseaux de neurones avec deux niveaux cach ´es, architecture

th ´eoriquement apte pour la composition (Recurrent 60-unit LSTM layer, 10-unit sigmoid layer)

• 1M d’exemples pour les entraˆınement des phases #1 et #2

• 128 donn ´ees conserv ´ees pour le test (2 par composition de table de premier ordre possible)

• Entraˆınement standard : r ´etro-propagation des param `etres, mise `a jour avec descente stochastique du gradient (mises `a jour parall `eles `a partir de 40 processeurs)

• Exp ´erience r ´ep ´et ´ee 50k fois avec des initialisations al ´eatoires

(93)

R ´esultat

36/38

(94)

R ´esultat

M ˆeme initialisation, autre apprentissage

(95)

R ´esultat

Et en cachant les parties compositionnelles ( ! !)

36/38

(96)

Conclusion

(97)

Conclusion 1/2

• L’approchestatistiquede la s ´emantique dela languedonne de (tr `es) bons r ´esultats

• En particulier gr ˆace auxr ´eseaux de neuronesqui sont agnostiques sur la t ˆache

• Mais leur g ´en ´eralisationne capte pas syst ´ematiquement les propri ´et ´es compositionnelles

• Lacompositionnalit ´e reste complexe pour les humains

• Un enjeu important est celui de comprendre/mod ´eliser la composition dans ces approches

• ou de simuler la compositionnalit ´e par composition de diff ´erents r ´eseaux

• ou d’utiliser en entr ´ee des donn ´ees rendant compte de ces ph ´enom `enes

37/38

(98)

Conclusion 1/2

• L’approchestatistiquede la s ´emantique dela languedonne de (tr `es) bons r ´esultats

• En particulier gr ˆace auxr ´eseaux de neuronesqui sont agnostiques sur la t ˆache

• Mais leur g ´en ´eralisationne capte pas syst ´ematiquement les propri ´et ´es compositionnelles

• Lacompositionnalit ´e reste complexe pour les humains

• Un enjeu important est celui de comprendre/mod ´eliser la composition dans ces approches

• ou de simuler la compositionnalit ´e par composition de diff ´erents r ´eseaux

• ou d’utiliser en entr ´ee des donn ´ees rendant compte de ces ph ´enom `enes

(99)

Conclusion 1/2

• L’approchestatistiquede la s ´emantique dela languedonne de (tr `es) bons r ´esultats

• En particulier gr ˆace auxr ´eseaux de neuronesqui sont agnostiques sur la t ˆache

• Mais leur g ´en ´eralisationne capte pas syst ´ematiquement les propri ´et ´es compositionnelles

• Lacompositionnalit ´e reste complexe pour les humains

• Un enjeu important est celui de comprendre/mod ´eliser la composition dans ces approches

• ou de simuler la compositionnalit ´e par composition de diff ´erents r ´eseaux

• ou d’utiliser en entr ´ee des donn ´ees rendant compte de ces ph ´enom `enes

37/38

(100)

Conclusion 1/2

• L’approchestatistiquede la s ´emantique dela languedonne de (tr `es) bons r ´esultats

• En particulier gr ˆace auxr ´eseaux de neuronesqui sont agnostiques sur la t ˆache

• Mais leur g ´en ´eralisationne capte pas syst ´ematiquement les propri ´et ´es compositionnelles

• Lacompositionnalit ´e reste complexe pour les humains

• Un enjeu important est celui de comprendre/mod ´eliser la composition dans ces approches

• ou de simuler la compositionnalit ´e par composition de diff ´erents r ´eseaux

• ou d’utiliser en entr ´ee des donn ´ees rendant compte de ces ph ´enom `enes

(101)

Conclusion 1/2

• L’approchestatistiquede la s ´emantique dela languedonne de (tr `es) bons r ´esultats

• En particulier gr ˆace auxr ´eseaux de neuronesqui sont agnostiques sur la t ˆache

• Mais leur g ´en ´eralisationne capte pas syst ´ematiquement les propri ´et ´es compositionnelles

• Lacompositionnalit ´e reste complexe pour les humains

• Un enjeu important est celui de comprendre/mod ´eliser la composition dans ces approches

• ou de simuler la compositionnalit ´e par composition de diff ´erents r ´eseaux

• ou d’utiliser en entr ´ee des donn ´ees rendant compte de ces ph ´enom `enes

37/38

(102)

Conclusion 2/2

• On calcule relativement bien sur la langue

• mais on comprend plut ˆot superficiellement

• ou tr `es pr ´ecis ´ement de choses tr `es compliqu ´ees (et uniquement celles-l `a)

(103)

Merci !

Références

Documents relatifs

« Toute conscience me paraît actuellement, à la fois comme se constituant elle-même et dans le même temps comme conscience de l’autre et comme conscience pour l’autre, ayant

Mais je sais, moi narrateur, je sais qu'il est ce qu'il est parce que je ne peux pas penser autrement (dans ma pensée qui est la pensée, et qui attendait cela pour devenir; mais

“ Jean-Paul Pellaton, prince des lettres jurassiennes ”, dans Le Quotidien Jurassien, 29 avril 2000 et dans CLP-SAB, 2/2000. J EAN -P AUL P ELLATON REPOND AU QUESTIONNAIRE DE

Ils sont prêts à s'engager dans l'armée et à faire la guerre contre d'autres pays pour défendre leurs idées. Ils participent aux clubs (les plus connus sont le club des Cordeliers

Pour cet ancien médecin-chef du centre Henri-Rousselle de l’hôpital Sainte-Anne, psychiatre, psychanalyste, membre du conseil d’administration de la Société française

Mais il fallut rectifier en effet : Planchon ayant adressé des pucerons au Docteur Signoret, entomologiste parisien, celui-ci répondit qu'il avait reconnu dans

Marglouf est au plafond assise sur une mouche, pour remplacer l'ampoule du plafonnier?. Glimbouille la regarde,

plus loin apparemment que ce qui nous fait cortège mais dans le même.. et ne progressant dans le bleu