• Aucun résultat trouvé

• Pour prendre en compte certains phénomènes de dépendances lexicales, on associe à chaque constituant non plus seulement une catégorie (morpho-)syntaxique (un non-terminal) mais aussi un élément lexical (un terminal), satête lexicale.

• Les règles doivent indiquer quelle est la tête d’une partie gauche ; ce doit être soit la tête d’un non-terminal de la partie droite soit un terminal de la partie droite :

• SN[h2]DET[h1] N[h2]

• A[h1]h1 B[h2] C[h3]

• Pour prendre en compte certains phénomènes de dépendances lexicales, on associe à chaque constituant non plus seulement une catégorie (morpho-)syntaxique (un non-terminal) mais aussi un élément lexical (un terminal), satête lexicale.

• Les règles doivent indiquer quelle est la tête d’une partie gauche ; ce doit être soit la tête d’un non-terminal de la partie droite soit un terminal de la partie droite :

• SN[h2]DET[h1] N[h2]

• A[h1]h1 B[h2] C[h3]

• Pour prendre en compte certains phénomènes de dépendances lexicales, on associe à chaque constituant non plus seulement une catégorie (morpho-)syntaxique (un non-terminal) mais aussi un élément lexical (un terminal), satête lexicale.

• Les règles doivent indiquer quelle est la tête d’une partie gauche ; ce doit être soit la tête d’un non-terminal de la partie droite soit un terminal de la partie droite :

• SN[h2]DET[h1] N[h2]

• A[h1]h1 B[h2] C[h3]

• Pour prendre en compte certains phénomènes de dépendances lexicales, on associe à chaque constituant non plus seulement une catégorie (morpho-)syntaxique (un non-terminal) mais aussi un élément lexical (un terminal), satête lexicale.

• Les règles doivent indiquer quelle est la tête d’une partie gauche ; ce doit être soit la tête d’un non-terminal de la partie droite soit un terminal de la partie droite :

• SN[h2]DET[h1] N[h2]

• A[h1]h1 B[h2] C[h3]

P[voit]

• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.

• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.

• Exemple pourSN[h2]→DET[h1] N[h2]:

• SN[camion]DET[le] N[camion]

• SN[camion]DET[un] N[camion]

• SN[scooter]DET[le] N[scooter]

• SN[scooter]DET[un] N[scooter]

• ...

• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.

• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...

• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.

• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.

• Exemple pourSN[h2]→DET[h1] N[h2]:

• SN[camion]DET[le] N[camion]

• SN[camion]DET[un] N[camion]

• SN[scooter]DET[le] N[scooter]

• SN[scooter]DET[un] N[scooter]

• ...

• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.

• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...

• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.

• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.

• Exemple pourSN[h2]→DET[h1] N[h2]:

• SN[camion]DET[le] N[camion]

• SN[camion]DET[un] N[camion]

• SN[scooter]DET[le] N[scooter]

• SN[scooter]DET[un] N[scooter]

• ...

• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.

• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...

• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.

• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.

• Exemple pourSN[h2]→DET[h1] N[h2]:

• SN[camion]DET[le] N[camion]

• SN[camion]DET[un] N[camion]

• SN[scooter]DET[le] N[scooter]

• SN[scooter]DET[un] N[scooter]

• ...

• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.

• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...

• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.

• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.

• Exemple pourSN[h2]→DET[h1] N[h2]:

• SN[camion]DET[le] N[camion]

• SN[camion]DET[un] N[camion]

• SN[scooter]DET[le] N[scooter]

• SN[scooter]DET[un] N[scooter]

• ...

• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.

• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...

• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.

• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.

• Exemple pourSN[h2]→DET[h1] N[h2]:

• SN[camion]DET[le] N[camion]

• SN[camion]DET[un] N[camion]

• SN[scooter]DET[le] N[scooter]

• SN[scooter]DET[un] N[scooter]

• ...

• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.

• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...

• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.

• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.

• Exemple pourSN[h2]→DET[h1] N[h2]:

• SN[camion]DET[le] N[camion]

• SN[camion]DET[un] N[camion]

• SN[scooter]DET[le] N[scooter]

• SN[scooter]DET[un] N[scooter]

• ...

• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.

• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...

• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.

• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.

• Exemple pourSN[h2]→DET[h1] N[h2]:

• SN[camion]DET[le] N[camion]

• SN[camion]DET[un] N[camion]

• SN[scooter]DET[le] N[scooter]

• SN[scooter]DET[un] N[scooter]

• ...

• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.

• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...

• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.

• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.

• Exemple pourSN[h2]→DET[h1] N[h2]:

• SN[camion]DET[le] N[camion]

• SN[camion]DET[un] N[camion]

• SN[scooter]DET[le] N[scooter]

• SN[scooter]DET[un] N[scooter]

• ...

• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles

Documents relatifs