• Pour prendre en compte certains phénomènes de dépendances lexicales, on associe à chaque constituant non plus seulement une catégorie (morpho-)syntaxique (un non-terminal) mais aussi un élément lexical (un terminal), satête lexicale.
• Les règles doivent indiquer quelle est la tête d’une partie gauche ; ce doit être soit la tête d’un non-terminal de la partie droite soit un terminal de la partie droite :
• SN[h2]→DET[h1] N[h2]
• A[h1]→h1 B[h2] C[h3]
• Pour prendre en compte certains phénomènes de dépendances lexicales, on associe à chaque constituant non plus seulement une catégorie (morpho-)syntaxique (un non-terminal) mais aussi un élément lexical (un terminal), satête lexicale.
• Les règles doivent indiquer quelle est la tête d’une partie gauche ; ce doit être soit la tête d’un non-terminal de la partie droite soit un terminal de la partie droite :
• SN[h2]→DET[h1] N[h2]
• A[h1]→h1 B[h2] C[h3]
• Pour prendre en compte certains phénomènes de dépendances lexicales, on associe à chaque constituant non plus seulement une catégorie (morpho-)syntaxique (un non-terminal) mais aussi un élément lexical (un terminal), satête lexicale.
• Les règles doivent indiquer quelle est la tête d’une partie gauche ; ce doit être soit la tête d’un non-terminal de la partie droite soit un terminal de la partie droite :
• SN[h2]→DET[h1] N[h2]
• A[h1]→h1 B[h2] C[h3]
• Pour prendre en compte certains phénomènes de dépendances lexicales, on associe à chaque constituant non plus seulement une catégorie (morpho-)syntaxique (un non-terminal) mais aussi un élément lexical (un terminal), satête lexicale.
• Les règles doivent indiquer quelle est la tête d’une partie gauche ; ce doit être soit la tête d’un non-terminal de la partie droite soit un terminal de la partie droite :
• SN[h2]→DET[h1] N[h2]
• A[h1]→h1 B[h2] C[h3]
P[voit]
• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.
• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.
• Exemple pourSN[h2]→DET[h1] N[h2]:
• SN[camion]→DET[le] N[camion]
• SN[camion]→DET[un] N[camion]
• SN[scooter]→DET[le] N[scooter]
• SN[scooter]→DET[un] N[scooter]
• ...
• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.
• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...
• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.
• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.
• Exemple pourSN[h2]→DET[h1] N[h2]:
• SN[camion]→DET[le] N[camion]
• SN[camion]→DET[un] N[camion]
• SN[scooter]→DET[le] N[scooter]
• SN[scooter]→DET[un] N[scooter]
• ...
• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.
• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...
• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.
• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.
• Exemple pourSN[h2]→DET[h1] N[h2]:
• SN[camion]→DET[le] N[camion]
• SN[camion]→DET[un] N[camion]
• SN[scooter]→DET[le] N[scooter]
• SN[scooter]→DET[un] N[scooter]
• ...
• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.
• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...
• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.
• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.
• Exemple pourSN[h2]→DET[h1] N[h2]:
• SN[camion]→DET[le] N[camion]
• SN[camion]→DET[un] N[camion]
• SN[scooter]→DET[le] N[scooter]
• SN[scooter]→DET[un] N[scooter]
• ...
• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.
• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...
• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.
• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.
• Exemple pourSN[h2]→DET[h1] N[h2]:
• SN[camion]→DET[le] N[camion]
• SN[camion]→DET[un] N[camion]
• SN[scooter]→DET[le] N[scooter]
• SN[scooter]→DET[un] N[scooter]
• ...
• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.
• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...
• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.
• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.
• Exemple pourSN[h2]→DET[h1] N[h2]:
• SN[camion]→DET[le] N[camion]
• SN[camion]→DET[un] N[camion]
• SN[scooter]→DET[le] N[scooter]
• SN[scooter]→DET[un] N[scooter]
• ...
• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.
• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...
• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.
• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.
• Exemple pourSN[h2]→DET[h1] N[h2]:
• SN[camion]→DET[le] N[camion]
• SN[camion]→DET[un] N[camion]
• SN[scooter]→DET[le] N[scooter]
• SN[scooter]→DET[un] N[scooter]
• ...
• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.
• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...
• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.
• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.
• Exemple pourSN[h2]→DET[h1] N[h2]:
• SN[camion]→DET[le] N[camion]
• SN[camion]→DET[un] N[camion]
• SN[scooter]→DET[le] N[scooter]
• SN[scooter]→DET[un] N[scooter]
• ...
• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles indépendemment ; on aurait quasi-systématiquement des 0.
• Il faut donc faire des hypothèses pour regrouper des règles entre elles pour ces estimations...
• Suivant comment sont définies les têtes, différents phénomènes peuvent être capturés via les probabilités des règles lexicalisées.
• On peut voir une grammaire lexicalisée comme une grammaire non-lexicalisée où chaque règle est dupliquée pour chacune des combinaisons lexicales possibles.
• Exemple pourSN[h2]→DET[h1] N[h2]:
• SN[camion]→DET[le] N[camion]
• SN[camion]→DET[un] N[camion]
• SN[scooter]→DET[le] N[scooter]
• SN[scooter]→DET[un] N[scooter]
• ...
• Le nombre de règles serait en fait démentiel : si on a un vocabulaire de dix mille (104) de mots, à chaque règle binaire correspondraient cent millions (108) de règles. On ne pourrait pas en pratique estimer en corpus les probabilités des règles