• Aucun résultat trouvé

Partie 1 Cohérence des résumés linguistiques flous 21

2.3 Degré de vérité

2.3.2 Extensions du système de RLF standard

Les extensions des méthodes de calcul de la valeur de vérité reposent sur l’utilisation de cardinalités différentes de σ-count et de t-normes spécifiques. Un état de l’art complet de ces différentes approches est donné par Delgado et al. (2014). Nous avons également mené une étude concernant certaines de ces extensions (Bouchon-Meunier & Moyse, 2012), détaillée dans l’annexe C p. 215.

Cardinalité entière

Une première proposition est celle de Ralescu (1995) qui utilise la cardinalité nCard à valeurs dans N au lieu de σ-count à valeurs dans R. L’intérêt de valeurs entières pour repré-senter le nombre d’éléments d’un sef réside dans leur interprétabilité a priori supérieure. En effet, la sémantique de « il y a 3,6 personnes grandes » calculée avec une cardinalité à valeurs dans R n’est pas simple à appréhender.

Comme nous le montrons dans l’annexe C p. 215 cependant, nCard est peu robuste à certains changements légers dans des sef très similaires, ce qui en réduit l’intérêt dans le cadre des RLF.

Cardinalités floues

Le plus grand nombre de contributions réalisées pour l’extension du calcul de la valeur de vérité repose sur l’utilisation de cardinalités floues. Le nombre d’éléments d’un sef n’est alors plus représenté par un scalaire, entier ou réel, mais par un nombre flou, i.e. un sef normalisé convexe. L’annexe C p. 215 étudie ces cardinalités en détail.

Adéquation entre le quantificateur et la cardinalité Le calcul de la valeur de vérité avec une cardinalité floue est réalisé par une mesure de la similarité entre sa fonction d’appartenance et celle du quantificateur. Delgado et al. (2000) montrent que l’ensemble des méthodes proposées pour calculer C(A, i), cardinalité floue en i du sef A défini sur X, sont réductibles au calcul de l’adéquation entre deux sef par :

t(Qx sont P ) = ⊥i=0...n>(Q(i), C (A, i)) (2.1) où ⊥ représente une t-conorme appliquée à l’ensemble des t-normes calculées entre l’ap-partenance de i entre 0 et n aux sef du quantificateur Q et de la cardinalité de A. C(A, i) peut également être interprétée comme la possibilité que A contienne i éléments (Dubois & Prade, 1985b).

Les méthodes proposées dans ce cadre sont possibilistes ou probabilistes en fonc-tion du couple de t-norme et t-conorme utilisé (Delgado et al., 2014). Les premières utilisent >Z(x, y) = min(x, y) et ⊥Z(x, y) = max(x, y) et les secondes >P(x, y) = xy

2.3. Degré de vérité 35

et ⊥P(x, y) = x + y − xy. Dans le cadre possibiliste par exemple, l’éq. (2.1) peut s’inter-préter comme la plus grande valeur de l’intersection entre le quantificateur et la cardinalité pour chaque i considéré.

Différentes extensions de l’éq. (2.1), originellement introduite pour le protoforme « Qx sont P », ont été proposées pour prendre en compte le protoforme « QRx sont P » ainsi que les quantificateurs absolus et relatifs.

Dans l’annexe C p. 215 nous proposons une méthode alternative basée sur la similarité de Jaccard entre le quantificateur et la cardinalité floue. Cette dernière cependant ne donne pas de résultat probant.

2.3.3 Extensions du paradigme flou pour le calcul du degré de vérité

En plus des alternatives au calcul de la valeur de vérité basé sur la cardinalité σ-count, d’autres approches construites comme des extensions de la logique floue ont été introduites pour permettre de vérifier les propriétés de cohérence (cf. section 2.3.1 p. 33).

Ces dernières découlent directement de celles d’idempotence A ∧ A = A, du tiers exclu A∨¬A = X et de non contradiction A∧¬A = ∅, où ∨ est l’opérateur de disjonction logique modélisée en logique floue par la t-conorme, ∧ celui de conjonction logique modélisé par la t-norme et ¬ celui de négation logique. Or, comme rappelé par Delgado et al. (2014) et montré par Dubois & Prade (1985a), il n’existe pas de couple de t-norme et de t-conorme en logique floue standard permettant de les vérifier simultanément.

Les ensembles crisp néanmoins satisfont naturellement ces propriétés, ce qu’exploitent les méthodes proposées dans les deux paragraphes suivants. La première est basée sur l’usage d’une fonction inverse d’appartenance et la seconde sur un mécanisme de fuzzifi-cation des quantificateurs.

Fonction inverse d’appartenance

Le principe de la fonction inverse d’appartenance est introduit dans différents travaux :

fuzzy bag (Rocacher & Bosc, 2005), nombre graduel (Dubois & Prade, 2008), représentation

par niveaux (Sánchez et al., 2009) et représentation X-mu (Martin, 2013).

La fonction inverse d’appartenance associe aux degrés d’appartenance dans [0,1] des parties de l’univers de discours, à l’inverse de la fonction d’appartenance classique qui associe aux éléments de l’univers des degrés d’appartenance.

Les degrés d’appartenance auxquels sont associés des éléments de U peuvent être conti-nus dans le cas de X-mu ou discrets pour les autres méthodes. En ce sens, cette approche reprend le principe des α-coupes du sef pour sa définition.

Les opérations réalisées sur ces ensembles crisp possèdent donc les caractéristiques de la logique classique et donc les propriétés de cohérence. L’interprétation en termes flous est réalisée par reconstruction de la fonction d’appartenance correspondante.

Le point faible de ces approches réside dans ce dernier point car la fonction ainsi reconstruite n’est pas toujours convexe et ne correspond plus alors à un sef (Delgado

et al., 2014). Dans l’exemple considéré par Martin (2013), l’évaluation de A ∩ B n’est pas un sef mais une représentation pour laquelle l’élément 4 de l’univers de discours appartient entre 0,3 et 1 au résultat, en contradiction donc avec la convexité d’un sef qui implique que si un point appartient à un certain degré au sef alors il y appartient également pour tous les degrés positifs inférieurs.

Nous n’avons donc pas investigué plus avant ces méthodes qui, en dépit de leur intérêt pour les propriétés de cohérence, ne garantissent plus l’interprétabilité des sef classiques.

Fuzzification des quantificateurs

Cette approche, proposée par Glöckner (1997) puis détaillée par Glöckner & Knoll (2001), repose sur une définition axiomatique de la notion de quantificateur. Elle a l’in-térêt majeur d’en permettre la définition d’un nombre important vérifiant l’ensemble des propriétés listées dans la section 2.3.1 p. 32. Ainsi, en plus des quantificateurs absolus ou relatifs (cf. section 1.2.3 p. 12) utilisés dans les RLF standards, cette méthode permet d’utiliser l’ensemble des quantificateurs généralisés de Barwise & Cooper (1981) présentés plus en détail au chapitre 3. Les degrés de vérité de phrases comme « Il y a environ deux

R1 de plus que de R2 qui sont P » ou « Environ deux fois plus de R1 sont P1 que de R2

sont P2» sont par exemple calculables dans ce cadre (Delgado et al., 2014).

La méthode de Glöckner utilise des quantificateurs semi-flous (semi-fuzzy quantifiers ou SFQ) et de mécanismes de fuzzification des quantificateurs (quantifier fuzzification

mechanism ou QFM ).

Les SFQ sont des quantificateurs dont les entrées sont crisp et le résultat flou, i.e. dans [0,1]. Leur intérêt réside dans leur définition directement basée sur celles des quan-tificateurs généralisés, permettant de ne pas avoir à les définir de façon subjective et non consensuelle (Glöckner & Knoll, 2001). De plus, l’utilisation d’ensembles crisp en entrée des SFQ leur permet de vérifier simplement les lois de la logique classique.

L’argument est néanmoins discutable dans la mesure où la propension de la logique floue à prendre en compte cette subjectivité dans un modèle, au plus proche des intentions de l’utilisateur, est habituellement présentée comme un des ses avantages.

Le mécanisme de fuzzification des SFQ, QFM, permet de les convertir en quantifica-teurs flous selon une axiomatique détaillée permettant d’en conserver les propriétés sou-haitées. Bien que différentes méthodes aient été proposées pour fuzzifier les quantificateurs linguistiques (Liu & Kerre, 1998), l’approche QFM est la seule permettant de vérifier l’en-semble des propriétés souhaitables énoncées plus haut, notamment pour les protoformes du type « QRx sont P » (Glöckner & Knoll, 2001). En plus de ceux présentés par Glöckner & Knoll (2001), Díaz-Hermida & Bugarín (2010) définissent un nouveau QFM basé sur une approche probabiliste de la quantification.

Ainsi, la méthode de Glöckner suppose que les quantificateurs sont prédéfinis et accep-tés et déplace donc la question de leur définition vers celle de la création d’un mécanisme pour les fuzzifier.

2.4. Résumé 37

est moins claire du fait notamment de la multiplicité des quantificateurs qu’elle permet. En effet, le problème de la brièveté du résumé posé dans le cas des RLF standards et présenté dans la section suivante est ici plus critique encore du fait du nombre de phrases générables.

D’autre part, l’interprétabilité de certaines d’entre elles mérite d’être étudiée. La phrase d’exemple donnée plus haut en est un bon exemple : l’interprétation de « Environ deux fois plus de R1 sont P1 que de R2 sont P2» est-elle triviale pour tous les utilisateurs ?

2.4 Résumé

Les propriétés du résumé peuvent s’appliquent soit à sa globalité soit à des sous-groupes de ses phrases, comme présenté dans les deux paragraphes suivants.