• Aucun résultat trouvé

Recherche d’information

La recherche d’information (RI) est un domaine qui a pour but de faciliter l’accès à l’information pour un utilisateur en passant par plusieurs processus comme définit par [38] :

“An information retrieval system is an information system that is used to store items of information that need to be processed, searched, retrieved, and disseminated to various user populations"

Les utilisateurs précisent généralement leur besoin en information sous la forme de mots-clefs (requête) que le système de RI va traiter pour déterminer et retourner les documents correspondant à leurs besoins. Étant donné une requête, le système de RI, après un ensemble de processus, tente de récupérer des documents qui doivent être pertinents pour la requête de l’utilisateur.

Dans la suite de la section, nous allons présenter les concepts de base d’un sys-tème de RI et les modèles de RI.

2.2.1 Concepts de base de la recherche d’information

Le système de RI réalise certaines actions pour répondre de façon pertinente et pour satisfaire le besoin en information de l’utilisateur. Ces actions sont principale-ment décrites dans un processus appelé "Processus en U". Les étapes principales de ce processus sont : l’indexation, la récupération et l’ordonnancement des documents, et sont présentées dans la Figure2.1.

FIGURE2.1 – Architecture d’un système de Recherche d’information.

1. Un premier processus représentant l’indexation (illustré à droite de la figure

2.1) consiste à réduire le texte d’un document en un ensemble de mots-clés, puis les sauvegarder sous forme d’un index avec une architecture bien spéci-fique dans le but de faciliter la recherche. Cette transformation suit une série de traitement qui sont :

— La segmentation consiste typiquement à éliminer les espaces blancs, la ponctuation, les liaisons, etc, dans un texte donné, ainsi, produire des seg-ments (tokens).

— La lemmatisation permet de réduire le mot en sa racine et donc confondre toutes les formes d’un même mot. Alors, tous les mots de la même famille seront tous représentés par un même mot. Par exemple, les mots : scienti-fiquement et scientifiques seront représentés par le mot "scientifiqu". — L’élimination de mots vides a pour but d’éliminer les mots très courants

qui ne contribuent pas ou seulement de manière insignifiante au contenu du document, tels que : Le, La, Les, Donc, etc. De plus, cela permet de réduire la taille de l’index sans que cela n’affecte les performances du sys-tème de RI.

Une fois que toutes les étapes ci-dessus sont réalisées, les documents sont représentés dans des fichiers index qui stockent la cartographie des couples "terme-document" en y associant un poids. Ce poids peut par exemple être estimé par une pondération "TF-IDF" [39]. Cette formule favorise les termes qui sont à la fois fréquents dans le document et peu fréquents dans la collec-tion.

2. Un second processus illustré à gauche de la figure2.1commence par appli-quer à la requête de l’utilisateur les mêmes processus décrits dans l’étape précédente. Ensuite, le processus d’appariement appliquant un modèle de correspondance entre les mots de la requête et les documents, permet de re-tourner un ensemble de documents qui seront ensuite ordonnancés par leur

2.2. Recherche d’information 15 score de correspondance. Cette partie est la plus critique car l’ordre des docu-ments dépend du modèle de correspondance. Les modèles utilisés dans cette étape sont présentés dans la section suivante2.2.2.

2.2.2 Les modèles de recherche d’information

L’étape de correspondance des documents et la requête de l’utilisateur repose sur des modèles de RI qui ont pour objectif l’identification et l’ordonnancement des documents pertinents. Il existe plusieurs modèles de RI, tels que le modèle booléen [40], le modèle vectoriel [41], et le modèle probabiliste [42].

FIGURE 2.2 – Taxonomie des modèles de recherche d’information. [43]

Une présentation détaillée des modèles est proposée [44] avec une taxonomies des modèles de RI comme illustrée dans la figure2.2.

Nous présentons seulement les modèles probabilistes et en particulier les mo-dèles de langue avec le lissage de Dirichlet et de Jelinek-Mercer.

Modèles Probabilistes

Il existe principalement deux familles de modèles probabilistes : les modèles pro-babilistes classiques [42] et les modèles de langue [45].

Les modèles probabilistes classiques

Les modèles probabilistes classiques [42] s’appuient sur la distribution de pro-babilités de termes pour estimer la similarité entre une requête et un document. Ce

modèle permet de favoriser les documents qui ont une forte probabilité d’être per-tinents et une faible probabilité d’être non perper-tinents. La pertinence du document d par rapport à la requête utilisateur q est décrite comme suit :

RSV(d, q) = p(p|d)

p(p|d (2.1)

avec p(p|d) et p(p|d), respectivement représente la probabilité de pertinence et de non pertinence, par rapport à la requête q.

Plusieurs méthodes ont été proposées pour estimer cette probabilité, telles que le modèle binaire BIR [46] ou le modèle BM25 [42]. Ce dernier est le plus utilisé et ses atouts majeurs consistent en la considération de la longueur des documents dans le calcul du score de pertinence.

Le score RSV en employant le modèle BM25est calculé comme suit :

RSV(d, q) =

ti∈q id fti× t f(ti, d).(k1+1) t f(ti, d) +k1(1−b+bavg|d| dl) (2.2) (2.3) avec id fti est la fréquence inverse de document pondérant le terme ti de la requête, t f(ti, d)représente la fréquence d’apparition du terme ti de la requête dans le do-cument d, |d| représente la longueur du document et avgdl représente la longueur moyenne des documents. Le paramètres b permet de contrôler la normalisation par la longueur des documents et le paramètre k1 contrôle l’effet de la saturation au niveau des occurrences des termes du document. Les valeurs par défaut des deux paramètres sont k1∈ [1.2; 2.0]et b=0.75.

Les modèles de langue

Le principe de base des modèles de langue [45] en RI est d’ordonner chaque document d de la collection C suivant leur capacité à générer la requête q. Ainsi, il s’agit d’estimer la probabilité de génération p(q|d). Pour simplifier, on suppose en que les mots qui apparaissent dans la requête sont indépendants. Ainsi, pour une requête q= {t1, t2, ..., tn}, cette probabilité de génération est estimée comme suit :

p(q|θd) =

ti∈q p(ti|θd)c(ti,q) (2.4) =

ti∈q t f(ti, d) |d| c(ti,q) (2.5) où c(ti, q)est la fréquence du terme t dans la requête q, et θdest le modèle du docu-ment, qui reflète la distribution de termes dans d. La probabilité p(ti|θd)représente la probabilité du terme t dans le modèle du document θd.

La probabilité p(ti|θd)est estimée par la fréquence des termes de la requête q dans le document d. Cette probabilité peut être nulle pour les documents ne conte-nant pas tous les termes de la requête. Dans ce cas, la probabilité p(q|θd)est nulle alors que le document pourrait partiellement répondre au besoin en information de l’utilisateur formulé par la requête q.

2.3. Représentation de l’information 17