HAL Id: hal-02057866
https://hal.archives-ouvertes.fr/hal-02057866
Submitted on 5 Mar 2019
HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.
Apprentissage profond pour l’approximation d’une distance d’édition entre graphes
Guillaume Renton, Benoît Gaüzère, Pierre Héroux, Sébastien Adam
To cite this version:
Guillaume Renton, Benoît Gaüzère, Pierre Héroux, Sébastien Adam. Apprentissage profond pour
l’approximation d’une distance d’édition entre graphes. Conférence sur l’Apprentissage Automatique,
Jun 2018, Rouen, France. �hal-02057866�
Apprentissage profond pour l’approximation d’une distance d’´edition entre graphes
Guillaume Renton
∗1, Benoˆıt Ga¨ uz` ere
1, Pierre H´ eroux
1, et S´ ebastien Adam
11
Normandie Univ, UNIROUEN, UNIHAVRE, INSA Rouen, LITIS, 76000 Rouen, France 5 mars 2019
R´ esum´ e
Dans cet article, nous proposons une m´ ethode d’ap- proximation de la distance d’´ edition entre graphes bas´ ee sur l’utilisation de deux techniques r´ ecentes d’ap- prentissage profond : la convolution dilat´ ee et le Spatial Pyramid Pooling (SPP). L’approche propos´ ee prend en entr´ ee la matrice de taille variable utilis´ ee par l’ap- proximation BP-GED [RNB07]. Apr` es une transforma- tion permettant d’introduire une invariance aux per- mutations dans la matrice, la combinaison des deux techniques d’apprentissage permet d’obtenir un vec- teur de caract´ eristiques de taille fixe, utilis´ e en entr´ ee de couches denses mod´ elisant un r´ egresseur. L’ap- proche propos´ ee est ´ evalu´ ee sur deux bases de graphes de r´ ef´ erence. Les r´ esultats obtenus sont compar´ es avec ceux de la seule approche qui exploite de l’appren- tissage pour approximer la distance d’´ edition. Les r´ esultats obtenus, bien qu’` a confirmer sur un nombre plus important de bases, montrent la sup´ eriorit´ e de l’approche propos´ ee.
Mots-clef : Distance d’´ edition entre graphe, Approxi- mation de distance, Apprentissage profond.
1 Introduction
La plupart des approches d’apprentissage de la litt´ erature prennent en entr´ ee des donn´ ees num´ eriques, et s’appuient sur les propri´ et´ es math´ ematiques des es- paces euclidiens pour construire des mod` eles. Toute- fois, l’utilisation de vecteurs de caract´ eristiques ne per- met pas toujours de repr´ esenter de mani` ere satisfai- sante certaines informations structurelles, telles que celles pr´ esentes dans les mol´ ecules par exemple.
∗Avec le soutien de la r´egion Normandie, principal financeur.
Une solution pour repr´ esenter ces informations struc- turelles repose sur l’utilisation de graphes. N´ eanmoins, l’espace des graphes ne dispose pas d’autant de bonnes propri´ et´ es math´ ematiques que les espaces euclidiens.
Notamment l’absence de produit scalaire dans l’es- pace des graphes rendant impossible l’utilisation di- recte des m´ ethodes d’apprentissage ` a l’´ etat de l’art (SVM, r´ eseaux de neurones).
Pour pallier l’absence de produit scalaire, une mesure de dissimilarit´ e entre graphes est n´ ecessaire.
La distance d’´ edition entre graphes est une ap- proche commun´ ement accept´ ee pour r´ epondre ` a cette probl´ ematique.
La distance d’´ edition entre graphes (GED) est une m´ etrique entre deux graphes G
1= (V
1, E
1) et G
2= (V
2, E
2), o` u V
1(resp. V
2) d´ esigne l’ensemble des nœuds de G
1(resp. G
2) et E
1(resp. E
2) d´ esigne l’ensemble des arˆ etes de G
1(resp. G
2). Cette mesure est calcul´ ee en ´ evaluant le coˆ ut de la transformation de G
1en G
2. Cette transformation est obtenue par une s´ equence d’op´ erations d’´ edition ´ el´ ementaire pouvant ˆ
etre de 3 types : substitution, insertion et suppression,
`
a la fois sur les nœuds et sur les arˆ etes. ` A chacune de ces op´ erations est associ´ e un coˆ ut d’´ edition quantifiant la transformation effectu´ ee sur le graphe. Il existe une infinit´ e de s´ equences d’´ editions permettant de transformer un graphe en un autre, chacune de ces s´ equences d´ efinissant un chemin d’´ edition. La distance d’´ edition est alors d´ efinie comme le coˆ ut minimal parmi l’ensemble des chemins d’´ editions entre les deux graphes. Le chemin d’´ edition associ´ e ` a ce coˆ ut minimal est appel´ e chemin d’´ edition optimal.
L’utilisation de l’algorithme A
∗est une des premi` eres approches propos´ ees pour le calcul de la GED [HNR68].
Cette m´ ethode construit et parcourt l’arbre des so-
Figure 1 – Arbre partiel repr´ esentant l’ensemble des chemins d’´ edition entre G
1et G
2. L’algorithme A
∗permet de parcourir cet arbre afin de trouver un chemin de coˆ ut minimal.
lutions afin d’obtenir un chemin d’´ edition optimal ainsi que le coˆ ut correspondant (cf Figure 1). Plus r´ ecemment, le calcul de la GED a ´ egalement ´ et´ e ex- prim´ e sous la forme de programme lin´ eaire binaire (BLP), notamment dans [JH06, LAR
+15, LAAR
+16].
Dans les deux cas, l’obtention d’un chemin opti- mal ´ etant un probl` eme NP-complet, les m´ ethodes exactes propos´ ees ont une forte complexit´ e. Elle est par exemple de O(n
m) pour A
∗, avec n le nombre de nœuds de G
1et m le nombre de nœuds de G
2, ce qui limite donc le calcul de la GED ` a de petits graphes [AAGB
+17]. Afin de pallier ce probl` eme, des algorithmes de complexit´ e moindre calculant des ap- proximations de la distance d’´ edition entre graphes ont
´ et´ e propos´ es. L’une des premi` eres approches est celle propos´ ee dans [RNB07]. Dans cette approche, les au- teurs transforment le probl` eme de calcul de la GED en un probl` eme d’affectation de nœuds, r´ esolu par des ap- proches ayant une complexit´ e polynomiales. Il est ainsi possible de traiter des graphes de plus grande taille.
Naturellement, cette am´ elioration des temps de trai- tement se fait au d´ etriment de la pr´ ecision de la va- leur obtenue. La probl´ ematique devient alors de trou- ver le compromis entre qualit´ e de l’approximation et temps d’ex´ ecution, comme il a ´ et´ e mis en ´ evidence dans [AAGB
+17].
Dans cet article, nous proposons une nouvelle m´ ethode d’approximation du calcul de distance d’´ edition de graphes, utilisant des m´ ethodes r´ ecentes d’apprentissage profond afin d’obtenir une pr´ ecision sup´ erieure tout en maintenant une faible complexit´ e en d´ ecision. La section suivante pr´ esente les diff´ erentes m´ ethodes constituant la base de notre proposition. En-
suite, la section 3 d´ ecrit l’approche propos´ ee. Enfin, nous ´ evaluons notre approche dans la section 4 par rap- port ` a l’existant.
2 Approximation de la GED
L’une des premi` eres m´ ethodes ` a avoir ´ et´ e propos´ ee pour le calcul d’une approximation de la GED est l’appariement de graphe bipartite (BP-GED) [RNB07].
Cette m´ ethode fait le rapprochement entre la distance d’´ edition entres graphes et un probl` eme de mise en cor- respondance entre nœuds. La recherche du chemin de coˆ ut minimal correspond ` a un probl` eme d’affectation quadratique, simplifi´ e par [RNB07] en probl` eme d’af- fectation lin´ eaire afin d’obtenir une approximation.
On cherche ` a obtenir un appariement optimal, au sens d’un coˆ ut minimal d’appariement entre les nœuds.
Plus formellement, on cherche la fonction ϕ : V
1→ V
2qui, au nœud u
k, affecte le nœud v
ϕ(k), et qui minimise le coˆ ut global de ces affectations. Pour cela, un coˆ ut correspondant ` a l’appariement entre deux nœuds doit ˆ
etre d´ efini. Le coˆ ut d’appariement est d´ efini comme
´
etant le coˆ ut de transformer un nœud u
ien un nœud v
j. La repr´ esentation des suppressions et des insertions de nœuds se fait par l’appariement avec des nœuds vides, appel´ es ε-nodes. Ainsi, la suppression du nœud u
icor- respond ` a l’appariement entre le nœud u
iet le nœud ε.
A l’inverse, l’insertion du nœud ` v
jcorrespond ` a l’ap- pariement entre le nœud ε et le nœud v
j. Il faut donc ajouter m ε-nodes ` a G
1et n ε-nodes ` a G
2. V
1et V
2sont ainsi tous deux de taille n + m.
Il est important de noter que les nœuds comme les
arcs peuvent poss´ eder des attributs, et que le calcul des
coˆ uts doit prendre en compte ces attributs. La coˆ ut de substitution de deux nœuds peut ainsi correspondre ` a la distance euclidienne entre les deux vecteurs de ca- ract´ eristiques de ces nœuds.
Afin de prendre en compte l’information structurelle pr´ esente dans le graphe, le coˆ ut minimal d’apparie- ment entre les arˆ etes incidentes aux deux nœuds est
´ egalement pris en compte.
Dans l’´ equation 1, u
i, u
k∈ V
1, v
j, v
ϕk∈ V
2, a
ikcor- respond ` a l’arˆ ete reliant le nœud u
iau nœud u
ktandis que b
jϕkcorrespond ` a l’arˆ ete reliant le nœud v
jau nœud v
ϕk, o` u ϕ
kest la fonction d’appariement. Fina- lement, S (n+m) correspond ` a l’ensemble des (n +m)!
permutations d’entiers possibles.
C(i, j) = c(u
i→ v
j) + min
(ϕ1,...,ϕn+m)
∈S(n+m) n+m
X
k=1
c(a
ik→ b
jϕk) (1) Finalement, une matrice C est cr´ e´ ee, de taille (n + m) × (n + m) (cf Figure 2), afin de prendre en compte l’ensemble des coˆ uts pour chaque nœud. La taille de la matrice permet d’affecter ` a chaque nœud u
iun unique nœud v
j, avec u
iet v
jpouvant ˆ etre des ε-nodes. Afin de s’assurer qu’` a chaque nœud ε est associ´ e un unique nœud, le coˆ ut entre ce nœud et les autres nœuds ε est fix´ e ` a ∞. Finalement, de mani` ere assez naturelle, le coˆ ut d’appariement entre deux nœuds ε est fix´ e ` a 0, cet appariement n’induisant pas de transformation du graphe. La figure 2 pr´ esente un exemple de cette matrice de coˆ ut pour deux graphes.
On remarque que cette matrice peut ˆ etre s´ epar´ ee en quatre parties : la partie substitution (en haut ` a gauche), la partie suppression (en haut ` a droite), la partie insertion (en bas ` a gauche) et une zone nulle (en bas ` a droite).
C =
v1 v2 v3 ε1 ε2 ε3 ε4
u1
1 0 1 3
∞ ∞ ∞u2
1 0 1
∞3
∞ ∞u3
2 1 2
∞ ∞4
∞u4
0 1 0
∞ ∞ ∞2
ε1
2
∞ ∞0 0 0 0
ε2 ∞
3
∞0 0 0 0
ε3 ∞ ∞
2 0 0 0 0
Le probl` eme d’affectation des nœuds revient donc ` a un probl` eme d’appariement lin´ eaire o` u les coˆ uts d’appa- riement nœud ` a nœud sont encod´ es dans la matrice C
u3 1 2
u1 1
u2
1
v1 3
v2
Figure 2 – Exemple de matrice de coˆ ut pour deux graphes. Les nœuds du graphes sont attribu´ es.
Le coˆ ut de substituer deux nœuds correspond ` a la diff´ erence entre leurs attributs. Le coˆ ut de substituer deux arcs est nul. Les coˆ uts d’insertions/suppressions des nœuds/arcs valent 1.
(Eq. 1). Ce probl` eme peut donc ˆ etre r´ esolu par l’al- gorithme Hongrois [Kuh55]. De l’appariement obtenu, il est possible de d´ eduire une s´ equence d’´ edition per- mettant de transformer G
1en G
2. ´ Etant donn´ ee cette s´ equence, on peut calculer efficacement le coˆ ut associ´ e
`
a cette s´ equence d’´ edition. Ce coˆ ut correspond ` a l’ap- proximation faite par BP-GED. Diff´ erentes utilisations de l’algorithme Hongrois ont ´ et´ e propos´ ees, que ce soit afin de diminuer les temps de traitements avec des m´ ethodes gloutonnes comme dans [RFB15a], ou avec des m´ ethodes it´ eratives afin d’augmenter la pr´ ecision, comme dans [BGB16].
Il est important de noter que le chemin obtenu n’est pas forc´ ement optimal, et que le coˆ ut n’est ainsi pas forc´ ement minimal. En effet, la construction de la ma- trice C ne prend en compte qu’une partie limit´ ee de l’information structurelle des graphes, ` a un voisinage de taille 1. L’appariement et le chemin qui en est d´ eduit ne sont donc optimaux que pour le probl` eme d’apparie- ment lin´ eaire. Le coˆ ut associ´ e au chemin obtenu permet de d´ efinir une borne sup´ erieure de la distance d’´ edition.
[RFB14] propose ´ egalement d’obtenir une borne inf´ erieure, en divisant par deux les coˆ uts des op´ erations d’´ editions sur les arˆ etes. [RFB15b] utilise cette borne inf´ erieure avec la borne sup´ erieure comme ca- ract´ eristiques d’entr´ ee d’un SVR afin d’apprendre
`
a pr´ edire une distance d’´ edition entre graphes plus
pr´ ecise, obtenant des r´ esultats encourageants. Mais
cette pr´ ediction est limit´ ee pour deux raisons. Tout
d’abord, il est compliqu´ e de pr´ edire une valeur pr´ ecise ` a
partir de seulement deux caract´ eristiques. La seconde
limitation vient du fait que l’approximation obtenue par BP-GED est parfois tr` es impr´ ecise.
Bien que ces travaux soient encourageants, il n’y a,
`
a notre connaissance, pas d’autres travaux utilisant l’apprentissage afin d’approximer la GED.
Dans la partie suivante, nous pr´ esentons une nou- velle approche permettant d’approximer la distance d’´ edition via une m´ ethode d’apprentissage profond, en utilisant directement l’information contenue dans la matrice C.
3 M´ ethode
On peut supposer que l’apprentissage ` a partir de seulement deux caract´ eristiques ne permet pas une g´ en´ eralisation satisfaisante. L’objectif de la m´ ethode propos´ ee est de pouvoir extraire directement des ca- ract´ eristiques ` a partir de la matrice C. L’utilisation de la matrice C pose deux probl` emes lorsque l’on souhaite utiliser des m´ ethodes d’apprentissage sur celle-ci.
Tout d’abord, les graphes sont, par d´ efinition, de di- mension variable. La matrice C est donc ´ egalement de taille variable. Cette particularit´ e empˆ eche l’utili- sation de la plupart des m´ ethodes d’apprentissage, qui reposent sur l’utilisation de vecteurs de taille fixe.
Le second probl` eme d´ ecoule du fait qu’il n’existe pas d’ordre d’´ enum´ eration de l’ensemble des nœuds du graphe. De ce fait, plusieurs matrices C peuvent ˆ etre g´ en´ er´ ees pour un couple de graphes donn´ e. Chacune de ces matrices correspond ` a une permutation particuli` ere de l’ordre des nœuds. Dans un tel cas, il faut s’assurer que la pr´ ediction prise soit identique pour un mˆ eme couple de graphes, et ce selon toutes les permutations possibles.
Pour traiter le premier probl` eme, nous nous inspi- rons de techniques issues des r´ eseaux convolutifs. Cer- taines permettent d’extraire des caract´ eristiques sur des matrices de tailles variables, tandis que d’autres ram` enent une matrice de taille quelconque ` a une ma- trice de taille fixe, comme le Spatial Pyramid Pooling [HZRS14].
La r´ esolution du second probl` eme est trait´ ee dans la partie suivante.
3.1 Entr´ ee du r´ eseau
L’ordre d’´ enum´ eration des nœuds d’un graphe n’´ etant pas fixe, plusieurs ordres peuvent repr´ esenter
Figure 3 – Exemple de permutation de matrice le mˆ eme graphe. Ainsi diff´ erentes matrices C peuvent ˆ
etre calcul´ ee sur une mˆ eme paire de graphes. Ces ma- trices C contiennent les mˆ emes informations, ` a une per- mutation pr` es. Afin d’ˆ etre moins sensible aux permuta- tions, la matrice C est permut´ ee. Cette permutation est r´ ealis´ ee de sorte que les affectations pr´ edites par l’algo- rithme Hongrois forment la diagonale de la matrice de coˆ uts. La matrice C est permut´ ee selon la matrice de permutation P d´ efinie par l’ ´ Equation 2. Cette solution ne permet de r´ esoudre que partiellement le probl` eme des permutations, et une m´ ethode plus efficace pour- rait ˆ etre int´ egr´ e ` a de prochain travaux.
P(i, j) =
( 1 si ϕ(i) = j
0 sinon (2)
La Figure 3 pr´ esente un exemple de matrice per- mut´ ee, reprenant l’exemple de la Figure 2. Les matrices ainsi construites et permut´ ees constituent les donn´ ees utilis´ ees par notre algorithme d’apprentissage utilise pour estimer la GED entre deux graphes. Cette ma- trice ´ etant de taille variable, des couches de convolu- tion sont utilis´ ees, celles ci n’´ etant pas restreintes ` a une taille fixe.
3.2 R´ eseau convolutif
Les r´ eseaux convolutifs sont bas´ es sur l’utilisation
de filtres dont les poids sont appris. Ces filtres sont
g´ en´ eralement de taille restreinte (3 × 3, 5 × 5) afin de
limiter le nombre de param` etres ` a apprendre, et des
Figure 4 – Repr´ esentation visuelle des convolutions dilat´ ees.
op´ erations de pooling sont utilis´ ees afin d’augmenter artificiellement le contexte pris en compte par ces filtres. Ce contexte est appel´ e champ r´ eceptif. Pour cela, dans des fenˆ etres de petite taille (2 × 2), le pooling agr` ege l’ensemble des valeurs de la fenˆ etre et ne calcule qu’une seule valeur, qui peut ˆ etre la valeur maximale, minimale, moyenne... La matrice r´ esultante est ainsi une version r´ eduite de la matrice originale, dont le facteur de r´ eduction d´ epend de la taille des fenˆ etres utilis´ ees.
La r´ eduction de la taille de la matrice n’est pas la seule solution afin d’augmenter la taille des champs r´ eceptifs. Une autre solution consiste ` a utiliser les convolutions dilat´ ees, dont l’id´ ee est d’obtenir des filtres creux, plus grand mais gardant le mˆ eme nombre de param` etres. Un taux de dilatation est utilis´ e pour cela. Cette m´ ethode est bas´ ee sur l’algorithme ` a trou [HKMMT89] et a ´ et´ e notamment utilis´ ee en segmentation s´ emantique par [CPK
+16]. La Figure 4 illustre le principe des convolutions dilat´ ees.
Par ailleurs, les matrices de coˆ ut pr´ esentent des tailles tr` es variables, et peuvent atteindre des tailles tr` es faibles. L’utilisation des dilatations semble plus judicieux que le pooling, de fa¸ con ` a ne pas r´ eduire la taille d’une matrice d´ ej` a petite.
Finalement, l’architecture utilis´ ee reprend les confi- guration des premi` eres couches de convolution du r´ eseau VGG-16 [SZ14], cette architecture ayant montr´ e une bonne capacit´ e d’extraction de caract´ eristiques.
Le r´ eseau utilis´ e poss` ede ainsi 6 couches convolutives, identiques aux 6 premi` ere couches de VGG-16, dont la diff´ erence vient de l’utilisation de la dilatation plutˆ ot que du pooling. Le r´ eseau poss` ede deux premi` eres couches convolutives de 64 filtres de taille 3 × 3 et de dilatation 1, suivi de deux couches convolutives de 128 filtres de taille 3 × 3 et de dilatation 2. Enfin, deux derni` eres couches sont utilis´ ees, avec 256 filtres de taille 3 × 3 et de dilatation 4.
L’objectif de nos travaux est dans un premier temps
d’´ evaluer la possibilit´ e d’apprendre des caract´ eristiques sur la matrice de coˆ ut. L’architecture du r´ eseau n’est pas optimis´ ee pour la r´ esolution du probl` eme, ce qui repr´ esente toutefois une perspective int´ eressante.
L’architecture ainsi ´ etablie ne modifie pas la taille de la matrice. Si la matrice d’entr´ ee est de taille (n + m) × (n + m), alors la sortie du r´ eseau convo- lutif est un tenseur de taille (n + m) × (n + m) × 256.
Afin de r´ ealiser la r´ egression permettant l’approxima- tion de la GED, une repr´ esentation matricielle de taille fixe est n´ ecessaire. La solution utilis´ ee ici est le Spatial Pyramid Pooling.
3.3 Spatial Pyramid Pooling
Le principe du Spatial Pyramid Pooling (SPP) est d’appliquer le pooling non pas sur une unique fenˆ etre de taille fixe mais sur plusieurs fenˆ etres de tailles adaptables. Pour cela, la matrice d’entr´ ee est divis´ ee en N
2parts ´ egales. Ainsi, la taille de chaque fenˆ etre correspond ` a un ratio de la taille de la matrice. Sur chacune de ces fenˆ etres, une valeur est s´ electionn´ ee. La valeur maximale est g´ en´ eralement s´ electionn´ ee, mais l’objectif ´ etant de trouver un coˆ ut minimal, la valeur minimale lui est pr´ ef´ er´ ee ici.
Cette op´ eration est ensuite r´ ealis´ ee pour plusieurs valeurs de N diff´ erentes, afin d’obtenir un certain nombre de caract´ eristiques par filtre. Les valeurs de N utilis´ ees ici sont 1 et 2, soit 5 caract´ eristiques par filtre.
La derni` ere couche convolutive ayant 256 filtres, 1280 caract´ erstiques sont extraites par le Spatial Pyramid Pooling. La Figure 5 pr´ esente un exemple d’utilisation du SPP.
La r´ egression est finalement r´ ealis´ ee par des couches dense appliqu´ ees aux caract´ eristiques extraites par le Spatial Pyramid Pooling. Deux couches denses de 21 neurones sont utilis´ ees suivies d’une couche d’un neurone r´ ealisant la r´ egression. Le r´ eseau est ensuite appris en utilisant l’algorithme Adam [KB14]. La figure 6 illustre le processus complet de la m´ ethode ainsi que l’architecture globale du r´ eseau.
Finalement, le r´ eseau complet, incluant convolu-
tions, Spatial Pyramid Pooling et couches denses,
comporte 1,172,217 param` etres et a ´ et´ e d´ evelopp´ e
sous Keras [Cho15]. La section suivante pr´ esente les
diff´ erentes exp´ eriences r´ ealis´ ees afin d’´ evaluer le mod` ele
d´ evelopp´ e.
3 2 0 4 6 2 3 9 8 7 1 5 4 5 1
5 0
2 0 4 1
2 0
4 1 0
Figure 5 – Spatial Pyramid Pooling appliqu´ e ` a une matrice 4 × 4 pour des N de valeur 1 et 2.
4 Exp´ eriences
Cette section pr´ esente les diff´ erentes exp´ eriences r´ ealis´ ees afin d’´ evaluer les performances de la m´ ethode propos´ ee. Le protocole exp´ erimental ainsi que les m´ etriques sont tout d’abord pr´ esent´ es. Les r´ esultats obtenus sur deux bases de donn´ ees de graphes (Let- ter et Fingerprint [RB08]) sont ensuite pr´ esent´ es.Ces r´ esultats sont compar´ es ` a ceux obtenus avec la BP- GED [RNB07] et les SVR [RFB15b], m´ ethode propo- sant ´ egalement une approche bas´ ee sur l’apprentissage.
4.1 Protocole exp´ erimental et m´ etriques
Le protocole exp´ erimental est le suivant. 1000 graphes sont extraits de la base initiale. Pour chaque paire de graphes, la distance d’´ edition exacte est calcul´ ee, en utilisant l’algorithme A
∗. La matrice de coˆ ut est ´ egalement calcul´ ee puis permut´ ee, selon la strat´ egie d´ efinie en 3.1. L’ensemble des 5.10
5paires de graphes est finalement d´ ecoup´ e en 3 bases : une base d’apprentissage, comprenant 40% des donn´ ees, une base de validation avec 10% des donn´ ees, et les 50%
restant en test. Les donn´ ees de validation sont utilis´ ees afin de s’assurer que notre mod` ele ne sur-apprend pas lors de l’apprentissage.
Deux m´ etriques de la litt´ erature sont utilis´ ees pour
´
evaluer les r´ esultats : l’erreur moyenne relative (MRE), exprim´ ee en pourcentage dans l’´ equation 3, ainsi que l’erreur moyenne quadratique (MSE), d´ efinie par l’´ equation 4. Dans les deux ´ equations, d
aicorrespond
`
a la distance approxim´ ee du couple de graphes i et d
ei`
a la distance exacte du couple de graphes i.
M RE = 100 ∗ 1 N
N
X
i=1
|d
ai− d
ei| d
ei(3)
M SE = 1 N
N
X
i=1