• Aucun résultat trouvé

2.7 Conclusions

3.1.2 R´ eduction des latences

Les r´eseaux qui forment l’Internet aujourd’hui n’offrent qu’un service meilleur-effort. Il n’y a de garantie ni de bande passante, ni de d´elai, ni vis-`a-vis des pertes. Ces caract´eristiques (bande passante,

d´ebit, pertes) sont variables et inconnues.

La bande passante entre deux points sur Internet est en g´en´eral inconnue et variable dans le temps. Si l’´emetteur envoie `a un d´ebit sup´erieur au d´ebit support´e par le r´eseau, il y a congestion, des paquets sont perdus et la qualit´e d’un m´edia (vid´eo,audio) diminue consid´erablement. Le d´elai de bout en bout d’un paquet sur Internet pr´esente des fluctuations importantes. La variation de ce d´elai (commun´ement appel´ee« gigue ») est un probl`eme majeur car le lecteur multim´edia doit recevoir, d´ecoder et pr´esenter des images `a cadence constante. Chaque image en retard peut empˆecher une reconstitution correcte de la s´equence, causant par exemple des saccades dans la vid´eo. Les pertes de paquets ont des effets destructifs sur la qualit´e de l’information reconstitu´ee et sont combattues par des m´ecanismes de contrˆole d’erreur [WHZ+01] : contrˆole continu des erreurs (forward error correction, FEC), retransmissions, dissimulation des erreurs (error concealment) et codage r´esistant aux erreurs (error-resilient video coding).

Pour rem´edier `a ces difficult´es, les applications doivent s’adapter aux ressources disponibles. La congestion peut ˆetre ´evit´ee en utilisant des m´ecanismes de contrˆole de d´ebit et de congestion. Afin d’am´eliorer la qualit´e des m´edia continus en pr´esence de pertes ou variations significatives du d´ebit, une solution courante consiste `a transmettre des contenus scalables. Enfin, pour minimiser les effets dus aux variations de la bande passante et du d´elai, des tampons de lecture ont ´et´e introduits du cˆot´e client, au prix de latences suppl´ementaires. La gestion adaptative du tampon (Adaptive Media Playout) est la technique r´ecente qui vise `a r´ealiser un compromis entre latence de d´emarrage et fiabilit´e [KGS02].

Le d´elai de d´emarrage (le temps qui s’´ecoule entre l’envoi de la requˆete au serveur et le d´emarrage de la pr´esentation sur le client, apr`es avoir rempli le tampon) se d´ecompose en latence d’acc`es au

contenu et latence de mise en tampon initiale. La latence d’acc`es inclut la n´egociation avec le

serveur (´etablissement de la connexion, n´egociation des param`etres de transport) et le d´elai de transfert du premier paquet. La latence de mise en tampon initiale est le temps n´ecessaire au client pour remplir suffisamment son tampon (avec une amorce) afin de d´emarrer la lecture dans de bonnes conditions.

La navigation au sein des documents hyperm´edia«lourds» induit des latences. Par exemple, naviguer dans une hypervid´eo, c’est-`a-dire passer d’un segment vid´eo au suivant conduit `a un cumul des latences observ´ees `a chaque acc`es en streaming aux flux vid´eos. A chaque suivi d’un lien, le navigateur doit t´el´echarger une amorce importante, comme nous venons de l’expliquer. Le pr´echargement prend ici tout son sens.

Les utilisateurs ha¨ıssent attendre [KN03]. Les temps de r´eponse longs et les navigations difficiles sont les principales plaintes des utilisateurs d’Internet. Apr`es avoir attendu au-d`ela d’un certain ”seuil de patience”, il est fort probable que l’utilisateur soit frustr´e et quitte le site pour un autre plus rapide. Dans ce sens, une ´etude r´ealis´ee par Zona Research [Res99] et abondamment cit´ee dans la litt´erature, mentionne la loi des huit secondes (eight-second rule) illustr´ee dans la figure 3.2.

Fig. 3.2 – La satisfaction des utilisateurs se d´egrade rapidement apr`es 8-10 secondes de d´elai L’explosion de l’utilisation de l’Internet cr´ee de s´erieux challenges pour les prestataires de services Internet et les op´erateurs r´eseaux. A une heure de pointe, l’acc`es `a un document ou la soumission d’une requˆete `a un moteur de recherche peut prendre un temps consid´erable qui constitue un frein `a l’utilisation interactive de l’Internet, un ph´enom`ene souvent d´esign´e sous le nom de«world-wide-wait».

Un certain nombre de facteurs a contribu´e aux moqueries `a propos de ce «world-wide-wait» : l’h´et´erog´en´eit´e des r´eseaux, les grandes distances physiques, l’engorgement des routeurs et des serveurs, etc. Beaucoup de chercheurs et d’entrepreneurs se sont donc pench´es sur le probl`eme de l’am´elioration

des temps de r´eponse pour le web. Certains ont opt´e pour l’accroissement de la bande passante, d’autres ont voulu utiliser l’infrastructure existante d’une mani`ere plus efficace.

Les syst`emes classiques de cache et/ou de pr´echargement fonctionnent grˆace `a la localit´e spatiale, tem- porelle ou s´emantique des documents : les clients demandent des composants populaires (´eventuellement proches s´emantiquement) depuis des serveurs populaires. Une ´etude a montr´e, par exemple, que le trafic g´en´er´e par les 10 documents les plus populaires du site http://www.w3.org/ repr´esente presque 30% du trafic total.

Les individus faisant des requˆetes similaires d’une mani`ere reproductible, l’utilisation d’un syst`eme de cache est souvent judicieuse. Le caching est une approche r´eactive pour la r´eduction des latences, car un syst`eme de cache choisit son comportement apr`es avoir observ´e les requˆetes des utilisateurs. Par contre, on peut qualifier de pr´edictive une m´ethode de pr´echargement, car elle sp´ecule sur le comportement futur des utilisateurs.