• Aucun résultat trouvé

CHAPITRE 2 REVUE DE LITTÉRATURE

2.3 Méthodes à CPC et positions multiples

Chakrabarty, Zhou & Lukose (2008) mettent en évidence les différences entre le cas à position unique et celui à positions multiples. Ils modélisent le problème sous forme de sac à dos avec arrivée dynamique des informations. Dans le cas à position unique, ils visent à choisir un sous- ensemble de mots-clés qui maximisera les profits (« online knapsack problem »). Dans le cas à positions multiples, ils cherchent toujours maximiser les profits, mais en choisissant au plus une position par mot-clé (« online multiple-choice knapsack problem »). Ils proposent des stratégies permettant de déterminer la valeur d’enchère à fixer pour chaque mot-clé, puis ils fournissent des bornes de performance sur chacun de ces algorithmes.

Borgs et al. (2007) présentent une méthode simple et efficace qui tient compte des différences de rendement associées aux variations de la position d’une annonce. Leur modélisation considère que plusieurs annonceurs sont en compétition pour un même mot-clé et que chacun de ces annonceurs a un budget limité. L’heuristique proposée consiste à ajuster, de façon itérative, les enchères des mots-clés de façon à obtenir des retours sur investissement (RSI) marginaux égaux sur l’ensemble des mots-clés de la campagne.

Cette méthode exploite la propriété que le retour sur investissement (profit/coût) associé à un clic croît lorsque la position augmente. En effet, le profit associé à un clic est le même peu importe la position et le coût par clic décroît lorsque la position augmente. Cependant, le nombre de clics obtenu diminue lorsque la position croît. Ainsi, il faut trouver un compromis entre un volume de clics suffisamment élevé et un retour sur investissement satisfaisant.

Un annonceur qui désire maximiser le retour sur investissement global de sa campagne devra donc faire en sorte que le RSI marginal (i.e. dérivée de la fonction de revenu par rapport au coût) de chacun de ses mots-clés soit le même. Le cas contraire impliquerait qu’il existe au moins un mot-clé à RSI marginal supérieur à la moyenne et un autre à RSI inférieur à la moyenne. Dans ce cas, l’annonceur aurait avantage à diminuer son enchère pour le mot-clé à faible RSI marginal et

augmenter son enchère pour celui à fort RSI marginal. Bref, un équilibre est atteint lorsque tous les RSI marginaux sont égaux. Puisque le RSI marginal d’un mot-clé est difficile à estimer, Borgs et al. (2007) l’approximent avec le RSI, soit le ratio du revenu généré par le mot-clé divisé par son coût total. Cette approximation équivaut à utiliser un taux constant plutôt que d’effectuer un calcul de dérivée.

Ils utilisent également un mécanisme d’ajustement pour tenir compte de la contrainte de budget. Les valeurs d’enchères sont réajustées quotidiennement en fonction de la portion du budget total qui a été dépensée; ils multiplient la valeur de l’enchère des mots-clés par un facteur 1&2' qui dépend des résultats de la journée précédente 2. Si le budget n’a pas été complètement dépensé au cours de la journée, la valeur des enchères est augmentée en utilisant 1&2' > 1. Si la totalité du budget a été consommée en moins d’une journée, il faut diminuer les valeurs d’enchères en utilisant 1&2' < 1.

Globalement, cette méthode est intéressante à cause de sa simplicité. Puisqu’elle procède par tâtonnements, elle ne nécessite qu’une quantité minimale d’information. Contrairement à plusieurs autres méthodes, il n’est pas nécessaire de connaître le coût associé aux positions autres que celle occupée actuellement puisque les valeurs d’enchères sont ajustées en fonction des RSI, qui sont calculés à la fin de chacune des journées.

Parallèlement, Feldman, Muthukrishnan, Pal & Stein (2008) décrivent une stratégie selon laquelle les valeurs d’enchères sont uniformes sur tous les mots-clés, c’est-à-dire qu’ils fixent la même valeur d’enchère peu importe le mot-clé. Ils visent à maximiser le nombre de clics obtenus par les annonces et cherchent une valeur d’enchère unique telle que l’espérance des coûts totaux n’excède pas le budget quotidien accordé.

Pour trouver cette valeur unique de CPC à fixer, ils agrègent d’abord les données de tous les mots-clés en sommant leurs coûts et leurs nombres de clics. Puis, ils génèrent le profil d’enchères (appelé « bid landscape » dans l’article), qui est essentiellement un graphique des combinaisons

nombre de clics – coût total possibles. Sur le graphique agrégé, la solution est donnée par la

valeur de coût total correspondant au budget global de la campagne. La stratégie d’enchère résultante est obtenue en utilisant une combinaison linéaire des deux points qui bordent la valeur du budget global. À partir du coût total et du nombre de clics associé à chacun de ces deux points,

il est facile d’en déduire deux valeurs d’enchère CPC idéales et la proportion du temps pour laquelle chacune des deux valeurs doit être appliquée au cours d’une journée.

Finalement, Kitts & Leblanc (2004) présentent une méthode beaucoup plus sophistiquée que les précédentes, mais qui nécessite la possession d’un historique de données suffisant pour chacun des mots-clés. Ils utilisent des méthodes de régression statistique pour estimer le nombre de clics en fonction de la position, ainsi que la position en fonction de la valeur d’enchère. L’utilisation de ces fonctions leur permet ultimement d’utiliser un modèle global d’optimisation en nombres entiers qui maximise les profits sous une contrainte de budget, en utilisant des variables qui correspondent aux valeurs d’enchère potentielles de chaque mot-clé.

Ainsi, l’optimisation est précédée par une phase d’analyse statistique qui consiste à générer des prédictions pour chacun des mots-clés de la campagne. Afin d’accorder plus d’importance aux observations récentes, une pondération décroissante est appliquée aux données en fonction de leur ancienneté. De plus, les fonctions de prédiction doivent satisfaire certaines conditions de qualité avant d’être considérées comme utilisables dans le modèle. Les auteurs formulent donc certains critères d’évaluation des régressions, puis ils discutent de stratégies d’exploration des mots-clés permettant d’améliorer la qualité de celles-ci, dans les cas où les critères de qualité ne sont pas satisfaits.

Globalement, le modèle d’optimisation est assez simple et la difficulté réside essentiellement dans l’obtention de fonctions de prédiction fiables. Cette approche est particulièrement intéressante puisqu’elle met l’accent sur l’aspect statistique du problème, qui est souvent négligé dans les autres études. En effet, la qualité des solutions obtenues suite à l’optimisation dépend énormément de la précision des fonctions de prédictions utilisées.