• Aucun résultat trouvé

Les outils ROIstes du SEO

N/A
N/A
Protected

Academic year: 2022

Partager "Les outils ROIstes du SEO"

Copied!
9
0
0

Texte intégral

(1)

En partenariat avec

Les outils ROIstes du SEO

PROGRAMME

Les outils ROIstes du SEO:

-Suivre son temps de chargement -Maitriser son duplicate content -Monitorer ses liens de position

-Les plateformes d’optimisation du SEO -Les métriques pour suivre le SMO

Intervenants :

GALERIES LAFAYETTE - Thierry Leforestier, Chef de projet Web / SEO HOMEAWAY France - Cedric Cherchi, SEO Manager

LIBERATION - Julien Apack, SEO & Data Analyst

E-TF1 - Archana Villalba, SEO, SEM and Socia Media project Animé par :

SYNODIANCE – Yann Sauvageon, Directeur Pôle Conseil

(2)

CONFERENCE ANIMEE PAR YANN SAUVAGEON Archana Villalba :

Je suis en charge de l'acquisition trafic (SEO/SEA/SMO) et du social media pour les sites d'e- TF1. L'e-TF1 c'est l'actitivé digitale du groupe. Nous générons 13,7 millions de visiteurs uniques, 1,2 milliards de vidéos vues en 2012 sur le web et 20 millions de vidéos vues en premium par mois. La vidéo est le cœur de notre business.

Thierry Leforestier :

J'ai rejoint les Galeries Lafayette fin 2011 pour accompagner une refonte du site e- commerce. Nous avons sorti un site SEO « compliant » qui a augmenté l'audience d'environs 250% en un an. Aujourdhui, c'est la principale source d'audience sur le chiffre d'affaires du site internet des galeries Lafayette.

Cedric Cherchi :

Je suis responsable du SEO chez Homelidays qui a été racheté par HomeAway.

Homelidays créé en 2011 est leader mondial sur la location de vacance sur internet entre particuliers. Homelidays en chiffres c'est :

-90 000 annonces dans le monde -6 millions de visites par mois

-3,2 millions de visiteurs uniques par mois

-5,3 millions de demandes de réservation sur les douze derniers mois Et une croissance en SEO de 20 à 30% sur cinq ans.

Julien Apack :

Libération génère 20 millions de visites par mois, le SEO en représente 25 % environ. J'ai rejoint l'entreprise il y a un an et demi. C'était une entreprise qui n'avait pas la culure du SEO. Le SEO n'est qu'une partie de mes fonctions, nous investissons peu dans les technologies externes, nous faisons beaucoup de bricolage en interne.

Yann Sauvageon : Quels ont été vos choix en terme d'outils interne ou externe ? Et pourquoi ces choix ?

Archana Villalba :

Nous avons fait le choix des deux. Lorsqu'un outil est facile à développer, nous le développons en interne. Pour des outils plus performants, nous utilisons des ressources externes.

(3)

Julien Apack :

Nous minimisons l'usage d'outils externes car cela a un coût et nous avons besoin d'équipes internes pour les utiliser au quotidien.

Cedric Cherchi :

La capacité à amortir des coûts est important dans l'acquisition ou le développement en interne d'un outil. Ce qui peut aussi décider le choix d'internaliser ou non, c'est l'offre, c'est- à-dire savoir si l'outil existe ou non. Lorsque les outils qui nous intéresse sont à l'étranger, nous internalisons.

Thierry Leforestier :

Nous développons en interne car nous pouvons le faire et nous pouvons aller au plus loin de nos attentes. A 80% les outils sont internalisés.

Yann Sauvageon : Quid des outils techniques, crawlers et analyseurs de logs ? Google est-il en mesure d'analyser mon site ?

Thierry Leforestier :

Un site e-commerce a une part très importante qui est la structure de navigation. Nous simulons le comportement de Google sur le site, un robot en sort différentes données. Nous vérifions différentes éléments sur le dashboard. C'est un outil développé en interne qui se base sur la technologie elastic search. Nous utilisons ces données pour vérifier si la structure est respectée et pousser cette analyse par des logs en scrutant les activité des gens sur Google.

C'est un monitoring standard quotidien.Ensuite, nous faisons des analyses plus poussées avec des données consolidées.

Cedric Cherchi :

Avant de vendre un produit en ligne, il faut dabord créer le contenu, les pages en lignes, la page est ensuite crawlée par les robots d'indexation. La page est indexée pour qu'elle puisse générer du trafic ensuite. Et enfin, il est possible d'atteindre le but de la vente du produit et de générer du ROI. Pour les pages en ligne, un crawler suffit. Mais la seule façon de savoir que la page est bien crawlée est d'analyser les logs. Ce sont des fichiers qui sont sur les serveurs web.

Le principe de l'analyse de logs Il s'agit de :

-Récupérer les logs de tous les frontons web

(4)

-Analyser les crawls des internautes. Les fichiers ont toutes les informations relatives aux pages consultées. On retrouve l'adresse IP, la date de consultation, l'URL, etc..

-Le référeur : d'où vient la personne qui a visité le site -Les temps de réponses, de chargements

-La taille du fichier

Nous stockons tous ces résultats et pour les rendre exploitables, nous les catégorisons ces fichiers. Nous faisons des statistiques de répartition de pages et des statistiques.

Il est possible de créer différents types de statistiques à partir de l'analyse de logs.

Les indicateurs issus de l'analyse de logs :

-Quelles sont les pages crawlées ? -Combien de pages uniques crawlées ?

-Tracer les visites SEO qui va permettre de savoir quelles sont les pages actives du site.

Tous ces indicateurs vont pouvoir être filtrés par code http.

On va pouvoir détecter les pages redirigées, analyser par catégorie de page et par moteur de recherche. Il est possible de suivre tous ces indicateurs dans le temps.

Thierry Leforestier :

Nous suivons les mêmes données mais nous croisons plus avec les données qu'un robot nous donne en interne. Nous détectons les pages fantômes et regardons ce que nous pouvons en faire. Soit voir les bénéfices, soit les éliminer si elles consomment du crawl de Google inutilement. Les pages qui ne sont pas utiles au référencement, qui n'ont pas d'objectif sémantique et sur lesquelles nous ne pouvons pas répondre sur l'index ne doivent pas utiliser un crawl qui pourrait être utilisé par les pages utiles.

Le robot sert à suivre le temps de chargement qui comprend trois points :, le temps de chargement global, le temps de chargement onload, le temps de réponse du serveur. La notion utilisateur est un temps très important prend une part de plus en plus importante dans l'algorythme de Google.

Ensuite, des scénarios sont effectués par EverTest, un outil de monitoring et de scénarisation qui va tester les pages sur les sites.

Julien Apack :

Nous utilisons Google Webmaster Tools de façon simple, pas d'analyseur, pas de crawler, pas d'analyse de log, car trop d'information à traiter en prenant tous les logs des 5 serveurs.

Nous réfléchissons à confier l'analyse du crawl à une société extérieure.

Yann Sauvageon :

L'outil dépend de la taille et des ambitions.

(5)

Outils « contenu » Thierry Leforestier :

Nous sommes un site e-commerce donc le contenu est fortement lié au produit. Nous avons une équipe de 10 personnes qui rédigent les descriptions, pas de spining content (texte à trous). Nous étudions la possibilité de faire appel à des sociétés tierces pour faire du contenu. Le duplicate est une problématique interne et un choix stratégique de longue date.

Utilisation du robot, le crawler, calcul des taux d'unicité des balises et ?...

Julien Apack :

Les titres peuvent être complètement en décalage avec les besoins SEO. Surtout quand viennent des articles sur papier. Nous avons des efforts à faire mais tout se fera de manière manuelle. Chez Libération, le Seo n'a pas pris le pouvoir, l'avis sur les sujets à traiter vient de la rédaction.

Archana Villalba :

Nous avons un système de tag, nous le faisons manuellement et il remonte. Le système est automatique mais a des limites. Nous allons changer d'outil et passer sur Antidote un outil interne. Nous allons pouvoir tager et enrichir ses tag en les précisant. Les recommandations qui en sortiront seront plus pertinentes et nous pourront lier tout type de contenu.

Thierry Leforestier :

Plus une page reçoit des liens, plus elle est susceptible de recevoir de l'audience. La construction d'un site e-commerce est complètement automatisé. Ce sont les produits qui portent les valeurs. Et certaines valeurs contruisent des pages très intéressantes pour SEO.

Nous construisons un linking. C'est en cours de déploiement chez nous, basé sur la technologie elastic search.

Cedric Cherchi :

Google a établi une définition de « contenu dupliqué » :

« Par contenu en double, on entend généralement des blocs de contenus importants appartenant à un même domaine ou répartis sur plusieurs domaines, qui sont identiques ou sensiblement similaires. A l'origine, la plupart de ces contenus ne sont pas malveillants. » Les sources possibles de contenu dupliqué :

-un problème technique interne (code, serveur) -le tracking

-la mauvaise gestion du contenu

(6)

-la déportalisation du contenu -la plagiat

Face à cela, nous ne sommes pas démunis, pour être sûr qu'un contenu peut avoir une seule URL à vie, il y a Google Webmaster Tools qui référencie tous les problèmes possibles. Google monte les problèmes mais il n'est pas sûr davoir tous les problèmes référencés, pour être sûr, il faut prendre un crawler autre ou monitorer son propre crawler.

Thierry Leforestier :

Pour un e-commerce, il est difficile de ne pas avoir un contenu dupliqué car nous envoyons chaque matin des produits sur un comparateur de prix pour en faire de la promotion. Nous ne monitorons pas les contenus qui ont été dupliqués à l'extérieur. En revanche, nous tendons à dissocier ces deux contenus en utilisant le User generality Content en poussant nos clients à laisser des avis sur le site et interagir beaucoup plus.

Nous réfléchissons pour savoir comment faire intervenir notre communauté (…)

Outils « popularité » linking externe

Yann Sauvageon : Comment analyser les liens ? Avec quels outils ? Comment prendre en compte les signaux sociaux ? Quid de l'instantanéité ?

Thierry Leforestier :

Chez Galeries Lafayette, nous n'avons pas une grosse problématique de linking car nous jouissons déjà d'une grande popularité. Notre stratégie est de centraliser tous les contenus et de détecter les potentiels problèmes. Nous utilisons Ahrefs + Google Webmaster Tools comme outils d'analyse de liens.

Archana Villalba :

MyTF1 jouit également d'une popularité importante. Nous travaillons beaucoup sur les réseaux sociaux pour d'autres problématiques que le SEO pour la communication et l'image.

Nous avons une très forte communauté, de 13 millions de fans sur Facebook, 3 millions de followers sur Twitter et 85 000 personnes sur Google +. Nous suivons les signaux sociaux à deux niveaux : via la communauté et via notre site sur les partages de contenu. Google + nous donne une très belle visibilité notamment concernant les requêtes liées à notre marque.

Nous avons deux outils, le plugin Google Analytics pour les réseaux sociaux. Et Facebook Insights for website (la partie statistique est liée au domaine).

Julien Apack :

(7)

Nous utilisons Chartbeat qui permet de repérer les articles à forte popularité sur les réseaux sociaux en temps réel. Au sein de la rédaction, un ecran permet de voir les articles qui génèrent le plus de trafic notamment sur Twitter et Facebook.

Outils de suivi et d'analyse Julien Apack :

Sur la partie Google News, j'ai développé un outil en interne qui scrappe Google News tous les quarts d'heure. Les résultats sont corrects, le classement droite-gauche se fait en fonction des positions dans Google. Il y a la position, le détail des liens qui durent le plus longtemps...

J'ai introduis la notion de ROI-SEO. Le trafic de Google dépend beaucoup de la production.

Cela nous permet d'évaluer sur la durée la performance du SEO.

Yann Sauvageon : Pourquoi et comment suivez-vous des milliers de mots clés en interne?

Thierry Leforestier :

Le monitoring des positions prend de plus en plus d'importance. Google masque désormais les mots-clés qui apportent de l'audience. En france, cela représente 50%, aux Etats-Unis 80%. A partir de là, il est difficile de suivre l'audience que fait la marque. Nous monitorons 20 000 mots-clés dans la thématique mode de façon hebdomadaire. On y associe des volumes de recherche et nous comparons avec nos concurrents. Nous utilisons notamment Searchmetrics.

Outils de suivi et d'analyse Part de marché Cedric Cherchi :

Grâce à un crawler, nous sommes capables de voir ce que nous mettons en ligne, d'analyser les logs, ensuite nous sommes indexer et juste après l'indexation, nous pouvons espérer capter du trafic. Nous essayons de savoir quel trafic nous allons avoir à partir du positionnement. Mesurer les parts de marché c'est être très proche de la réalité en estimant ce que l'on peut gagner avec un meilleur positionnement en terme de trafic. En prenant en compte les volumes de recherche sur chaque mot-clé, il est possible de mesurer comment on se situe sur ce que l'on veut mesurer mais également réaliser une vraie étude de marché en analysant la concurrence.

Pour faire une analyse de parts de marché, il y a différentes étapes :

-Construire un indexe de mots-clés définitifs.

-Associer chaque mot-clé a un potentiel de recherche

-Préparer un modèle de scoring par rapport aux CTR estimés, c'est un modèle statistique qui se base sur les taux de clics par exemple.

(8)

Après l'étape de la préparation, il y a le cycle d'analyse : -récupérer les positions pour chaque mot-clé

-calculer le potentiel de trafic de chaque résultat

Outils de suivi et d'analyse. Tout en 1 Archana Villalba :

Searchmetrics s'est imposé à nous car il est très performant.

Deux niveaux de visions de Searchmetrics :

-La visibilité SEO sur un pool de 6 millions de mot-clés permet de suivre la tendance du marché et la concurrence.

-La partie plus spécifique qui consiste à rentrer ses propres mots-clés.

Yann Sauvageon : Est-ce que cela remplace l'agence ? L'utilisez-vous ? Thierry Leforestier :

Nous l'utilisons de manière ponctuelle pour faire de l'audit.

Julien Apack :

Nous faisons le même usage, nous nous appuyons dessus pour assistance sur structure des pages ou des projets que nous comptons mettre en place. Ils sont en amont de nos projets techniques pour vérifier que nous n'allons pas faire d'erreur.

Cedric Cherchi :

Nous travaillions avec des agences mais ce n'est plus le cas. Nous sommes installés dans 170 pays. En local, chacun a son SEO. Désormais, lorsque nous faisons appel à des agences, c'est pour des points très précis ou si un problème demande un œil extérieur.

Le top 3 des outils SEO Archana Villalba :

Google Webmaster Tools, Extension Webdeveloper, SEO Tools for Excel.

Thierry Leforestier :

Web developper (Firefox), User agent switcher (Firefox), Firebug (firefox).

(9)

Cedric Cherchi :

Un crawler : Xenu (gratuit) ou Screaming Frog (payant), Google Webmaster Tools, Google Analytics.

Julien Apack :

Chrome « outil de développement », Scrapper Google News, Google Webmaster Tools.

Séance de questions

Question du public : Ce qui m'étonne, c'est la marche en silo du SEO et du SEA. Quel est votre retour sur le sujet?

Cedric Cherchi :

Dans la plupart des entreprises, les fonctions ne sont pas dans les mêmes équipes. Avec le SEO, on ne gère pas de budget. Mais lorque l'on achète du trafic via le SEA, il peut y avoir un impact car on favorise l'URL avec les usages. Ce qui envoit des signaux positifs avec l'URL aux moteurs de recherche.

Thierry Leforestier :

Nous faisons le choix d'être systématiquement présent en SEO ou en SEA acr même si nous sommes premiers en SEO, les concurrents peuvent acheter des emplacements premium.

Concernant la part en terme de coût, c'est un rapport de 1%. L'investissement en SEM est beaucoup plus élevé qu'en SEO.

Question du public : Comment communiquez-vous ces outils à vos journalistes ? Julien Apack :

Les journalistes sont très demandeurs en matière d'audience et de trafic. Nous comuniquons ces outils mais sans faire de classement global par rédacteur. En dehors d'un accès Xiti et Chartbit, les journalistes n'ont pas d'autres demandes sur les outils.

Références

Documents relatifs

Également dénommées « hélophytes », ces plantes sont les espèces les plus communément employées au sein des filières d’épuration dans lesquelles les écoulements

Dans le cadre de la directive cadre sur l’eau, et afin de contribuer à atteindre ou à maintenir le bon état éco- logique des masses d’eau, l’utilisation des macrophytes

Parmi les plus connues figurent des plantes flottantes comme la jacinthe d’eau déjà citée ou plusieurs genres de plantes immergées appartenant à la famille des

J eanne VRIILON nous dit ici comment e ll e fait quelquefois appel aux Maitres pour provoquer chez 1 enfan t une sorte de méditation collective qui facilite

Il grimpe sur la colline pour s’amuser, rencontre ses cousins lapins, joue à colin-!. maillard

Il grimpe sur la colline pour s’amuser, rencontre ses cousins lapins, joue à colin-maillard

On nous laisse mê me entendre que nous sommes bien retardataires, que nous ne saurons nous adapte r au monde moderne qui veut la classe-cube fonc- tionnelle,

L e mai des étudiants a fait et fera encore l'objet de très nombreuses études psychologiques, sociologiques, politiques, de sorte que les lecteurs de L'Educateur