• Aucun résultat trouvé

Optimiser son référencement sur les moteurs de recherche | Unité Régionale de Formation à l'Information Scientifique et Technique

N/A
N/A
Protected

Academic year: 2021

Partager "Optimiser son référencement sur les moteurs de recherche | Unité Régionale de Formation à l'Information Scientifique et Technique"

Copied!
92
0
0

Texte intégral

(1)

Guillaume Sire

MCF – Université Toulouse 1 Capitole

Optimiser son

référencement sur les

moteurs de recherche

(2)

Introduction : publier vs publiciser

« The Internet makes information available. Google makes

information accessible. »

(3)

Introduction : publier vs publiciser

} On passe d’une dichotomie public/privé tranchée, à un

continuum où certains propos sont plus publics que d’autres

} Leur action ne dépend jamais d’un seul acteur : elle

traduit les actions de plusieurs acteurs pour générer une « échelle de visibilité collective » (Cardon, 2010)

(4)

Introduction : publier vs publiciser

} L’optimisation ce n’est pas seulement la maximisation,

(5)

Introduction : publier vs publiciser

« The Internet makes information available. Google makes

information accessible. »

(6)

Introduction : publier vs publiciser

(7)

Triangle d’or

(8)

55% de clics sur les trois premiers liens

(9)

Différencier SEO de SEM/SMO

} Search Engine Optimization

(10)

Plan de cours

} Introduction

} 1. Le fonctionnement des moteurs } 1.1 Crawling } 1.2 Indexation } 1.3 Appariement } 2. Le texte / La pertinence } 3. La fréquence de publication } 4. La performance du contenant } 5. Les liens / la centralité

} 6. Les balises meta

} 7. Le protocole robots.txt

} 8. Les liens enrichis / microdonnées } 9. Les signaux sociaux

} 10. Les outils } 11. L’éthique ?

(11)
(12)

1.1 Crawling

} Regardez votre page avec l’œil du crawler

} Google cache

} SEO Tools Spider Simulator

(13)

1.1 Crawling

} Regardez votre page avec l’œil du crawler

} Google cache

(14)

1.1 Crawling

} Regardez votre page avec l’œil du crawler

} Google cache

} SEO Tools Spider Simulator

(15)

1.1 Crawling

} Le temps crawler

} La profondeur de crawling } Les priorités

} Fréquence (Crawl-delay)

Quand vous validez votre site avec Google Analytics, la vitesse de votre crawl peut passer de 1 url/seconde à 10 urls/seconde.

(16)

1.1 Crawling

(17)

1.1 Crawling

} Comment savoir si le bot est passé sur mon site ?

} Analyse de logs

} https://www.screamingfrog.co.uk/log-file-analyser/

(gratuit)

¨ Tutoriel : https://www.410-gone.fr/seo/optimisation-on-site/analyse-de-logs

(18)
(19)
(20)

1.3 Appariement

} Pour Google, 200 à 300 autres critères, mesurant 6 points

} Pertinence } Performance } Fréquence } Centralité } Signaux sociaux } Personnalisation } Secret algorithmique…

(21)

1.3 Appariement

(22)

1.3 Appariement

} Les critères connus (Pertinence) } Choix des mots pour le titre,

} le chapeau, } l’adresse URL

} Ancres des hyperliens } Légende des photos

} Nom d’auteur (auteur connu) } Rubriquage

} Originalité du contenu } Les « Like » et « +1 »

(23)

1.3 Appariement

(24)

2. Le texte / la pertinence

} Toujours explicite } 1 page = 1 requête

} La bonne longueur : entre 200 et 400 mots selon O.

Andrieu (Abondance.com)

(25)

2. Le texte / la pertinence

1. URL

2. Ancres

3. Balises Title 4. Balises H1

5. Mots en gras (avec balises <strong> et non la balise <b>) 6. Mots en italique (avec balises <em> et non la balise <i>) 7. Balises « description » des pages

(26)
(27)
(28)
(29)
(30)
(31)

Faut-il répéter un mot ?

} Ce n’est pas une question du nombre de répétition

mais de densité

} Indice de densité (IDM) : Nombre d’occurrences du mot dans

la page / nombre de mots dans le document

} Idéalement, l’IDM du mot visé est entre 2 et 5%

(Abondance.com)

} Calcul d’IDM :

(32)

1.2 Indexation

Source : https://www.redacteur.com/blog/optimiser-son-referencement-seo-grace-a-la-longue-traine/

Outils pour mots clefs :

https://fr.semrush.com/features/keyword-research/ https://insight.yooda.com/

(33)

} Comparer les mots-clés avec « Google Trends » } Trouver des synonymes, des termes associés

(34)

3. La fréquence

} Nouveau contenu régulièrement publié

} Ancien contenu mis à jour, avec de nouvelles informations

} Google aime le « Direct »

} idéalement : une publication massive par jour (au moins 5 articles

d’un coup)

} Attention aux reprises exactes seulement pour augmenter la

(35)

4. La performance

} Les critères connus (Performance)

} Le but : simplifier la vie du robot, du moteur, de Google…

} Content Delivery Network (9€ à 599€/mois) } CMS léger

} Arborescence peu profonde et régulière } Images légères

} Formats de texte léger (du HTML, pas de Flash)

(36)

4. La performance

} Les critères connus (Performance)

} Le but : simplifier la vie du robot, du moteur, de Google…

} Content Delivery Network (9€ à 599€/mois) } CMS léger

} Arborescence peu profonde et régulière } Images légères

} Formats de texte léger (du HTML, pas de Flash)

} Le problème : le plus riche serait-il le plus visible ?

(37)

https://developers.google.com/speed/pages peed/insights/?hl=fr

} Les critères connus (Performance)

} Le but : simplifier la vie du robot, du moteur, de Google…

} Content Delivery Network (9€ à 599€/mois) } CMS léger

} Arborescence peu profonde et régulière } Images légères

} Formats de texte léger (du HTML, pas de Flash)

} Le problème : le plus riche serait-il le plus visible ?

(38)

4. La performance

(39)

4. La performance

(40)

5. Les liens

(41)

5. Les liens

(42)

5. Les liens

} Pour votre propre site, rien de tel que la Search Console de Google

(attention, la commande « link: » n’a jamais vraiment marché et ne marche officiellement plus depuis janvier 2017)

(43)

5. Les liens

} Outils gratuits :

} http://www.seoreviewtools.com/valuable-backlinks-checker/ } https://smallseotools.com/backlink-checker/

(44)

5. Les liens

(45)

5. Les liens

} Backlink cheker (payant) :

(46)

5. Les liens

} SEM RUSH :

(47)
(48)
(49)

5. Les liens

> Définir une

politique de

(50)

5. Les liens

(51)

5. Les liens

(52)
(53)

5. Les liens

(54)

5. Les liens

} Solution n°2 : liens vers pages d’atterrissage

(automatique ou non)

(55)

5. Les liens

} Pour analyser les liens entrants :

} Linkody :

(56)
(57)
(58)
(59)

6. Les balises meta

} Dans le <head> de la page (cela n’est pas affiché), elles permettent de

donner des instruction aux crawlers

Pour une liste complète des balises meta et un guide d’utilisation, voir par exemple :

http://www.ybet.be/inter net-22/liste-meta.php

(60)

6. Les balises meta

} La balise description : extrêmement importante, notamment

pour les pages d’accueil !

} 20 à 50 mots maximum / 165 caractères max

} En plus d’optimiser, cela permet de ne pas avoir un extrait qui n’est pas

(61)

6. Les balises meta

} Attention, la balise meta « keywords » ne sert à rien (c’était

pourtant l’outil idéal, cependant certains référenceurs sont allés trop loin)

(62)

6. Les balises meta

(63)

6. Les balises meta

}

(64)

6. Les balises meta

(65)

7. Le Robots.txt

} Robots.txt (racine du site)

Guides d’implémentation : http://robots-txt.com/

https://support.google.com/webmasters/answer/6078399?hl= fr

(66)

7. Le Robots.txt

} Robots.txt (racine du site)

Guide d’implémentation :

https://support.google.com/webmas ters/answer/6078399?hl=fr

(67)

7. Le Robots.txt

} Robots.txt (racine du site)

http://tools.seobook.com/robots-txt/analyzer/ http://tools.seobook.com/robots-txt/generator/

Guide d’implémentation :

https://support.google.com/webmas ters/answer/6078399?hl=fr

(68)

7. Le Robots.txt

} Robots.txt (racine du site)

http://tools.seobook.com/robots-txt/analyzer/ http://tools.seobook.com/robots-txt/generator/

(69)

Crawl Delay (source : robots-txt.com)

} Robots.txt (racine du site)

http://tools.seobook.com/robots-txt/analyzer/ http://tools.seobook.com/robots-txt/generator/

(70)

7. Le Robots.txt

} Les Sitemaps XML

} Permet entre autre de donner des priorités } https://www.sitemaps.org/fr/protocol.html

(71)

7. Le Robots.txt

} Les Sitemaps XML

(72)

7. Le Robots.txt

} Les Sitemaps XML

} Un sitemap ne peut lister qu'au maximum 50 000 URL

(73)

7. Le Robots.txt

} Les Sitemaps XML

} Un sitemap ne peut lister qu'au maximum 50 000 URL

(74)

7. Le Robots.txt

} Les Sitemaps XML

} Un sitemap ne peut lister qu'au maximum 50 000 URL

(75)

8. Les liens enrichis

} Les

(76)

Les liens enrichis

} Les

(77)

Les liens enrichis

} Les

(78)

9. Les signaux sociaux

} Les critères connus (Signaux sociaux)

} Nombre de tweets } Nombre de Like } Contacts Gmail

(79)

10. Les outils

} Google publie des « bonnes pratiques » sur sa « Aide Search

(80)

Outils : Google

Web master tools

https://www.google.com/webmasters/t ools/home?hl=fr

(81)

11. L’éthique ?

Source : Sire G. (2016), « Le pouvoir normatif de Google. Analyse de l’influence du moteur sur les pratiques des éditeurs », Communication & Langages, n°188, 2016, p. 91-105.

(82)

Ex n

°1 : le marché des liens

} Le risque d’un marché du lien ?

(83)

Ex n

°2 : lemonde.fr

(84)

Ex n

°2 : lemonde.fr

} Et en back office…

(85)

Ex n

°2 : lemonde.fr

} Et voilà le travail :

(86)

Responsive design

} Qu’est-ce que le Responsive Design ?

(87)

Responsive design

} Outils pour voir à quoi ressemble votre site sur les

différents terminaux :

} http://apps-fr.orson.io/piresponsive

} http://ami.responsivedesign.is/ } screenqueri.es/

(88)

Responsive design

} Bibliothèque d’éléments responsive :

http://bradfrost.github.io/this-is-responsive/patterns.html

(89)

Quelques mots à propos du référencement payant

} Score de qualité

} Mot exact ou « correspondance »

(90)

Quelques conseils de sites

} Search Engine Land : https://searchengineland.com/

} SEO Moz : https://moz.com/

(91)

Quelques conseils de sites

} Search Engine Land : https://searchengineland.com/

} SEO Moz : https://moz.com/

(92)

Questions Discussion

Références

Documents relatifs

– Cr´eez `a la racine de votre compte un r´epertoire nomm´e public html et dans ce r´epertoire public html cr´eez un r´epertoire pour le module A4, nomm´e a4 par exemple. Essayez

Nous avons mené deux approches parallèles en prenant comme données de calibration et de validation, d’une part, des données pédologiques ponctuelles qui font référence

Mais on ne peut pas obtenir

Recherche d’informations en Open Access Contributions à l’Open Access.. Diaporama construit à partir du support de l’URFIST de Paris – Aline Bouchard Exploiter l‘Open Access

Restent à interpréter les paragenèses particulières qui s'observent dans certains matériaux ultrabasiques et basiques dispersés sur tout le territoire de la feuille : matériaux

On les trouve en lentilles décimétriques à décamétriques le plus souvent associées à des roches basiques (amphibolites banales de la carrière de la Gente au Nord-Nord-Ouest

[r]

- CEC et cations échangeables (Ca, Mg, K, Na) et taux de saturation S/T, - et pour les sols acides, teneur en aluminium échangeable. Les analyses doivent être effectuées dans un