Le référencement naturel sur Google et les autres moteurs de recherche – autrement appelé SEO pour Search Engine Optimization – est un sujet maintes fois traité. Pourtant, il est encore difficile de trouver aujourd’hui un article qui explore des convictions plutôt que des principes.
Trop souvent, on détaille les bonnes pratiques, mais sans chercher à se différencier. On applique les recommandations Google, mais sans prendre de partis. Ainsi, si tout le monde fait la même chose, personne ne va sortir du lot, n’est-ce pas ? Sans prétendre à la vérité absolue, cet article va donc explorer des solutions SEO encore trop ignorées par les marketeurs.
Les quelques principes de bases du référencement naturel
Sans rentrer dans trop de détails largement traités partout sur le web, voici les règles de base d’un bon référencement sur les moteurs de recherche. Il est important de maîtriser ces prérequis avant de vouloir se différencier. D’où un rappel que quelques techniques de bases.
L’optimisation technique
Fondement du SEO on-page, l’optimisation technique d’un site web peut permettre, sans modifier le contenu, de gagner de nombreuses places sur les moteurs de recherche. Et même un site bien construit peut toujours être optimisé. Quelques critères clés à perfectionner :
Les balises :
Chaque balise doit être unique et différente : Hn (de H1 à H6), Title, Meta Description, Alt image… Il va de soi également que les principales balises doivent être renseignées (Title, description, H1, H2 et Alt).
Les URL :
L’URL définit le chemin vers une page. Il faut donc y porter la plus grande attention. Cela commence dès le https:// (qui doit justement comporter le s, le http:// est à bannir de tout site, y compris dans les liens qu’on y insère). Ensuite, le chemin doit être clair, grâce à la définition de silos (catégories) explicites. Utiliser /blog lorsque l’on publie un article semble évident, mais n’est pas systématique. Enfin, chaque slug [1] doit être optimisé. On recommande que chaque page créée comporte uniquement les principaux mots clés dans son URL, sans article ou pronom. Cependant, les CMS d’aujourd’hui construisent les URL à partir des H1 ou des balises Title, ce qui est très acceptable. Il n’est donc pas nécessaire de renommer l’URL à chaque nouveau produit. Il faut juste vérifier que le slug ne soit pas une date, un numéro et ne comporte pas de caractères interdits.
Le code :
Un bon site web est un site web rapide. On estime qu’au-delà de 3 secondes de chargement [2], le visiteur ferme l’onglet. Les robots Google quant à eux, pénalisent fortement les sites lents, sur desktop comme sur mobile. Il est facile de tester son site sur PageSpeed de Google, et de trouver les points d’amélioration. De manière générale, il faut veiller à la légèreté du code (scripts compressés, poids des images, JS et CSS compressés, etc.).
Un site responsive :
Parler de responsive en 2021 est déjà un peu désuet. Cela fait quelques années que Google réfléchit mobile first lorsqu’il référence un site. Chaque page web doit ainsi être pensée pour être consultée sur mobile. Pour cela, il faut prendre en compte le design, l’ergonomie (une taille de police lisible, des textes à la bonne longueur, des images redimensionnées, etc.), la vitesse de chargement, le finger scroll vs le mouse scroll, l’appui long, etc. Par exemple, certains blogs divisent leurs contenus desktop en plusieurs pages mobiles, avec à la fin de chaque paragraphe les boutons « suivant » et « précédent ». Cela leur permet certes d’améliorer le maillage interne et le nombre de pages vues (ou comment gonfler ses stats pour vendre plus de publicité), mais aussi d’optimiser la vitesse de chargement et de proposer des images plus grandes sans forcer l’utilisateur à trop scroller.
Un site propre :
Par propre on entend un site sans erreur d’indexation, sans liens morts (internes et externes), sans erreur 4xx. De même, un site propre est un site qui communique bien avec les moteurs de recherche, grâce notamment à son sitemap.xml et à son robot.txt, à un PIM [3] pour les e-commerçants, à ses attributs follow et nofollow, ou encore à ses attributs hreflang. Pour un site propre, le temps passé en maintenance et en inspection est essentiel. Nos meilleurs amis ici sont les redirections 301 (voire 302 [4]) et Google Search Console (et/ou Bing Webmaster Tools).
L’expérience utilisateur
Google tente via ses robots de crawl de reproduire au maximum le comportement du visiteur. Ainsi, optimiser l’expérience utilisateur indiquera à Google que le site est bien construit et possède une ergonomie favorable. Le moteur de recherche aura donc tendance à mieux le référencer. Les principes fondateurs de l’UX et de l’ergonomie sont la lisibilité (familles et tailles de typographies, design d’interface, affordance), le parcours on site (maillage interne, nombre de clics pour accéder à une information, positionnement des liens sur la page), le storytelling (stimulations cognitives, pédagogie, micro-interactions), etc. Pour aller plus loin, chez Keley, nous avons beaucoup écrit sur le sujet UX, sur notre blog et dans la présentation de nos services (design de services, ergonomie ou encore tests utilisateurs).
Attention, le parcours utilisateur se réfléchit aussi off-page ! Et cela facilitera le référencement d’une entreprise. Par exemple, les retailers ont tout intérêt à optimiser leur SEO local, via Google My Business notamment.
Un contenu qualitatif
Le contenu est la clé de tout marketing réussi aujourd’hui. S’il va au-delà de la stratégie SEO, il en est un pilier incontournable. La première étape est de réfléchir à sa stratégie de mots-clés. Partons du principe que l’on référence une page et non un site entier (c’est techniquement vrai, même si chaque page doit être cohérente avec sa voisine lorsqu’elles font partie d’un même site). Chaque page devra donc se positionner sur une seule thématique, en choisissant un mot clé principal. Ici deux façons de procéder cohabitent :
- S’en tenir à un mot clé répété partout, afin d’optimiser sa position, au risque que Google prenne cela pour de la sur-optimisation et pénalise la page
- Choisir un mot clé principal, plusieurs fois répété, et des mots clés analogues (synonymes, paraphrases, etc.) à utiliser dans les balises Title, Meta description, etc, pour se laisser une chance de tisser une plus grande toile, quitte à être moins performant sur chaque mot.
Dès que cette stratégie de keywording est en place (cela peut prendre plusieurs mois, entre l’identification de persona, l’étude des concurrents, l’analyse des requêtes, la longue traine, etc.), il reste le plus dur, créer un contenu pour chaque page qui soit :
- Original : il faut bannir le copier-coller, cela évitera le contenu dupliqué, qui est rédhibitoire pour les moteurs de recherche (ou alors il faut indiquer l’original à Google avec une balise rel=canonical)
- Suffisamment long. Théoriquement, Google ne classe pas une page en fonction de la longueur du texte, mais en fonction de la pertinence de la réponse apportée. Cependant, une page avec minimum 800 mots est très souvent perçue comme apportant une meilleure réponse au visiteur. Alors autant produire un contenu long (dans le cadre du e-commerce, les descriptifs produits ne doivent jamais être négligés)
- Qualitatif : un contenu doit être documenté, chiffré, attractif, pour retenir au maximum l’utilisateur.
Des pages liées
Enfin, dernier pilier incontournable d’une bonne stratégie SEO : le maillage. Il doit être efficace aussi bien en interne (créer un parcours sur le site, proposer d’approfondir la réflexion, de voir d’autres produits), qu’en externe. Pour le maillage interne, il est conseiller de dessiner une carte du site, avec toutes les interactions qui doivent exister entre les pages.
Pour le maillage externe, communément appelé le backlinking, c’est beaucoup plus compliqué, puisque souvent, cela ne dépend pas de soi. Il faut en effet trouver tous les sites qui sont en rapport avec votre activité, bien noté par Google et qui vont accepter de mettre un lien sur leur site dans un encart-texte optimisé. Il existe pour cela plusieurs techniques, plus ou moins efficaces selon les secteurs, pour obtenir des backlinks de qualité (attention, il ne faut plus faire une stratégie netlinking en plaçant des liens sur des annuaires, des forums…). Citons de manière non exhaustive :
- Le tracking de mentions consiste à rechercher de toutes les mentions de l’entreprise sur le web qui n’ont pas de lien, dans le but de demander la création de ce lien pointant vers le site
- Le guest posting, ou le fait de proposer à un site de créer pour lui du contenu en échange d’un lien pointant vers son propre site
- Le skycraping, qui consiste à identifier le contenu le plus qualitatif sur une thématique (et donc qui aura de nombreux backlinks) et à produire un contenu similaire mais encore meilleur, puis ainsi de demander poliment aux hébergeurs du contenu initial de remplacer le lien par le sien
- L’échange de liens, technique classique, consistant à échanger des liens avec un fournisseur, un partenaire, etc. Google peut pénaliser les abus dans le cadre d’un échange binaire, mais il aura un peu plus de mal à repérer les échanges triangulaires (sauf si les sites sont hébergés au même endroit, auquel cas Google le verra immédiatement).
- La chasse aux liens morts. Fastidieux, compliqué, mais efficace, cette technique consiste à suivre des sites pertinents et à proposer sa propre URL en cas de lien cassé. Ici aussi, la politesse et l’à-propos permettent d’obtenir de bons résultats
- Les RP numériques, enfin, restent peut-être le moyen le plus probant de faire du backlinking. Cela repose sur un contenu de grande qualité (tribune, étude, infographie, etc.) proposé habilement aux rédactions numériques
Point important de tout maillage, il faut porter un grand soin dans la création de l’ancre, qui doit être explicite et pertinente. La bonne pratique consiste à choisir le mot-clé de la page de redirection, et surtout pas à des « cliquez ici » ou « en savoir plus ». Ces termes sont à garder pour les boutons, qui ne comportent pas de balise href (réservés aux liens).
Faire du SEO like a boss
Soyons clairs d’emblée. On ne parlera pas ici de stratégie black hat. Bien qu’elles apportent des résultats immédiats, le fait qu’elles violent les règles des moteurs de recherche fait pendre une épée de Damoclès au-dessus du site. Ce n’est donc pas une manière durable pour optimiser son référencement.
D’autres solutions fiables et pérennes sortant des sentiers battus existent. En voici quelques-unes.
Optimiser vraiment les images
Lorsqu’on intègre une image à une page, on se contente souvent de remplir sa balise alt. Parfois, on la redimensionne pour optimiser la vitesse de chargement, mais c’est tout. Les images restent une optimisation méconnue. Pourtant environ 20% des recherches sur les moteurs de recherches passe par l’image. Un schéma bien senti, une illustration originale, une belle photo de produit sont autant de chances de gagner des visiteurs.
Alors, comment améliorer votre référencement grâce aux images ?
- Choisir le bon nom de fichier (pull-laine-blanc-oversize.jpg plutôt que IMG_00075.jpg)
- Donner un titre à l’image (avec le mot clé), la plupart des CMS le permettent
- Définir une balise Alt, en décrivant le rapport de l’image avec la page et en intégrant le nom de l’entreprise. Par exemple pour cet article « sculpture de jumelles en bronze symbolisant le référencement naturel »
- Intégrer une légende en dessous de l’image
- Optimisez l’hébergement dans un dossier prévu à cet effet (exemple : /assets/picture/nom-de-fichier). Il est d’ailleurs préférable d’héberger les images sur son site plutôt que de les intégrer via un lien. Sinon, c’est le site d’origine qui bénéficie du référencement !
Si un site a beaucoup d’images et que certaines sont liées à des scripts, il est possible de créer un sitemap propre à ces images. Cela apportera alors une aide à Google dans l’identification et le référencement de ces images.
Petite astuce. Lorsque l’on détient les crédits d’une image (photo, illustration, infographie, etc.), il peut être pertinent d’effectuer une recherche par image dans Google Images, pour identifier si l’image dont on est propriétaire est utilisée ailleurs. Dans ce cas, on a toute la légitimité pour demander à ce que l’image pointe vers son site via un lien dans les crédits photos.
La taille et le poids des images relèvent plus de l’optimisation technique des site web. Cependant, si le choix est fait d’avoir des images allégées et/ou redimensionnées pour la version mobile d’un site, il est alors possible de jouer sur un double référencement, avec des alt, titre, légendes similaires mais différentes, pour coller au mieux aux attentes des utilisateurs desktop et mobile. Ce niveau de segmentation et précision dans la stratégie SEO reste néanmoins rare.
Cette attention portée aux images peut vous apporter jusqu’à 20% de visiteurs en plus, et notamment un public jeune, les 15-25 ans étant les plus friands de recherche par l’image.
Intégrer des FAQ à ses pages
Cela n’a échappé à personne, Google devient de moins en moins un moteur de recherche et de plus en plus un moteur de réponse. Formalisant son ambition de devenir omniprésent, Google cherche à conserver l’utilisateur le plus longtemps sur ses pages, c’est le Zero Click Search. L’une des illustrations de ce phénomène est les questions fréquemment posées. Elles peuvent être soit décidées par Google sous le répertoire « Autres questions posées », et dans ce cas, ce sont les sites apportant la meilleure réponse qui sont référencés. Soit c’est le site lui-même qui le propose, via quelques lignes de code. Cette dernière solution assure généralement à la page un référencement très haut, puisque Google considère alors que vous répondez totalement au besoin de l’utilisateur.
Google juge ici l’intention plus que le contenu. C’est-à-dire que c’est au site d’être assez malin pour ne donner qu’une réponse partielle, encourageant ainsi à cliquer sur le lien pour valider ce référencement avec une visite.
Aujourd’hui, le phénomène est encore rare. Il est donc opportun de proposer ce système sur un maximum de page afin de gagner un maximum de position. La mise en place étant plutôt simple, c’est un moyen de référencement au ROI rapide.
Rechercher la featured snippet Google
Avant les FAQ et toujours dans une démarche de zéro clic, étaient apparues les featured snippets ou position 0. Ce sont ces boites de texte (la Google Answer Box), placées sous la barre de cherche et qui sont censées donné à l’utilisateur la réponse immédiate et complète à sa requête.
Bon, lorsque l’on dit placées sous la barre de recherche, ce n’est pas tout à fait vrai. Si la requête est monétisée, les annonces apparaîtront avant. Google ne cherche pas non plus à faire baisser ses revenus publicitaires. Et lorsque l’on parle de réponse complète, ce n’est pas tout à fait vrai non plus. Là aussi, de la même manière que pour les FAQ, le site peut faire preuve de finesse pour ne donner qu’une réponse partielle, incitant l’utilisateur à cliquer sur le lien toujours présent. Par exemple, si le site propose une liste, les derniers items peuvent être masqués, pour que l’internaute clique sur plus.
Quoiqu’il en soit, la position 0 est un must have pour toute page web. Elle verra non seulement une augmentation significative de son trafic (la featured snippet cannibalise les clics réservés alors au top 3), mais sera également rassurée sur la qualité de sa page puisque Google lui-même l’aura jugée comme plus pertinente pour ses utilisateurs.
Comment obtenir des featured snippets :
La bonne nouvelle est que les position 0 sont tout à fait gagnable. Bien qu’elles existent depuis près de 5 ans, rares sont les marketeurs qui ont intégré la démarche en tant que telle à leur roadmap. La position 0 reste souvent pour eux un bon résultat plutôt qu’un objectif en tant que tel. Pourtant, les étapes ne sont ni compliquées ni chronophages. Nous avions déjà présenté la technique dans un article sur le Zéro Click Search, en voici un résumé :
- Choisir les bons mots-clés. Parmi toute la liste de son keywording, il faudra sélectionner ceux qui sont en première page en priorité, signe que Google juge la page pertinente. Puis, en testant ces mots clés dans Google, voir ceux qui offrent déjà une position 0, sans qu’il y ait d’annonce payante. Ces mots ainsi retenus seront prioritaires
- Étudier les potentielles longue traîne. Google a tendance à placer des featured snippets lorsque l’utilisateur pose une question. Y répondre directement augmentera ainsi les chances d’obtenir la position. Pour cela, AnswerThePublic est un bon outil.
- Travailler son contenu. Par exemple via un mini-résumé en tête d’article, de la longueur d’une Google Answer Box, ou encore via des listes.
- Adapter les h1 et surtout les balises Title, pour qu’elles épousent les différents formats de position 0 : « comment » pour des tutoriels, « qu’est-ce que » pour des définitions, « combien » pour des listes, etc.
Élargir sa stratégie de mots-clés SEO
La compétition pour les meilleurs mots-clés est rude. Aussi bien en SEO qu’en paid. Les meilleurs mots-clés sont pris d’assaut et la concurrence investit énormément pour remporter un marché qui restera fragile et provisoire. Alors pourquoi ne pas chercher à se différencier ? D’autant plus si on est une petite structure et que notre budget SEO est modeste. Or, les mots-clés à faible volume sont souvent délaissés. Parce qu’ils sont moins rentables à suivre et parce qu’ils apportent beaucoup moins de trafic. Pourtant, il est préférable d’être bien placé sur quelques mots à 100 requêtes par mois qu’invisible et noyé dans la masse sur une requête à 10 000 clics.
Comment doper son référencement avec une stratégie de mots-clés élargie ?
- Ouvrir son outil de mots clés (SEMrush, Ahrefs, Moz, voire Google Keyword Planner) et tester tous les mots clés de sa stratégie (et d’autres encore) en essayant d’être le plus exhaustif possible
- Regarder le nombre de pages indexées sur Google sur le mot-clé (visible sur Google au-dessous de la barre de recherche)
- Noter le nombre de requêtes associées à ces mots clés, ainsi que les possibilités offertes par les moteurs de recherche (featured snippets, vidéos, autres questions posées, etc.)
- Pondérer la compétition, le nombre de requêtes et la pertinence du mot pour obtenir une notre qui donnera l’intérêt de s’y positionner
- Positionner ses pages sur les mots-clés les mieux noté selon son propre barème
En référencement, il faut parfois mieux adopter une stratégie de niche qui donnera des résultats plutôt que de s’attaquer à un marché que l’on ne pourra pas remporter.
Développer des micro-interactions
Pour une optimisation SEO, chaque progrès est important. Le temps passé sur une page est un KPI souvent négligé, mais il reste puissant. En effet, plus on passe de temps sur une page, plus cela signifie que l’on trouve ce que l’on souhaite. Et plus on interagit sur cette page, plus cela indique qu’elle répond à notre besoin, et ainsi, on y passe plus de temps. Or on l’a dit, les robots Google tentent de reproduire le comportement de l’utilisateur lorsqu’ils analysent un site. Ainsi, si on montre au crawler de bonnes interactions sur une page, il va recommander cette page.
Et la meilleure façon de développer cela sont les micro-interactions. On peut les définir par de courts instants pendant lesquels l’utilisateur et l’interface interagissent. Toute la spécificité de ce qu’on appelle micro-interaction réside dans l’aspect court du phénomène, mais également dans la dimension émotionnelle et dans la satisfaction qu’elle apporte à l’utilisateur. Si le robot Google n’est pas encore capable de ressentir des émotions ou d’être satisfait, il peut détecter ces micro-interactions et les classifier comme des bons points pour la page. Voici quelques exemples qui parlent aux crawlers :
- Une animation confirmant la bonne tenue d’une action, comme la mise en panier d’un produit : le bouton devient vert, un message informe l’utilisateur, un pouce apparaît sur l’écran, etc.
- Une animation au survol du pointeur : lien en surbrillance, zoom sur une image, ombre apparaissant autour d’une boîte, etc.
- Des effets de scroll : la page se bloque au scroll sur la position exacte de la section, les éléments importants de la section s’animent lorsqu’ils entrent en vue, une barre/jauge se remplit au fur et à mesure que l’on descend la page, etc.
Les micro-interactions sont aujourd’hui surreprésentées sur mobile, mais les pages desktop ne doivent pour autant pas les oublier. Quoi de plus satisfaisant qu’un ✔️ vert lorsque l’on remplit le champ d’un formulaire sur un site ?
Analyser ses logs
Quel meilleur moyen pour savoir comment Google perçoit votre site que d’identifier le parcours et les actions de ses robots de crawl ? Bonne nouvelle, c’est tout à fait possible. Il faut pour cela étudier les logs de votre site. Qu’est-ce qu’un log ? Un log serveur est un fichier qui compile des informations enregistrées par le serveur sur lequel le site est hébergé. L’intérêt ici est d’analyser le fichier access.log, qui compile les requêtes d’accès au serveur du site, y compris celles faites par Google, et les autres moteurs de recherche.
Grâce à cette analyse – via des outils trouvables facilement (et souvent gratuit) – il est ainsi possible de savoir quelles pages les bots ont visité, à quelle fréquence, les codes reçus (200, 404, 301, etc.), la version desktop et/ou mobile. On peut donc identifier les erreurs qu’a rencontré le crawler Google en analysant votre site. Et inversement, on peut se rendre compte que Google s’attarde à crawler des pages non nécessaires pour le référencement (la page de contact par exemple, utile à l’utilisateur, mais a-t-elle besoin d’être référencée ?) qui prennent la place d’autres pages plus importantes dans le budget crawl. En fonction de la situation, il peut alors être opportun de passer des pages en noindex.
La fréquence de crawl des pages d’un site est un indicateur qu’on a tendance à oublier. Pourtant, c’est peut-être le plus important pour identifier les pages à améliorer. En effet, si certaines pages d’un site sont crawlées moins souvent par les bots Google, c’est qu’il y a une raison. Et cette raison tient sans doute dans les quatre piliers du SEO que l’on a vu au début de l’article : une page techniquement plus faible, au contenu moins qualitatif, à l’UX perfectible et/ou à la popularité insuffisante. Réciproquement, une page crawlée fréquemment est une page de qualité. Elle sera donc placée en tête sur Google, et générera plus de trafic, et sera ainsi reconnue comme plus qualitative, etc.
Une page web fonctionne comme un post sur les réseaux sociaux finalement. Plus elle marche, plus elle sera poussée, plus elle marchera. C’est un cercle vertueux qu’il faut tenter au maximum d’appliquer à ses meilleures pages pour en tirer un total bénéfice.
[1] https://en.wikipedia.org/wiki/Clean_URL
[2] https://fr.semrush.com/blog/50-faits-incontournables-pour-votre-strategie-seo/
[3] https://fr.wikipedia.org/wiki/Product_information_management