C’est quoi le Référencement Naturel ? – Guide 2022
- Ecrit par
- Rudy
- le 04/01/2022
Pour faire court : le référencement naturel, c’est la façon dont les moteurs de recherche (Google, Bing, Yahoo…) classent les résultats des requêtes de leurs utilisateurs.
Mais dans ce guide sur le référencement naturel, nous allons entrer dans le détail derrière le SEO !
L’objectif ici, va être de concrètement comprendre les enjeux, le fonctionnement et les logiques du référencement naturel. C’est un sujet important sur le web, qui peut être un formidable générateur de trafic, mais il faut bien le comprendre avant de se lancer dans des actions. Si vous êtes un néophyte qui cherche à se documenter pour comprendre cette discipline, vous êtes sur la bonne page.
Aujourd’hui, c’est théorie ! Si vous avez des questions, n’hésitez pas à les poser en commentaires.
SEO?
Sommaire
Comment fonctionne Google ?
Petite histoire du référencement naturel
Archie, le premier moteur de recherche
Le web, comme son nom l’indique, est un réseau qui permet d’accéder à des serveurs. Serveurs sur lesquels on va retrouver des sites web, que l’on adresse avec des noms de domaines.
Dès le milieu des années 90, ce réseau comptait déjà plusieurs milliers de sites. Pour pouvoir accéder à ces espaces web, il fallait d’une façon ou d’une autre trouver le nom de domaine (ou l’adresse IP) du site que vous cherchiez. C’est d’ailleurs, dans une certaine mesure, toujours comme cela que fonctionnent le Deep Web et le Dark web.
En seulement quelques semaines, est donc apparu la nécessité d’avoir des sites qui référencent ces “serveurs” (via leur nom de domaine). Le premier “moteur de recherche/annuaire” est donc apparu en 1990 et s’appelait Archie.
Yahoo, les pages jaunes du web
Assez rapidement c’est Yahoo qui devient le site annuaire N°1 en référençant manuellement les domaines. En faisant des petits rangements en sous catégories et tout. Un peu comme les pages jaunes pour ceux qui ont connu. Trop mignon comme système.
Sauf que dès la fin des années 90, des sites il y en avait plusieurs millions. Alors autant dire que ce ne sont pas Jerry Yang et David Filo avec leurs petits doigts qui allaient pouvoir référencer tout ça sur leur site. Même en embauchant une flopée de salariés c’était pas tenable.
C’était donc aux webmasters de venir inscrire leurs sites sur Yahoo pour apparaître dans l’annuaire.
Altavista, l'invention des spiders
Dans le même temps, le moteur de recherche Altavista voit le jour, et ses créateurs Louis Monier, Michael Burrows et Paul Flaherty vont créer la technologie à la base du référencement naturel aujourd’hui, les spiders. Ce sont des robots qui naviguent et recherchent dans tout le réseau web mondial, les sites qu’ils peuvent indexer et référencer dans Altavista. Une fois les sites identifiés, dans un deuxième temps, ces robots analysent le contenu textuel sur les pages pour faire correspondre les requêtes des utilisateurs avec des sites présentant les mots clés de la requête.
Concrètement, si vous tapez “comment faire des crêpes”, Altavista vous remonte tous les sites qui contiennent ces mots clés.
C’est une meilleure technique que celle de Yahoo, mais ça pose quand même plusieurs problématiques. Il reste à déterminer comment classer ces différents résultats ? Sans une vraie « technique », des dérives ont lieu, par exemple, des webmasters peu scrupuleux remplissent le fond blanc de leur site avec des milliers d’occurrences du mot “crêpes” pour faire croire à Altavista que c’est un site très intéressant sur la requête “crêpes” puisqu’il l’utilise à de nombreuses reprises. C’est ce qu’on appelait du Keyword stuffing. C’était la période faste de ce qu’on verra plus bas et qui s’appelle le black hat SEO.
Google, l'algorithme du page rank
Et c’est là qu’arrive notre protagoniste principal, Google en 1998, et notamment Larry Page. En utilisant les technologies déjà créées par le moteur de recherche Altavista ils vont mettre au point un algorithme qui va pouvoir classer plus efficacement ces sites et leurs pages, le PageRank.
L’idée c’est que pour déterminer quel site est le plus pertinent, en plus du contenu, on va attribuer “un score” à un site A en fonction du nombre d’autres sites (B,C,D) qui ont des liens vers le site A.
Plus vous avez de sites web qui font référence au votre en ajoutant un lien, plus vous avez de l’autorité et plus vous remontez facilement dans les résultats de Google. Et cet algorithme va aussi et surtout classer aussi les pages entre elle.
C’est plus compliqué que ça, mais l’idée générale est là.
Aujourd’hui, il y a près de 2 milliards de sites dans le World wide web, et l’objectif des moteurs de recherche, notamment Google, c’est de présenter les résultats les plus pertinents aux utilisateurs.
Maintenant que l’on a compris d’où viennent les technologies utilisées et la logique qui les a générées, on va voir ensemble quels sont les 3 piliers, les 3 aspects qui vont être cruciaux à surveiller, réfléchir et optimiser sur votre site si vous voulez remonter dans les résultats de Google. Qui vont vous permettre d’indiquer à Google que VOUS êtes le résultat le plus pertinent.
Les 3 pilliers du SEO
La technique (la construction générale de votre site..), le contenu, et l’autorité (la popularité).
La technique (la qualité de construction de votre site)
> Pour les robots
On l’a vu, ce sont des robots qui vont venir naviguer sur vos pages, analyser son contenu et l’indexer.
Votre site doit donc répondre à des standards techniques pour que ces robots visitent vos pages le plus rapidement possible, comprennent sa structure (quelle page est la sous page de telle page etc) et comprennent son contenu.
Pour les aider dans cette opération vous avez plusieurs cordes à votre arc (liste non exhaustive) :
- Bien réfléchir à la structure des urls de votre site. Un site fonctionne sous forme de répertoire un peu comme sur votre ordinateur quand vous rangez vos documents. C’est plus simple de vous y retrouver si vous organisez vos dossiers en sous dossiers thématiques etc.. Plutôt que de laisser tout en vrac dans le dossier téléchargement. Oui oui je vous vois là bas dans le fond et je vous toise de mon regard accusateur.
C’est la même chose pour votre site, quand une page est une sous page, le chemin de l’url doit l’indiquer. Exemple : sur lesrecettesderudy.fr, si on avait une page sur les desserts qui serait lesrecettesderudy.fr/dessert, on viendrait ranger notre page crêpes sous lesrecettesderudy.fr/dessert/crepes.
Mais il faut aussi rester logique, si vous n’avez qu’une recette pour des crêpes sur votre site, ce n’est pas utile de commencer à faire des sous dossiers sans intérêt.
- Ensuite il faut aussi aider les robots (et les utilisateurs qui sont d’ailleurs le principal) à comprendre les liens entre les différentes pages de votre site, c’est ce qu’on appelle le maillage interne. En pensant à ajouter un maximum de liens entre les pages, via des hyperliens, des boutons, des fils d’Arianes etc. Il existe différentes stratégie de maillage interne (Silo, Cocon…), qui répondent à différents objectifs.
- Il existe aussi des informations non visibles par les utilisateurs que l’on va retrouver dans le code de votre page et qui vont préciser des éléments aux moteurs de recherche. On a par exemple : La meta titles qui va déterminer le titre de votre page dans les résultats de google et qui est crucial pour votre référencement. La meta description. Les données enrichies qui vont permettre de faire remonter (par exemple) l’aperçu des avis sur votre site, les images de vos produits etc. Je ne vais pas faire de liste exhaustive ici, ce sera le sujet d’un autre article.
- Ensuite, dans la façon d’intégrer votre contenu vous devez aussi répondre à des spécificités techniques. Il faut utiliser ce que l’on appelle les balises H pour structurer vos titres. La balise H1 pour le titre principal, la balise H2 pour les titres de deuxième niveau, H3 titre de troisième niveau etc. C’est une erreur que l’on voit encore trop souvent dans l’intégration de site web que font certains webmaster débutants, que d’utiliser n’importe comment les balises H comme si c’était juste pour gérer la taille du texte. Ça complexifie la compréhension de votre contenu par le robot. Il ne faut pas en abuser, c’est pour vos titres.
Il y a aussi d’autres bonnes pratiques à la fois pour le robot et pour les utilisateurs comme mettre les mots clés les plus importants en gras pour aider à la lecture transversale, etc. Mais l’idée ici n’est pas de faire une liste exhaustive, d’autres articles seront dédiées à l’optimisation technique.
> Pour les performances
Au delà de l’aspect technique lié à la compréhension de votre site, ce dernier doit aussi présenter de bonnes performances.
En 2022, la grande majorité des utilisateurs sur le web, naviguent depuis un smartphone.
Et donc potentiellement depuis une connexion internet faible et instable. C’est donc assez logiquement que depuis 2020, le robot de Google navigue sur les sites, dans un premier temps, comme s’il était un smartphone.
Votre site doit donc être aussi performant que possible sur mobile, aussi bien en termes d’ergonomie que de rapidité. Votre site doit se charger le plus rapidement possible.
Là aussi c’est un problème que l’on rencontre souvent. Déjà parce-que l’on développe depuis un ordinateur et en général avec une bonne connexion, donc on ne prête souvent pas assez attention à ces problématiques.
Le temps de chargement d’une page, n’est (d’après les dernières études effectuées) pas un facteur qui impact directement le positionnement. MAIS, Google met de plus en plus l’accent sur les performances de chargement de page, et d’un point de vue utilisateur, vous avez toutes les raisons du monde à faire en sorte que votre site se charge le plus vite possible.
Pour améliorer ces performances, il faut essayer d’avoir des pages aussi légères que possible. Donc faire attention à utiliser des images aux formats optimisées et aussi compressées que possible. Limiter le code qui est chargé etc. Par exemple si votre site fonctionne depuis un CMS vous pouvez aussi éviter d’avoir trop de plugins qui se chargent. Utiliser un CDN et faire du caching. Ou encore utiliser la technologie AMP.
Le contenu (Content is King)
Le deuxième pilier du SEO, c’est le contenu. Content is King.
On l’a vu, l’objectif de google c’est de présenter le contenu le plus pertinent aux utilisateurs.
Et c’est donc à vous de créer le contenu le plus intéressant par rapport à vos concurrents. C’est aussi simple que ça.
Si vous voulez vous positionner sur la requête “comment cuisiner des crêpes” vous devez proposer la page la plus pertinente sur le sujet.
Reste à savoir, c’est quoi un contenu plus pertinent ? Pour le savoir, vous devrez analyser les pages qui sont déjà positionnées dans le top 3, regarder le contenu qu’elles proposent, trouver ce que vous pouvez apporter et faire mieux.
Plus long, plus riche, plus intéressant, répondre avec plus d’exactitude à la requête de l’utilisateur. Cet enrichissement peut passer à la fois par une rédaction plus fournie. Si votre concurrent a écrit 1000 mots, vous en écrivez 1500 encore plus pertinents (combler, ça ne fonctionnera pas). Ajouter des images, des schémas, créer des vidéos etc…
Là aussi je ne rentre pas dans le détail de comment trouver les axes d’attaques, les mots clés longues traines sur lesquels on va pouvoir faire une percée etc. Ce sera le sujet d’un article dédié.
L'autorité (Backlinks)
Reste le dernier mais pas des moindre pilier du référencement naturel, l’autorité. L’ajout de Google qui a fait son succès dans la façon d’indexer et classer les sites web, est à la fois le levier le plus puissant et le plus difficile à pousser.
Pour déterminer quel site mettre en avant et dans quel ordre, en plus du contenu et de l’aspect technique, Google va regarder combien d’autres sites utilisent le votre comme référence, ce qui vous confère une autorité.
En réalité, c’est l’aspect le plus secret et le moins connu techniquement sur le fonctionnement de l’algorithme de Google, mais on considère comme base de travail que Google va donner une note aux sites web (rattaché à leur nom de domaine) de 0 à 100 en fonction de ce que l’on va appeler “leur autorité”. C’est aussi et surtout comme ça que la plateforme SEO Semrush l’identifie, étant un outil métier de référence, nous allons utiliser par défaut leur système de qualification.
Plus un site a de liens pointant vers ses pages (c’est ce que l’on appelle des Backlinks), plus son autorité est potentiellement élevée.
MAIS, en plus, un lien venant d’un site ayant lui-même déjà une autorité élevée n’aura pas le même poids que celui d’un site avec une autorité basse.
Donc concrètement, si un site très populaire vous cite en ajoutant un lien vers votre site, cela impactera fortement votre autorité. Tandis que si un site avec une autorité de moins de 10/100 vous cite, là l’impact sera plus faible.
Pour qu’un backlink ait un impact maximal, il est aussi crucial que le site référent soit dans la même thématique que votre site. C’est d’ailleurs pour cela que les liens sur des annuaires sont très proches de l’inutilité complète.
Le texte d’ancrage du lien doit aussi, dans la limite des possibilités, correspondre au terme sur lequel vous souhaitez vous positionner.
Il existe aussi des noms de domaines qui suite à des agissements sont considérés comme toxiques. Un lien qui provient de l’un de ces sites n’aura pas d’impact.
Sauf que justement, dans le cas d’un lien sur un site à haute autorité comme dans le cas d’un lien sur un site au score toxic élevé vous n’avez pas vraiment votre mot à dire. Et oui, c’est le webmaster du domaine qui vous cite qui peut décider, comme il le souhaite de renvoyer vers votre site.
Alors comment faire pour améliorer son score d’autorité ?
Et bien, il existe des techniques, mais la façon attendue par google est naturellement. Sans que VOUS ayez votre mot à dire. C’est simplement en proposant le contenu le plus pertinent que vous êtes supposé être naturellement cité par d’autres sites, puisque vous êtes une référence.
C’est en augmentant votre popularité que vous augmentez votre popularité. On est d’accord, cela peut paraitre difficile d’entrer dans ce cercle vertueux et même une fois dedans il ne faut pas arrêter de proposer plus de contenu et plus pertinent pour y rester.
Aussi, cette note de popularité est attribuée à votre nom de domaine. C’est pourquoi votre nom de domaine est extrêmement important et que vous devez éviter au maximum d’en changer. Si vous devez absolument changer de nom de domaine il existe des solutions, notamment les redirections 301 pour conserver l’autorité mais le mieux reste de garder votre nom de domaine là où il est.
Comment remonter dans le référencement naturel ?
D’accord, les 3 piliers du SEO sont la technique, le contenu et l’autorité.
Mais concrètement comment on fait pour remonter dans les résultats et atteindre le fameux top 3 ?
Il faut jouer sur les 3 leviers que l’on a vu il y a quelques minutes. L’aspect technique est crucial et peut bloquer totalement vos performances. C’est le premier aspect à surveiller.
Vous devez créer du contenu en volume, avec de la richesse et de la pertinence.
Afin de vous faire remarquer pour être référencé sur d’autres sites pour augmenter votre autorité.
Pour jouer sur ces 3 leviers, il y a 3 façons de s’y prendre. Donc 3 “écoles” avec des valeurs, des façons de faire et des résultats différents.
Le White Hat, le Grey Hat et le Black Hat.
White Hat
Les techniques White hat consistent à suivre et à rester dans les règles et les prérogatives de Google.
Ce qui correspond par exemple aux techniques évoquées plus haut. Et ainsi, à réellement proposer naturellement le meilleur contenu. Sur le long terme c’est la meilleure façon de procéder.
L’algorithme de Google cherche à offrir l’expérience la plus intéressante aux utilisateurs. Et en général, c’est aussi votre objectif, si vous voulez que vos utilisateurs convertissent.
Donc autant vous y prendre correctement pour avoir des résultats positifs à tous les niveaux sur le long terme.
Cela étant dit, il s’agit aussi des techniques qui mettent le plus de temps à faire effet.
=
Proposer le meilleur contenu.
Black Hat
Il existe aussi les techniques Black hat qui vont venir exploiter les failles, tricher, effectuer des pratiques illégales ou qui du moins ne respectent pas les règles de Google pour faire monter rapidement un site web en référencement. Ou en faire chuter un autre, on parle de negative seo.
En général ce sont plutôt des sites douteux qui font des actes illégaux comme du phishing ou autre qui utilisent ce type de techniques. Mais des sites “normaux” peuvent aussi y avoir recours.
Le problème, c’est que comme vous jouez avec les règles de Google, vous pouvez être certain qu’à terme, Google pénalisera votre nom de domaine qui deviendra inutilisable à l’avenir.
Une montée en flèche suivi d’une descente fracassante donc pas terrible comme façon de faire.
=
Tricher et exploiter le failles
Grey Hat
Entre les techniques White Hat qui suivent les règles et les techniques Black Hat qui les brisent, il reste donc ce qu’on appelle le Grey Hat. Comme son nom l’indique, c’est un entre deux.
L’idée étant de tordre un peu les règles de Google sans totalement les briser, de façon subtile et discrète.
Pour citer quelques techniques concrètes du Grey hat, on va retrouver par exemple :
- l’achat de liens pour booster l’autorité
- l’achat de domaines expirés
- la création de contenu en faisant du content spinning etc.
=
Tordre les règles de Google
Le problème avec le référencement naturel, notamment via des techniques white hat, c’est que cela prend du temps.
Beaucoup de temps, on parle de plusieurs mois avant d’avoir des résultats, et parfois plusieurs années avant d’atteindre vos objectifs.
Alors bien souvent on va vouloir ajouter quelques petites actions un peu « borderlines » pour essayer d’améliorer ces performances plus rapidement. Mais ce sont des techniques à doser avec parcimonie car le risque d’un déclassement est possible. Si cela se produit, votre nom de domaine sera pénalisé vos investissements passés seront perdus.
Le référencement naturel est une stratégie marketing sur le long terme. Pour générer du trafic sur votre site web à court terme, si vous voulez des performances de façon immédiate, sont d’autres canaux. Que ce soit des campagnes SEA, de la publicité sur les réseaux sociaux, etc.
Comment éviter les arnaques en SEO ?
Le secteur du SEO, de par le côté un peu mystérieux de l’algorithme Google et le fait que les actions qu’on effectue n’ont pas un impact immédiat, peut donner une impression « homéopathique ».
Suite à certaines mauvaises expériences avec des prestataires peu scrupuleux, on entend de si de là, que toute cette histoire de SEO, au final, ce serait un nuage de fumée, et que quoi qu’il arrive votre site se référencera naturellement, sans effort particulier.
Et vous savez quoi, ce n’est pas tout à fait faux.
Ces craintes existent parce-que des agences et des freelances proposent des prestations de référencement naturel artificielle. Parfois par manque de connaissance, parfois par simple appât du gain.
Dans les faits, si votre site web est correctement conçu techniquement. Alors attention des sites avec des problèmes techniques majeurs pour le référencement, il y en a BEAUCOUP, et malheureusement ils ne s’indexeront jamais correctement. Encore aujourd’hui il y a des développeurs web qui n’ont pas de connaissances en SEO.
Mais, si votre site est bien conçu techniquement et que vous avez un minimum de contenu, il n’y a pas de raison pour que naturellement vous n’arriviez pas en 1ere position sur des requêtes simples comme votre nom de marque et éventuellement sur un ou deux autres mots clés longues traines.
Et oui, ce n’est pas très difficile d’être le plus pertinent sur votre nom de marque (sauf cas spéciaux ou le choix du nom de marque est problématique). De plus, vous avez peut être rédigé du contenu suffisamment pertinent sur certaines requêtes sans trop de concurrence etc. Ce qui, en fonction de vos objectifs peut suffire. Si vous cherchez simplement à avoir une présence et que l’on vous trouve quand on cherche précisément votre entreprise, c’est suffisant. Un simple site, ou même une Landing-page bien conçue avec un minimum de contenu et on est bon.
En revanche, si vous voulez vraiment commencer à générer un volume important de trafic en vous positionnant sur des mots clés plus génériques avec de la concurrence, il faudra mettre en place une stratégie SEO et des actions spécifiques pour atteindre vos objectifs de mots clés. D’autant que plus le temps passe, plus la concurrence est rude sur chaque mot clé.
Le SEO n’est pas une science exacte. C’est impossible d’assurer des résultats chiffrées en volume et dans le temps de façon précise.
Il y a trop de facteurs extérieurs, que ce soit les actions des concurrents, les changements dans l’algorithme, la saisonnalité des requêtes…
La majorité des “bonnes” pratiques connues en optimisation du référencement découlent de l’expérience des autres et de soi-même. Le plus important c’est de comprendre la logique derrière l’algorithme.
Si un jour vous passez par un prestataire et qu’il est trop précis dans les résultats qu’il vous promet, méfiez-vous !