L’audit technique SEO
La partie technique de votre site peut être vue comme la fondation de votre stratégie SEO.
Certaines anomalies techniques peuvent freiner ou bloquer l’indexation de votre site, d’autres peuvent vous coûter des places précieuses dans le classement des moteurs de recherche. L’audit technique vous permettra de les déceler et de les résoudre.
Pour une bonne prestation SEO complète, un audit technique de site est un prérequis. Au travers de mes diverses expériences dans le SEO, j’ai rencontré de nombreuses anomalies. Certaines d’entre elles étaient très courantes comme des redirections en chaîne, des pages en erreur qui auraient dû être redirigées, des erreurs de code ISO dans les balises multilingues, etc. D’autres erreurs étaient nettement plus complexes à déceler comme une redirection sur referer avec exclusion des IP du client (le site avait été modifié par un ancien prestataire malhonnête), des données structurées mal implémentées, un bug de server-side rendering, etc. Les sources d’anomalies peuvent être très variées et c’est pourquoi il est important d’avoir de bonnes connaissances techniques afin de mener à bien cet audit.

Les outils indispensables pour un bon audit technique
Pour réaliser un audit technique SEO complet, plusieurs outils seront nécessaires. Voici les outils essentiels qui vont permettre de réaliser le plus gros de l’audit SEO :
- La Search Console de Google. C’est un outil indispensable pour obtenir des informations en provenance directe de Google. L’onglet “couverture” de cet outil par exemple vous permet déjà d’obtenir des informations essentielles sur la bonne indexation d’un site.
- Google Analytics. C’est l’outil d’analyse statistique fourni par Google. En plus d’avoir énormément d’informations sur l’audience d’un site, cet outil peut vous permettre de rapidement trouver des anomalies. Par exemple, des pages avec des taux de rebond trop élevés, des sessions particulièrement courtes ou des cheminements utilisateurs anormaux.

- Screaming Frog. Malgré son nom intrigant, c’est un véritable couteau suisse pour les SEO. Cet outil un crawler, c’est-à-dire qu’il peut imiter le comportement des robots des moteurs de recherche. Il dispose de très nombreuses options permettant de réaliser autant de vérifications. Un autre de ses atouts est qu’on peut y connecter des sources d’informations comme la Search Console, Google Analytics, mais aussi Majestic, Ahrefs, Moz ou encore PageSpeed insights. En cumulant ces différents outils, on obtient une quantité phénoménale d’informations permettant d’établir des recommandations SEO précises.
- Un outil d’analyse de logs comme celui de Screaming Frog, OnCrawl, Botify, SEOlyzer ou autre. Lorsqu’on commence à utiliser un outil d’analyse de logs, c’est qu’on est déjà dans une étape avancée de l’audit. Cela étant, c’est aussi une étape importante de l’audit, notamment sur des sites avec de nombreuses pages ou fonctionnalités de recherche ou filtres. Cette analyse va permettre de “voir” le parcours des robots des moteurs de recherche (mais aussi d’autres robots, bien sûr). On pourra ainsi découvrir par exemple si des pages, voire des catégories, ne sont pas crawlées par Google. On pourra aussi voir si le site comporte des pièges à robots (spider trap). Ces pièges peuvent ralentir, voire bloquer le crawl des robots des moteurs de recherche et sont à éviter absolument.
Prioriser les corrections techniques selon leur impact
Lorsque l’audit technique est fait, il ne suffit pas d’exporter les résultats et essayer de corriger en suivant la liste fournie par l’outil.
Les résultats nécessitent d’être analysés et interprétés par une personne avec un œil avisé. Ces résultats doivent aussi être triés par ordre de priorité. La priorité peut assez facilement être déterminée selon 2 principaux critères que je peux évaluer sur une échelle de 1 à 5 : l’impact SEO potentiel et la facilité théorique de sa correction. En faisant ce travail de priorisation et grâce à ces deux critères d’évaluation, on obtient alors une échelle de priorité pour aider à la prise de décision et passer à l’action le plus rapidement possible.
Imaginez par exemple que vous ayez un lien redirigé en 301 dans le menu de votre site. Si ce menu se répète sur l’ensemble des 647 pages de votre site, vous avez donc théoriquement au moins 647 liens internes redirigés. En corrigeant simplement une fois ce lien dans le menu (en supposant que le menu est le même sur l’ensemble du site), vous enlevez des centaines de redirections inutiles. L’impact SEO est faible, mais la facilité de correction ne vaut pas la peine de s’en priver.
Si vous avez également un fichier robots.txt mal configuré qui empêche les robots des moteurs de recherche de crawler certaines pages importantes. La facilité de correction est importante, l’impact SEO est fort, on priorisera donc cette tâche par rapport à celle du menu.
Migrations, refontes et modifications profondes, des étapes à ne pas prendre à la légère
Cette partie ne fait pas vraiment partie de l’audit technique, mais l’audit est une étape importante de ces différentes actions et vous allez comprendre pourquoi en lisant la suite.
Au cours de la vie d’un site internet, il n’est pas rare de devoir le modifier profondément que ce soit d’un point de vue fonctionnel ou esthétique. Il arrive aussi qu’on décide de migrer complètement le site pour diverses raisons (un rebranding, une nouvelle stratégie, une fusion avec un autre acteur du marché, etc.).

Tous ces changements peuvent avoir des impacts extrêmes sur le positionnement du site. Lors d’une action aussi radicale sur un site, il y a de nombreux points à vérifier après, mais surtout avant ! C’est le genre d’action qui se prépare un minimum au risque de voir votre site finir dans les abysses de la SERP (la page 2 ou pire encore).
En revanche, lorsqu’une refonte est correctement préparée, tout peut se dérouler à la perfection sans perte de position.
Lors d’une migration d’un nom de domaine à un autre, c’est un peu différent. Il peut y avoir un laps de temps pendant lequel Google continuera à afficher l’ancien nom de domaine et c’est là que le plan de redirection est crucial. Les redirections vont servir essentiellement à rediriger l’internaute vers la bonne page sur le nouveau domaine (qu’il vienne de Google ou d’un autre site), mais elles vont aussi permettre de limiter la perte de backlinks.
Le cas des sites basés sur un framework JavaScript
Alors que le JavaScript permettait à l’origine simplement d’ajouter des interactions sur les sites internet, aujourd’hui, le JavaScript peut s’exécuter côté serveur.
C’est devenu un outil surpuissant grâce à de nombreux frameworks dont certains sont très populaires. Au moment d’écrire ce guide, les frameworks les plus utilisés sont React, Vue.js et Angular. Ce dernier a longtemps été favorisé au prétexte que c’était une solution développée par Google et certains développeurs pensaient que c’était donc ok pour le référencement naturel. Or, on sait pertinemment que les robots des moteurs de recherche ne chargent pas le JavaScript au premier crawl et ce, quel que soit le framework.
Pour faire simple, les robots des moteurs de recherche vont crawler les URL de votre site sans charger le JavaScript et verront alors la page telle que vous la verriez si vous désactiviez le JavaScript. Les URL vont ensuite être mises en file d’attente, pour être crawlées ultérieurement avec un rendu JavaScript, mais vous ne pouvez pas savoir quand ça se fera.

Heureusement, il y a plusieurs solutions pour que les moteurs de recherche voient bien vos contenus. On parle de SSR (Server-Side Rendering) pour un rendu côté serveur, CSR (Client-Side Rendering) pour un rendu côté navigateur, mais aussi de Réhydratation, PreRendering, Static SSR, etc.
Tout un tas de termes qui parlent beaucoup plus aux développeurs qu’aux SEO, mais qu’on ne peut pas ignorer. Selon la technologie choisie, l’impact SEO n’est pas le même.
Une stratégie intéressante est ce qu’on appelle le “Dynamic Rendering”, ou rendu dynamique. C’est le fait de proposer un contenu statique (HTML et CSS pour faire simple) à Google et continuer à proposer un contenu HTML, CSS et JavaScript aux visiteurs. Si ça vous rappelle le cloaking, c’est normal, car c’est le même principe, mais utilisé dans une optique honnête vis-à-vis des moteurs de recherche.
On détecte alors le “user-agent” (et souvent l’IP) des robots des moteurs de recherche pour leur envoyer une version statique et légère de la page qu’il doit indexer.

Téléchargez le Guide Ultime du SEO pour les éditeurs de SaaS et recevez 3 stratégies applicables immédiatement par email
Plus de 40 pages de conseils sur tous les aspects du SEO pour emmener votre solution au niveau supérieur !
En BONUS, ma toolbox de SEO
(Promis, je ne vous parlerai pas des balises « title », meta description et attributs « alt » des images, vous l’avez sûrement déjà lu des centaines de fois ailleurs. Là on passe au niveau supérieur.)