Comment réaliser un audit SEO et identifier des failles pertinentes ?
Dans un environnement devenu extremement compétitif, la réussite ou non d’une activité digitale passe bien souvent par un référencement réussi sur les moteurs de recherches en général, et Google en particulier. Il y a peu Google a diffuser son Guide des bonnes pratiques afin d’optimiser le référencement de votre site web. Mais avant tout de chose il est important de faire un état des lieux de votre situation, et l’audit SEO est un passage obligé afin de détecter toutes les failles qu’un site peut avoir. Il est important de savoir trouver rapidement les problèmes dans le but d’améliorer les performances d’un site et surtout de donner des préconisations pertinentes en fonction des attentes du client. Voici quelques points essentiels qu’il faut vérifier pour améliorer « rapidement » les performances d’un site.
Crawl du site
Avec l’aide d’un crawler, vous trouverez à ce sujet plusieurs offres gratuites ou payantes, beaucoup de données pertinentes vont vous être indiquées. Les points important à relever :
- Écriture des URLs
- Entête http
- Title et leurs tailles
- H1 / H2 et leurs tailles
- Temps de chargement
Entête http
Il est préconisé d’avoir uniquement des urls en statut 200, il est donc logique de retravailler cette partie si ce n’est pas le cas. Des erreurs 404 vont altérer les performances de votre site car vous allez donner de la puissance à des pages inutiles et donner aux Google Bots des pages non pertinentes à aller crawler. Le temps de crawl d’un site n’étant pas illimité, il est nécessaire de lui donner uniquement des URLs pertinentes, d’où la nécessité de corriger les erreurs 404 (visibles également via Google Search Consol). Pour les statuts de redirections 301 / 302, il est parfois nécessaire de créer un plan de redirections lorsque l’on change la structure d’un site. Gardez-les dans votre fichier .htaccess afin de transmettre les infos des anciennes pages vers les nouvelles, mais également de transmettre la puissance des backlinks qui pointent vers l’URL de base pour la nouvelle. En revanche, il est déconseillé de les garder au sein même de votre site car cela n’est pas cohérent, c’est pour cette raison qu’il faut corriger l’ensemble afin d’obtenir des codes d’en-tête http 200.
Écriture des URLs
Concernant les URLs, il est nécessaire de mettre en exergue celles qui sont trop longues (plus de 150 caractères), celles ayant des « _ » et non des « – » mais également toutes celles qui comportent des caractères spéciaux. L’ensemble des ces points sont des freins pour le positionnement de vos pages. Corrigez les tout en ayant une structure SEO friendly:
- Mot-clé principal
- Pas de stop word
- Moins de 150 caractères
- Pas de caractères spéciaux
Titles et leurs tailles
Point déjà très connu des SEO, la balise est un des top critères de positionnement d’une page. Attention donc à ce qu’elle soit ni trop petite ni trop grande, afin de l’optimiser à la perfection.
H1 / H2 et leurs tailles
La structuration d’une page est un élément important afin de faire comprendre à Google la structure de cette dernière et d’être sémantiquement puissant. Vous pouvez déjà vous occuper de toutes les pages qui n’en comportent pas, et des beaucoup trop longs (plus de 150 caractères). Attention également à la duplication de ces derniers, ce point sera évoqué dans la partie « duplication ».
Temps de chargement
Le temps de chargement n’est pas un facteur primaire de positionnement dans les SERPs mais il fait partie d’un ensemble de bons critères à rassembler. A qualité égale avec un concurrent, présenter un site bien optimisé pour Google et donc qui sera « crawlable » plus facilement par ce dernier, pourra être un très bon point. Il faut donc veiller à ne pas dépasser environ 500ms pour le temps de chargement d’une page. Google Page Speed et GT Métrix peuvent également vous aider à corriger ce point.
Indexation
L’indexation est un point essentiel à maîtriser lors d’un audit. La commande « site :nomdedomaine.tld » nous permet de récupérer le nombre d’urls indexées par Google. Le nombre de résultats de pages indexées doit être cohérent avec le site en question. Il est important d’analyser également les pages « indexables » et les pages « non indexables ». En effet, avec l’utilisation massive des CMS, il est possible par étourderie, d’appliquer une balise « noindex » sur une multitude de pages. Il est important de relever 3 statistiques essentielles :
- Pages crawled
- Indexable pages
- No-index pages
Niveau de Profondeur
Analyser la profondeur des pages va également nous permettre d’améliorer l’indexation. En effet, si beaucoup de pages se trouvent au sein de niveaux profonds de votre site, alors il sera plus difficile pour Google de les crawler, par conséquent de les indexer. Un réglage de votre maillage interne et une bonne gestion de vos catégories sont donc des éléments à travailler. Prendre du temps pour organiser son contenu, penser l’arborescence de son site, est un gage de succés. Une des bonnes pratiques est de ne jamais dépasser le 4ieme niveau, au-delà la déperdition du référencement est majeur.
Enfin :
- Couplez cette première analyse avec les données récupérées via Google Search Console.
- Ayez un sitemap au format XML correctement segmenté présentant des URLs pertinentes
Robots
Lorsqu’on veut faire un audit rapide, il est important d’aller voir du côté du robots.txt afin d’analyser les directives. Si le fichier est mal paramétré, le résultat peut vite devenir catastrophique. Imaginons lors de l’étape précédente, que vous trouviez des URLs indexées qui comportent la mention « La description de ce résultat n’est pas disponible à cause du fichier robots.txt », alors vous saurez qui est le coupable. Si vous ne souhaitez pas que le Google bot perde son temps à aller visiter des pages inutiles, n’oubliez pas de lui donner les bonnes directives afin d’optimiser son crawl sur votre site.
Contenu dupliqué
Le contenu dupliqué est un véritable frein pour le référencement. Il y a tout d’abord deux types de duplication, la duplication interne et externe à votre site. Le duplicate est également à prendre en compte au niveau du balisage de votre site. Vos <title> et <h2> doivent être uniques ! Le crawler vous donnera en un clic l’ensemble des éléments à corriger sur votre site ainsi qu’un pourcentage de taux de similarité de votre contenu.
Linking
Facteur majeur pour ranker sur Google aujourd’hui (et encore demain et après demain) le linking est une phase plus qu’importante. J’en parle en dernier lieu car il est tout de même préférable de commencer cette partie une fois que le site est en bonne santé (du bon sens…). En effet, la plupart des liens arrivent sur la home page et leur efficacité/énergie va se transmettre sur votre site en fonction de son arborescence. Il donc est bien entendu nécessaire que votre site ait un squelette propre et uniquement des pages intéressantes à proposer (Cf contenu dupliqué). Quelques données à prendre en considération :
- Ratio backlinks / domaines
- Étude des TLD (Top Level Domain)
- Analyse des ancres
- Emplacement des liens
- Contenu autour des liens
Et pour finir…
Comprenez bien que le but est de détecter rapidement les faiblesses d’un site. Si vous souhaitez pousser l’audit, une analyse de log sera essentielle afin de comprendre le comportement des bots sur votre site, une analyse du contenu global et de sa sémantique est également à préconiser.
A lire également
Figma vol.3 : le process de validation client
Non classé • Méthodologie • ProtipsSketch-Invision vs. Figma Après plusieurs longs mois de résistance, nous sommes définitivement passés sur Figma, et c’est indéniable c’est un
Figma vol.2 : Les plugins
Méthodologie • ProtipsPour continuer notre série sur le logiciel Figma, nous allons nous pencher dans ce deuxième article sur ces petites extensions