Dans un envi­ron­ne­ment devenu extre­me­ment compé­ti­tif, la réus­site ou non d’une acti­vité digi­tale passe bien souvent par un réfé­ren­ce­ment réussi sur les moteurs de recherches en géné­ral, et Google en parti­cu­lier. Il y a peu Google a diffu­ser son Guide des bonnes pratiques afin d’op­ti­mi­ser le réfé­ren­ce­ment de votre site web. Mais avant tout de chose  il est impor­tant de faire un état des lieux de votre situa­tion, et l’au­dit SEO est un passage obligé afin de détec­ter toutes les failles qu’un site peut avoir. Il est impor­tant de savoir trou­ver rapi­de­ment les problèmes dans le but d’amé­lio­rer les perfor­mances d’un site et surtout de donner des préco­ni­sa­tions perti­nentes en fonc­tion des attentes du client. Voici quelques points essen­tiels qu’il faut véri­fier pour amélio­rer « rapi­de­ment » les perfor­mances d’un site.

Crawl du site

Avec l’aide d’un craw­ler, vous trou­ve­rez à ce sujet plusieurs offres gratuites ou payantes,  beau­coup de données perti­nentes vont vous être indiquées. Les points impor­tant à rele­ver :

  • Écri­ture des URLs
  • Entête http
  • Title et leurs tailles
  • H1 / H2 et leurs tailles
  • Temps de char­ge­ment

Entête http

Il est préco­nisé d’avoir unique­ment des urls en statut 200, il est donc logique de retra­vailler cette partie si ce n’est pas le cas. Des erreurs 404 vont alté­rer les perfor­mances de votre site car vous allez donner de la puis­sance à des pages inutiles et donner aux Google Bots des pages non perti­nentes à aller craw­ler. Le temps de crawl d’un site n’étant pas illi­mité, il est néces­saire de lui donner unique­ment des URLs perti­nentes, d’où la néces­sité de corri­ger les erreurs 404 (visibles égale­ment via Google Search Consol). Pour les statuts de redi­rec­tions 301 / 302, il est parfois néces­saire de créer un plan de redi­rec­tions lorsque l’on change la struc­ture d’un site. Gardez-les dans votre fichier .htac­cess afin de trans­mettre les infos des anciennes pages vers les nouvelles, mais égale­ment de trans­mettre la puis­sance des back­links qui pointent vers l’URL de base pour la nouvelle. En revanche, il est décon­seillé de les garder au sein même de votre site car cela n’est pas cohé­rent, c’est pour cette raison qu’il faut corri­ger l’en­semble afin d’ob­te­nir des codes d’en-tête http 200.

Écri­ture des URLs

Concer­nant les URLs, il est néces­saire de mettre en exergue celles qui sont trop longues (plus de 150 carac­tères), celles ayant des « _ » et non des « – » mais égale­ment toutes celles qui comportent des carac­tères spéciaux. L’en­semble des ces points sont des freins pour le posi­tion­ne­ment de vos pages. Corri­gez les tout en ayant une struc­ture SEO friendly:

  • Mot-clé prin­ci­pal
  • Pas de stop word
  • Moins de 150 carac­tères
  • Pas de carac­tères spéciaux

Titles et leurs tailles

Point déjà très connu des SEO, la balise est un des top critères de posi­tion­ne­ment d’une page. Atten­tion donc à ce qu’elle soit ni trop petite ni trop grande, afin de l’op­ti­mi­ser à la perfec­tion.

H1 / H2 et leurs tailles

La struc­tu­ra­tion d’une page est un élément impor­tant afin de faire comprendre à Google la struc­ture de cette dernière et d’être séman­tique­ment puis­sant. Vous pouvez déjà vous occu­per de toutes les pages qui n’en comportent pas, et des beau­coup trop longs (plus de 150 carac­tères). Atten­tion égale­ment à la dupli­ca­tion de ces derniers, ce point sera évoqué dans la partie « dupli­ca­tion ».

Temps de char­ge­ment

Le temps de char­ge­ment n’est pas un facteur primaire de posi­tion­ne­ment dans les SERPs mais il fait partie d’un ensemble de bons critères à rassem­bler. A qualité égale avec un concur­rent, présen­ter un site bien opti­misé pour Google et donc qui sera « craw­lable » plus faci­le­ment par ce dernier, pourra être un très bon point. Il faut donc veiller à ne pas dépas­ser envi­ron 500ms pour le temps de char­ge­ment d’une page. Google Page Speed et GT Métrix peuvent égale­ment vous aider à corri­ger ce point.

Indexa­tion

L’in­dexa­tion est un point essen­tiel à maîtri­ser lors d’un audit. La commande « site :nomde­do­maine.tld » nous permet de récu­pé­rer le nombre d’urls indexées par Google. Le nombre de résul­tats de pages indexées doit être cohé­rent avec le site en ques­tion. Il est impor­tant d’ana­ly­ser égale­ment les pages « indexables » et les pages « non indexables ». En effet, avec l’uti­li­sa­tion massive des CMS, il est possible par étour­de­rie, d’ap­pliquer une balise « noin­dex » sur une multi­tude de pages. Il est impor­tant de rele­ver 3 statis­tiques essen­tielles :

  • Pages craw­led
  • Indexable pages
  • No-index pages

Niveau de Profon­deur

Analy­ser la profon­deur des pages va égale­ment nous permettre d’amé­lio­rer l’in­dexa­tion. En effet, si beau­coup de pages se trouvent au sein de niveaux profonds de votre site, alors il sera plus diffi­cile pour Google de les craw­ler, par consé­quent de les indexer. Un réglage de votre maillage interne et une bonne gestion de vos caté­go­ries sont donc des éléments à travailler. Prendre du temps pour orga­ni­ser son contenu, penser l’ar­bo­res­cence de son site, est un gage de succés. Une des bonnes pratiques est de ne jamais dépas­ser le 4ieme niveau, au-delà la déper­di­tion du réfé­ren­ce­ment est majeur.

Enfin :

  • Couplez cette première analyse avec les données récu­pé­rées via Google Search Console.
  • Ayez un site­map au format XML correc­te­ment segmenté présen­tant des URLs perti­nentes

Robots

Lorsqu’on veut faire un audit rapide, il est impor­tant d’al­ler voir du côté du robots.txt afin d’ana­ly­ser les direc­tives. Si le fichier est mal para­mé­tré, le résul­tat peut vite deve­nir catas­tro­phique. Imagi­nons lors de l’étape précé­dente, que vous trou­viez des URLs indexées qui comportent la mention « La descrip­tion de ce résul­tat n’est pas dispo­nible à cause du fichier robots.txt », alors vous saurez qui est le coupable. Si vous ne souhai­tez pas que le Google bot perde son temps à aller visi­ter des pages inutiles, n’ou­bliez pas de lui donner les bonnes direc­tives afin d’op­ti­mi­ser son crawl sur votre site.

Contenu dupliqué

Le contenu dupliqué est un véri­table frein pour le réfé­ren­ce­ment. Il y a tout d’abord deux types de dupli­ca­tion, la dupli­ca­tion interne et externe à votre site. Le dupli­cate est égale­ment à prendre en compte au niveau du bali­sage de votre site. Vos <title> et <h2> doivent être uniques ! Le craw­ler vous donnera en un clic l’en­semble des éléments à corri­ger sur votre site ainsi qu’un pour­cen­tage de taux de simi­la­rité de votre contenu.

Linking

Facteur majeur pour ranker sur Google aujourd’­hui (et encore demain et après demain) le linking est une phase plus qu’im­por­tante. J’en parle en dernier lieu car il est tout de même préfé­rable de commen­cer cette partie une fois que le site est en bonne santé (du bon sens…). En effet, la plupart des liens arrivent sur la home page et leur effi­ca­cité/éner­gie va se trans­mettre sur votre site en fonc­tion de son arbo­res­cence. Il donc est bien entendu néces­saire que votre site ait un sque­lette propre et unique­ment des pages inté­res­santes à propo­ser (Cf contenu dupliqué). Quelques données à prendre en consi­dé­ra­tion :

  • Ratio back­links / domaines
  • Étude des TLD (Top Level Domain)
  • Analyse des ancres
  • Empla­ce­ment des liens
  • Contenu autour des liens

Et pour finir…

Compre­nez bien que le but est de détec­ter rapi­de­ment les faiblesses d’un site. Si vous souhai­tez pous­ser l’au­dit, une analyse de log sera essen­tielle afin de comprendre le compor­te­ment des bots sur votre site, une analyse du contenu global et de sa séman­tique est égale­ment à préco­ni­ser.