10 erreurs techniques qui impactent votre référencement

Erreurs SEO à éviter.

Assurer l'optimisation de son site exige aussi de s'occuper en priorité de sa qualité technique.

En ce sens qu'il est urgent de toujours vérifier que le site ne génère pas de façon constante de problèmes techniques qui pourraient empêcher l'indexation de votre site. Et donc impacter in fine son référencement.

Les problèmes techniques sur un site, notamment de crawling, sont en général signalés dans votre compte Google Webmaster Tools.

Autrement, tout webmaster se doit d'effectuer de temps à autre un audit technique pour s'assurer qu'en arrière-plan, tout fonctionne correctement.

Voici donc quelques erreurs techniques fréquentes qui peuvent influencer négativement le référencement d'un site.

1 - Les URLs en minuscule ou en majuscule ?


Contrairement à ce qu'on pense, c'est un problème récurent qui survient lorsqu'un serveur est configuré pour ne répondre qu'à des URLs avec des lettres en minuscule sans aucune possibilité de réécriture ou de redirection vers une version en caractères minuscules.

Intaller un lien canonical dans le header de chaque page permet de résoudre ce type de problème du point de vue des robots des moteurs de recherche. Sinon, utiliser le module rewrite de votre serveur forcerait la réécriture des URLs en minuscule.

2 - Plusieurs versions de votre Homepage


Nous en avons déjà parlé dans le top des recommandations SEO de Google. De nombreux webmasters ne faisant pas encore de choix unique et définitif de ce qui sera leur page index.

Or, il suffit de faire un audit technique de son site pour voir ce genre d'erreurs.

Les versions multiples de Homepage peuvent aussi se voir dans votre Google Analytics. Si vous y voyez des statistiques concernant des pages se terminant à la fois par "index.html", "index.htm", "default.htm", "/" ou d'autres encore, c'est que votre page d'accueil se décline en plusieurs versions.

Ce qui est mauvais pour votre référencement parce que vous vous retrouvez dans un cas de contenus dupliqués durement pénalisés par Google Panda.

Pour résoudre ce problème, sans perdre le pagerank des autres versions de Homepage, servez-vous de la redirection 301 des "mauvaises" pages d'accueil vers la page d'accueil officielle de votre choix. Ce qui vous éviterait de parcourir toutes les pages du site pour détecter les liens qui pointent vers les "mauvaises" homepages.

3 - Des paramètres de requêtes ajoutés en fin d'URL


Ce type de problème se rencontre le plus souvent sur les sites e-Commerce. Mais cela arrive aussi sur des sites web où les recherches sur le moteur interne peuvent afficher des URLs à paramètres qui sont immédiatement indexées par les moteurs de recherche.

Ce qui pose donc aussi le problème de contenus dupliqués qui est un mauvais signal envoyé aux moteurs de recherches.

Comme toujours dans les cas où intervient le duplicate content, la balise meta rel=canonical suffira à résoudre le problème. Sans oublier de faire une redirection 301 permanente de l'URL à paramètres vers l'URL renseignée dans la balise rel=canonical afin de ne pas perturber votre référencement.

4 - Utiliser la redirection 302 au lieu de la 301


Du point de vue du visiteur de votre site web, il n'y a aucune différence que vous utilisiez la redirection 302 temporaire ou la redirection 301 permanente.

Mais pour les moteurs de recherche, c'est une autre histoire. Parce qu'en fonction de votre choix, ils ne traiteront pas les liens de la même manière.

Ainsi, en cas de redirection permanente 301, ils transfèrent le pagerank vers la nouvelle page. Ce qui n'est pas le cas avec la redirection temporaire 302.

A vous de vérifier vos redirections présentes dans votre fichier htaccess ou dans le panneau d'administration de votre serveur.

5 - Les petites erreurs 404 ou Soft 404 errors


Ces erreurs 404 arrivent plus souvent que vous ne l'imaginez. Par chance pour vous, le visiteur de votre site ne s'en apercevra même pas. Mais les moteurs de recherche, si ! Google vous les indique d'ailleurs dans les Webmaster Tools.

Une erreur soft 404 est comme une erreur 404 mais qui renvoie aussi un code HTTP 200. En d'autres termes, sur votre site, vous le configurez de telle sorte que, lorsqu'un internaute demande une page qui n'existe pas, il est renvoyé vers la page d'accueil ou toute autre page 404 personnalisée de votre choix.

Il en est de même avec les robots. Ainsi, vous dîtes aux robots que la page demandée n'existe pas (erreur 404) mais vous le renvoyez quand même vers une page de votre choix ayant du contenu en lui adressant en plus le code 200 OK (erreur soft 404). Et ce, en lieu et place d' une page "la page demandée n'a pas été trouvée" ou "File Not Found".

Et les moteurs de recherche n'apprécient guère ce tour de passe-passe. Car, pour eux, vous avez 2 liens avec un même contenu. Duplicate content ! Ce qui va limiter le crawling de votre site.

Autant vous pouvez afficher une page 404 personnalisée, autant cette page personnalisée devra toujours renvoyer le code 404 aux moteurs de recherche.

Pour vérifier quel code renvoie votre page 404 personnalisée, vous allez dans le Google Webmaster Tools (Etat de santé -> Explorer comme Google) et vous insérez le lien pour voir la page comme GoogleBot la verrait.

6 - Fichier Sitemaps non mis à jour


Une erreur technique pas essentielle. Mais s'il existe, le fichier sitemaps est très utile pour aider les robots des moteurs de recherche à indexer facilement toutes les pages de votre site.

Sur certains sites, le fichier sitemaps au format XML n'est pas mis à jour automatiquement.
Conséquence : il ne réflète pas toujours l'évolution du site. On peut alors y trouver des liens brisés si vous avez supprimé ou modifié des liens sur votre site.

Alors, si vous créez votre fichier sitemaps XML manuellement, vérifiez toujours qu'il ne comporte pas de liens brisés et mettez-le à jour à chaque création de nouvelle page sur le site.

Ensuite, songez à utiliser un outil qui mettra votre fichier sitemaps XML automatiquement à jour. Par exemple, vous pouvez le faire gratuitement sur le site xml-sitemaps.com si vous votre site à moins de 500 pages.

7 - Donner des ordres incorrects dans le fichier robots.txt


Parfois, certains webmasters s'étonnent qu'une partie de leur site ne soit pas indexée par Google. Or, dans leur fichier robots.txt, ils ont interdit, sans doute involontairement, aux robots de crawler justement le ou les répertoires contenant les pages à indexer.

Il arrive aussi qu'un webmaster veuille indiquer aux robots de ne pas indexer telle partie de son site. Mais, à l'arrivée, cette partie du site a bien été indexée par les robots et on retrouve les pages sur Google.

Dans ces 2 cas, il y a certainement une configuration incorrecte du fichier robots.txt. Prise individuellement, chaque ligne de commande semble correcte. Seulement, toutes les lignes de commande du robots.txt ne fonctionnent pas bien ensemble.

Une fois de plus, vous pouvez tester votre fichier robots.txt dans votre Google Webmaster Tools. S'il y a des erreurs, il vous l'indiquera.

8 - Caractères invisibles dans le fichier robots.txt


Toujours dans le Webmaster Tools de Google, il arrive parfois qu'à la section "Etat de santé -> Erreurs d'exploration", il vous indique que certaines "syntaxes sont incompréhensibles".

C'est surtout le cas lorsque vous laissez un espace quelque part dans le fichier robots.txt alors que toutes les lignes de commandes sont correctes.

Pour résoudre le problème, réécrivez votre fichier robots.txt, remettez-le à la racine de votre site et lancez à nouveau la vérification dans votre Webmaster Tools.

9 - Quand Google crawle les URL en Base64


C'est vrai, là c'est un peu plus technique !

On va encore se référer au Webmaster Tools (Outils pour webmaster de Google) où vous pouvez un jour trouver un nombre important d'erreurs 404 existant sur votre site. Ces erreurs prennent en général ce format :
http://www.votredomainequevousavez.com/c2hvdWxkIGRlZmluaXRlbHkNCmdldCBhIGxpZmU=/

Déroutant, n'est-ce pas ? Surtout quand l'on sait qu'on n'a pas donné un tel nom à l'une de ses pages web. Alors question : comment votre site a-t-il pu générer de tels liens ?

Le problème, c'est qu'il est impossible de savoir d'où proviennent ces URLs.

En fait, tous ces liens uniques sont créés à la volée par certaines plateformes CMS par mesure de sécurité pour essayer d'éviter les requêtes multiples et croisées sur le site (authentication token). Et aussi sur les sites ayant un espace privé, et donc avec un code d'accès.

Ce sont donc toutes ces pages "fictives" encodées en base64 que Google, par exemple, essaie d'indexer sans succès. D'où les nombreuses erreurs 404 qu'il signale.

La solution réside dans votre capacité à insérer des lignes de commandes dans votre robots.txt avec des Expressions Régulières (ReGex) interdisant aux robots de crawler de telles pages. Un bon développeur pourra régler le problème pour vous.

10 - Serveur mal configuré


Un serveur mal configuré peut aussi impacter votre référencement.

Ainsi, si les HTTP Headers de votre serveur ne sont pas bien configurés, votre page d'accueil peut ne jamais être indexée par les moteurs de recherche.

En principe, lorsqu'une page web est demandée par un navigateur web, il envoie un "Accept" Header qui indique au serveur le type de fichiers qu'il sait lire. Et lorsque le serveur répond en envoyant le document demandé, il envoie en même temps au navigateur web un "Content-Type" Header indiquant le type de fichier qu'il envoie (HTML/PDF/JPEG/...). Vous suivez ?

Le problème se pose lorsque le navigateur envoie un "Accept Header" commençant, par exemple, par "text/html" et que le serveur mal configuré renvoie systématiquement le premier type de fichier lu dans son "Content-Type". Ce qui peut provoquer un serveur "down".

Il se passe la même chose avec les robots qui, avant de crawler une page, lui envoient un Accept Header. Si le serveur répond avec un Content-Type indiquant une page au format "txt", la page pourrait ne pas être indexée.

Pour éviter de telles situations, la configuration d'un serveur dédié doit être toujours confiée à un spécialiste.
Comme vous le constatez, le référencement web ne se limite pas uniquement à l'optimisation des pages et à la recherche de backlinks. Des erreurs techniques, comme celles que nous venons de voir, peuvent aussi pénaliser votre référencement.

Voici maintenant comment bien référencer son site sur Google.