Google : Faut-il bloquer certaines ressources JS et CSS externes?

Dans un récent JavaScript SEO Office Hours, Martin Splitt de chez Google a répondu à une question sur le blocage des ressources externes JS et CSS.

Google : Faut-il bloquer certaines ressources JS et CSS externes ?

La question était de savoir si le blocage des ressources externes ferait perdre du ranking à un site Web.

Du JavaScript et CSS bloqués peuvent affecter les classements


Le blocage des fichiers JavaScript (JS) et CSS peut causer des problèmes de classement dans certaines situations. Une des raisons est que Google a besoin de certains de ces fichiers afin de rendre la page web et déterminer si elle est mobile-friendly.

Une page officielle de développeur de Google dit ceci :

Pour garantir une indexation et un affichage optimaux de votre page, Googlebot doit pouvoir accéder aux fichiers JavaScript, CSS et image que votre site Web utilise, afin de l'explorer comme un internaute ordinaire.

Si le fichier robots.txt du site empêche l'exploration de ces éléments, cela affecte directement l'affichage et l'indexation du contenu par nos algorithmes. Par conséquent, il est possible que le classement du site ne soit pas optimal.


Blocage des fichiers JavaScript et CSS externes


La personne qui pose la question a une raison valable de s’inquiéter de la façon dont Google pourrait réagir au sujet du blocage des ressources externes.



La question:

Si vous utilisez robots.txt pour bloquer JS ou CSS sur des fichiers JS/CSS externes dans d’autres noms de domaine ou si d’autres domaines les bloquent, alors l’utilisateur verra des choses différentes que Googlebot, n’est-ce pas ?

Google se méfierait-il de ce genre de pages et les a-t-elle déclassées ?

Martin Splitt de Google a répondu :

Non, nous ne déclasserons rien. Ce n’est pas caché. Dissimuler, très spécifiquement, signifie tromper l’utilisateur.

Ce n’est pas parce que nous ne pouvons pas voir le contenu que vous trompez l’utilisateur.

La dissimulation est une astuce que les spammeurs utilisent pour afficher un ensemble de contenu à Google afin de tromper Google dans le classement et afficher une page Web complètement différente pour les utilisateurs, comme un virus ou un spam chargé dans la page web.

La dissimulation (cloaking) est également un moyen d’empêcher Google d’explorer les URL que les éditeurs ne veulent pas que Google voie, comme les liens d’affiliation.

Dans ce cas, d’après Splitt Martin le blocage des ressources externes ne sera pas considéré comme une dissimulation.


Comment bloquer les ressources externes peut être problématique


Martin poursuit en décrivant comment le blocage des ressources externes peut devenir un problème :

Il est encore potentiellement problématique si votre contenu n’apparaît que lorsque nous pouvons aller chercher ces ressources et nous ne voyons pas le contenu dans le HTML rendu parce qu’il est bloqué par robots.txt.

Alors, on ne peut pas l’indexer. S’il manque du contenu, nous ne pouvons pas l’indexer.


Les outils de test de Google révéleront des problèmes


Martin poursuit en montrant comment un éditeur peut diagnostiquer si le blocage des ressources est problématique.

Il est donc certainement utile d’essayer nos outils de test pour voir si le contenu que vous voulez utiliser pour être vu sur la page est en fait visible sur la page, même si certaines ressources JavaScript ou CSS pourraient être robotisés.

Mais d’une manière générale, les ressources JavaScript ou CSS robotisées ne sont pas en soi un problème. Cela peut être un problème si nous ne pouvons pas voir le contenu, mais c’est très bien du point de vue de la dissimulation, ce n’est pas dissimulation.

Il a en outre précisé :

Si le contenu est chargé par JavaScript et que nous ne pouvons pas charger ce JavaScript parce qu’il est robotisé, nous n’allons pas le voir et c’est potentiellement problématique.

Mais si c’est une amélioration comme une boîte de Chat ou un widget de commentaire ... alors ce n’est pas un problème.

Dans le monde réel, si l’on veut bloquer les ressources externes avec un robots.txt, alors beaucoup se tournent vers la dissimulation.

Et certaines formes de dissimulation peuvent être un moyen de bloquer les ressources qui n’ont rien à voir avec la façon dont la page est rendue et qui s’inscrit dans ce que Google recommande.

Source