Pourquoi s’assurer que Googlebot puisse crawler rapidement les URLs de votre site web?

Trouvé le 31 mars 2015 à 9:12 par - 968 vues


C’est dans le forum Webmaster Help que John Mueller est intervenu en ce début de semaine pour aider un webmaster qui se demandait pourquoi les pages de son site étaient « temporairement indisponibles » dans l’outil « Explorer comme Google ».

John Mueller a indiqué que c’était certainement dû à une lenteur du serveur qui empêchait Googlebot de crawler rapidement les pages du site web.

Pour plus d’infos à ce sujet, rendez-vous sur Referenceur.be: http://www.referenceur.be/google-crawler-rapidement-pages-site-web-16180.html


<- Actualité précédente: Calculer le TCMF ou MFCR pour avoir une idée de l’impact SEO du 21 Avril
->Actualité suivante: Instagram : bientôt incontournable pour les marques en France

Publié dans Actualités Google, Actualités référencement / SEO, Referenceur.be |

Découvrez les articles sur le même thème