J'ai lu les réponses à cette question, mais elles laissent toujours ma question ouverte: Google cache-t - il le fichier robots.txt?
Je n'ai pas trouvé de moyen dans les outils Google pour les webmasters pour invoquer un nouveau téléchargement de mon robots.txt .
Par une erreur, mon robots.txt a été remplacé par:
User-agent: *
Disallow: /
Et maintenant, tout mon contenu a été supprimé des résultats de recherche Google.
De toute évidence, je suis intéressé à corriger cela dès que possible. J'ai déjà remplacé le fichier robots.txt , mais je ne trouve pas de moyen de faire mettre à jour par Google la version mise en cache.
google
google-search-console
robots.txt
Der Hochstapler
la source
la source
Réponses:
Vous ne pouvez pas leur faire télécharger à nouveau votre fichier robots.txt lorsque vous le souhaitez. Google les réexplorera et utilisera les nouvelles données chaque fois qu'il le jugera approprié pour votre site. Ils ont tendance à l'explorer régulièrement, je ne m'attendrais donc pas à ce que votre fichier mis à jour soit long et que vos pages soient à nouveau explorées et réindexées. Gardez à l'esprit que cela peut prendre un certain temps après la découverte du nouveau fichier robots.txt avant que vos pages ne soient ré-explorées et encore plus de temps pour qu'elles réapparaissent dans les résultats de recherche de Google.
la source
J'ai rencontré le même problème lorsque j'ai commencé mon nouveau site Web
www.satyabrata.com
le 16 juin.J'avais un
Disallow: /
dans mon robots.txt , exactement comme Oliver. Il y avait également un message d'avertissement dans Google Webmaster Tools concernant les URL bloquées.Le problème a été résolu hier, le 18 juin. J'ai fait ce qui suit. Je ne sais pas quelle étape a fonctionné.
www.satyabrata.com
Le message d'avertissement concernant les URL bloquées a disparu et un nouveau fichier robots.txt s'affiche téléchargé dans les outils pour les webmasters de Google.
Actuellement, je n'ai que deux pages indexées dans Google, la page d'accueil et robots.txt . J'ai 10 pages sur le site. J'espère que le reste sera indexé bientôt.
la source
J'ai eu un problème où les images ont été déplacées vers un serveur CNAME distinct et un refus a été placé sur le dossier d'images. La façon dont je l'ai compris était de récupérer robots.txt dans la page Web des outils pour les webmasters en tant qu'outil Google. Une fois qu'il m'a dit qu'il avait récupéré et lu robots.txt, je l'ai soumis. Cela a brisé un embargo de trois mois sur la numérisation d'images où Google a signalé qu'il lisait le fichier robots.txt mais ne modifiait pas son araignée pour correspondre aux règles qui ont été modifiées pour autoriser le dossier d'images. En une semaine, les images étaient à nouveau indexées.
Peut-être la peine d'essayer. Google est connu pour être parfois bloqué et ne pas relire le fichier.
la source
J'espère que ce lien vous aidera à explorer vos sites Web: https://support.google.com/adsense/answer/10532?hl=en .
Supprimez
/
de votre fichier robots.txt .la source
Dans mon cas, le problème était que j'utilisais un service DNS gratuit appelé fear.org.
(mon domaine gratuit s'est terminé en
.us.to
)Une fois que je suis passé à un TLD, il a commencé à fonctionner.
la source