Google n'est pas en mesure de charger toutes les ressources de la page, ce qui provoque des erreurs de script et peut nuire à notre référencement

8

Nous venons de constater que la plupart de nos sites Web présentent les mêmes erreurs, mais nous ne savons pas comment les résoudre.

https://search.google.com/test/mobile-friendly

Il semble que certains scripts sur les sites Web ne soient pas inclus. Nous pensons que cela a un impact sur nos résultats de référencement organique. Nous avons essayé les étapes du test Google Mobile-friendly, mais aucun résultat. Nous cherchions depuis la semaine dernière, mais nous n'avons toujours pas trouvé de solution.

Aucune suggestion? Faites-le nous savoir!

L'erreur:

Page partiellement chargée

Toutes les pages de ressources ne peuvent pas être chargées. Cela peut affecter la façon dont Google voit et interprète votre page. Résolvez les problèmes de disponibilité des sources susceptibles d'affecter la façon dont Google interprète votre page. ''

Thijs Uyterwaal
la source
Cela est souvent dû au fait que ces scripts ne sont pas autorisés dans robots.txt. Sur un site WordPress, le refus wp-contentpeut provoquer ces problèmes. Votre robots.txt me semble bien, au moins maintenant. L'avez-vous changé récemment?
Stephen Ostermiller
1
En êtes-vous maintenant au fond? Nous rencontrons des problèmes similaires sur des dizaines de sites Web. Chaque test donne des résultats différents, parfois il charge tout, parfois il ne parvient pas à charger quelques ressources, css, js ou images, puis il déclenche une erreur et envoie un e-mail à propos de la non compatibilité avec les mobiles.
Goran Usljebrka

Réponses:

1

Googlebot pourra lire beaucoup de Javascript, mais pas tout. Si votre fichier robots.txt est configuré pour permettre l'analyse de vos fichiers .js, il est probable que votre javascript soit trop complexe pour que Google le rende complètement.

Par conséquent, vous devrez peut-être continuer à tester différentes versions de votre javascript avec le test adapté aux mobiles pour déterminer une version que Google peut traiter correctement. Plus votre javascript est complexe, plus il est probable que Google ne puisse pas le lire. Essayez de simplifier votre Javascript du mieux que vous le pouvez.

Michael d
la source
Je ne pense pas, comme je suis le même problème exact avec une liste de 10 jset jpgfichiers. Donc, compte tenu de votre explication, qu'en est-il des jpgfichiers.
2018
1

"Page partiellement chargée" doit vous donner une liste des ressources que Googlebot n'a pas pu charger. Commencez par vérifier ces ressources pour l'accessibilité.

  • Ensuite, essayez ceci: Exécutez le test mobile-freindly deux fois. D'abord, http: // version, puis, https: // version. Il s'agit de vérifier si la version https du site essaie de charger des ressources à partir de la version http et vice versa. Entre les deux tests, si vous voyez une différence dans le nombre de ressources non chargées, zonez sur ces ressources.

  • Pour obtenir une meilleure vue de ce qui est chargé et quand, testez le site sur gtmetrix.com. Cela vous donnera les ressources chargées dans l'ordre chronologique, ainsi qu'au format cascade.

  • Sur le front du code, réduisez le nombre de javascripts. J'ai regardé la source de l'un des sites et je vois près de 20 javascript inclus. Cela fait beaucoup de requêtes http du même domaine. Ajoutez à cela les demandes d'images, css, polices, etc. Essayez de fusionner les fichiers js et css en un ou deux fichiers chacun.

deltavin
la source
Cela ne répond pas bien à la question. J'ai exactement le même problème avec l'outil de test d' optimisation mobile de Google, les ressources de rapports ne peuvent pas être chargés liste 10 jset jpgfichiers, je peux télécharger par moi - même sans aucun problème!
Pmpr
1

Lorsque vous utilisez ce test, notez que de nombreux pixels / scripts de suivi des annonces (même les pixels de Google et les pixels de Doubleclick (Google possède Doubleclick)) peuvent être bloqués par leur propre fichier robots.txt que vous ne pouvez pas contrôler. J'ai vu cela de première main sur l'un de mes propres sites - Google a bloqué leur propre pixel Doubleclick d'être analysé par le Googlebot. Vous devez vous demander: "Le Googlebot est pour identifier le contenu de votre page, pas pour suivre les pixel trackers. Même les pixels de suivi de Google bloquent son propre Googlebot. Alors, pourquoi devrais-je me soucier si ce sont les pixels trackers qui sont bloqués?" Et je le vois aussi avec le pixel de Facebook.

Cependant, si c'est un fichier robots.txt que vous contrôlez et n'a rien à voir avec le suivi des pixels, c'est probablement quelque chose que vous devez résoudre. Maintenant, si vous avez une partie réservée aux membres de votre site Web ou une partie réservée aux administrateurs de votre site Web et qu'elle est liée à partir de la page d'accueil, vous pouvez envisager de masquer les liens ou d'attributs de lien nofollow afin que le Googlebot ne essayez de suivre cela dans votre page. Cependant, il faut se demander si Google veut que vous autorisiez le Googlebot à passer une section réservée aux membres ou aux administrateurs de votre site Web, ce qui n'est probablement pas à mon avis.

C'est mon avis, cependant. À moins que nous ne puissions réellement faire réagir l'équipe d'ingénierie SEO de Google, nous sommes en train de tâtonner dans le noir et n'avons qu'à utiliser notre meilleure intuition de bon sens ici.

Volomike
la source