Pourquoi Wikipedia afficherait-il des liens externes définis comme rel = "nofollow"?

27

Je comprends que rel="nofollow"c'est un moyen sûr de créer un lien vers des sites externes, mais pourquoi Wikipédia refuserait-il de créer un lien vers d'autres sites sans le nofollow?

Est-ce une question de confiance avec la communauté?

N'y aurait-il pas quelque chose de bon dans le référencement pour Wikipedia s'ils utilisaient des liens de suivi pour des sources fiables?

Voir l'exemple ci-dessous: entrez la description de l'image ici

Fabio Milheiro
la source
6
À propos de leur décision, leur histoire, leurs discussions, etc.: Wikipedia: Nofollow (archive) et Wikimedia: nofollow
unor
7
"quelque chose de bien en SEO pour Wikipedia" - ils n'ont besoin d'aucune aide pour leur référencement
andrewtweber

Réponses:

53

L'une des façons dont les moteurs de recherche déterminent ce que Google appelle «PageRank» est le nombre de liens entrants, avec plus de poids accordé aux sites avec des classements élevés (NB: j'utiliserai ce terme comme mot générique pour signifier comment un moteur de recherche donne la priorité à l'affichage des résultats).

Cela a abouti à ce que l'on appelle le «spam de lien» où plusieurs sites ont été créés dans le but de créer des liens à partir d'eux pour essayer d'augmenter le classement des pages du site lié.

Étant donné que Wikipedia est l'un des sites les mieux classés sur Internet et qu'il permet à quiconque de créer des liens à partir de là, ce serait un endroit idéal pour créer des pages et des liens dans le seul but d'améliorer le classement des pages de leur site.

En appliquant des balises «nofollow», il indique aux moteurs de recherche que ces liens ne valent rien quand il s'agit de considérer leur valeur pour le site lié. Cela signifie que l'incitation à remplir Wikipedia avec du spam de lien est essentiellement éliminée.

Dwev
la source
12
Correct. D'autre part, cela donne également une excuse à Wikipédia pour ne pas transmettre le classement à leurs sources qui sont sans doute importantes pour la crédibilité de Wikipédia.
Itai
8
Je ne suis pas sûr que «excuse» soit le bon mot ici. Je ne pense pas que WP essaie délibérément de raidir leurs sources. Je crois que c'est une conséquence de la solution d'un problème créant un nouveau problème. À moins qu'il n'y ait un moyen d'empêcher le spam de liens dans les liens sources, je pense que cela ne fait que partie du compromis que nous devons faire pour atténuer la prévalence du spam de liens à l'échelle du site.
Dwev
26
Peut-être que je manque quelque chose. Il sert leurs millions de visiteurs quotidiens à ne pas fournir de mauvaises pages pleines de spam de liens. En tant qu'utilisateur, j'en suis reconnaissant. Si le spam de liens devait être modéré manuellement par les éditeurs, ils n'auraient pas le temps de faire autre chose, et WP deviendrait simplement une autre ferme de liens ... que me manque-t-il?
Dwev
5
Ils pourraient supprimer le nofollow pour les liens qui sont restés sur WP pendant un temps significatif - s'ils n'étaient pas supprimés, ils ne sont probablement pas du spam. SO et Reddit le font en utilisant des votes positifs comme mesure.
DisgruntledGoat
3
@DisgruntledGoat Bien que cela semble être une bonne solution, je m'attends à ce que les fournisseurs de SEO blackhat commencent rapidement à acheter des domaines communément liés ou à payer leurs propriétaires.
ceejayoz le
4

Il y a quelques raisons pour lesquelles tout site Web (y compris Wikipedia) qui accueille le contenu des utilisateurs aujourd'hui ferait des liens comme non-suivi.

  1. Les liens peuvent devenir obsolètes et peuvent même renvoyer des pages d'erreur (exemple: erreur 404) à l'utilisateur lors de l'accès. Une page Web qui contient au moins un lien vers une page d'erreur n'est pas une bonne page à indexer sur Internet.

  2. Comme quelqu'un l'a mentionné, les sites Web qui permettent aux utilisateurs de publier du contenu peuvent potentiellement manipuler le classement du site et / ou d'autres sites en annonçant des liens vers n'importe quel site Web (en fonction des filtres que le site Web que le client utilise a en place). À titre d'exemple concret, si un utilisateur publie des centaines de liens vers le vulgaire et / ou le sexe alors que le site n'a aucun rapport avec cela, il peut à tout le moins confondre les robots des moteurs de recherche en leur faisant croire que le site Web a plus à cacher et qu'il peut le faire '' t être digne de confiance pour fournir des résultats de qualité que les utilisateurs s'attendent à voir.

Pour que les webmasters se protègent contre les robots des moteurs de recherche, ils doivent (ou du moins devraient) faire l'une des choses suivantes lorsque le contenu utilisateur est publié pour le public:

  1. Ils mettront le contenu en attente pendant qu'une personne réelle vérifie le contenu pour voir s'il est acceptable pour le site, puis le publie manuellement. C'est la meilleure option, mais nous sommes dans le monde où les gens n'ont pas le temps de vérifier des milliers de paragraphes de contenu.

  2. Ils laisseront le contenu être publié immédiatement, mais feront de chaque lien un suivi, du moins jusqu'à ce que les liens soient validés manuellement.

  3. Ils utiliseront des filtres automatisés pour voir si le contenu correspond à certains mots ou phrases et si c'est le cas (ou non), le contenu sera rejeté.

En tout état de cause, si le lien n'ajoute aucune valeur à un utilisateur ou n'est lié en aucune façon au site Web, il doit être effectué en tant que non-suivi, ou mieux encore, le lien ne doit pas être disponible du tout.

Mike
la source
6
"1. Les liens peuvent devenir obsolètes ..." - cela peut arriver à n'importe quel lien, n'importe où. Ce n'est pas une raison pour utiliser le nofollow.
DocRoot
@DocRoot si un moteur de recherche peut voir qu'un propriétaire de site Web ne gère pas son site pour faire face à la pourriture des liens ou a des liens non valides, il peut ancrer les points de ce site dans le classement. (C'est une mauvaise expérience utilisateur s'ils continuent à être connectés à des 404; Google et al. Veulent faire confiance pour guider les utilisateurs vers des sites Web où ils sont susceptibles d'avoir une meilleure expérience utilisateur.) Sans nofollow, quelqu'un pourrait retirer Wikipédia dans le classement en le spammant avec beaucoup de liens invalides.
WBT
@WBT Oui, mais ce n'est pas une raison pour faire le lien nofollow pour commencer - en prévision de la "pourriture du lien". Il existe des moyens (automatisés) de valider la cible du lien pour les 404. Je ne dis pas que les liens Wikipédia ne devraient pas être nofollow (pour la prévention du spam), mais pas pour le point # 1 comme mentionné ci-dessus.
DocRoot
@DocRoot Que diriez-vous d'anticiper que quelqu'un pourrait essayer de réduire votre classement dans les moteurs de recherche (peut-être pour favoriser leur propre site), en publiant des liens qui ne sont pas valides au départ, et pas seulement pourrir avec le temps? (Ou, qui sont sélectionnés pour se décomposer intentionnellement après quelques minutes, s'il y a une vérification de validité initiale?) Je pense que la défense de Wikipédia joue ici.
WBT