Je comprends que rel="nofollow"
c'est un moyen sûr de créer un lien vers des sites externes, mais pourquoi Wikipédia refuserait-il de créer un lien vers d'autres sites sans le nofollow?
Est-ce une question de confiance avec la communauté?
N'y aurait-il pas quelque chose de bon dans le référencement pour Wikipedia s'ils utilisaient des liens de suivi pour des sources fiables?
Réponses:
L'une des façons dont les moteurs de recherche déterminent ce que Google appelle «PageRank» est le nombre de liens entrants, avec plus de poids accordé aux sites avec des classements élevés (NB: j'utiliserai ce terme comme mot générique pour signifier comment un moteur de recherche donne la priorité à l'affichage des résultats).
Cela a abouti à ce que l'on appelle le «spam de lien» où plusieurs sites ont été créés dans le but de créer des liens à partir d'eux pour essayer d'augmenter le classement des pages du site lié.
Étant donné que Wikipedia est l'un des sites les mieux classés sur Internet et qu'il permet à quiconque de créer des liens à partir de là, ce serait un endroit idéal pour créer des pages et des liens dans le seul but d'améliorer le classement des pages de leur site.
En appliquant des balises «nofollow», il indique aux moteurs de recherche que ces liens ne valent rien quand il s'agit de considérer leur valeur pour le site lié. Cela signifie que l'incitation à remplir Wikipedia avec du spam de lien est essentiellement éliminée.
la source
Il y a quelques raisons pour lesquelles tout site Web (y compris Wikipedia) qui accueille le contenu des utilisateurs aujourd'hui ferait des liens comme non-suivi.
Les liens peuvent devenir obsolètes et peuvent même renvoyer des pages d'erreur (exemple: erreur 404) à l'utilisateur lors de l'accès. Une page Web qui contient au moins un lien vers une page d'erreur n'est pas une bonne page à indexer sur Internet.
Comme quelqu'un l'a mentionné, les sites Web qui permettent aux utilisateurs de publier du contenu peuvent potentiellement manipuler le classement du site et / ou d'autres sites en annonçant des liens vers n'importe quel site Web (en fonction des filtres que le site Web que le client utilise a en place). À titre d'exemple concret, si un utilisateur publie des centaines de liens vers le vulgaire et / ou le sexe alors que le site n'a aucun rapport avec cela, il peut à tout le moins confondre les robots des moteurs de recherche en leur faisant croire que le site Web a plus à cacher et qu'il peut le faire '' t être digne de confiance pour fournir des résultats de qualité que les utilisateurs s'attendent à voir.
Pour que les webmasters se protègent contre les robots des moteurs de recherche, ils doivent (ou du moins devraient) faire l'une des choses suivantes lorsque le contenu utilisateur est publié pour le public:
Ils mettront le contenu en attente pendant qu'une personne réelle vérifie le contenu pour voir s'il est acceptable pour le site, puis le publie manuellement. C'est la meilleure option, mais nous sommes dans le monde où les gens n'ont pas le temps de vérifier des milliers de paragraphes de contenu.
Ils laisseront le contenu être publié immédiatement, mais feront de chaque lien un suivi, du moins jusqu'à ce que les liens soient validés manuellement.
Ils utiliseront des filtres automatisés pour voir si le contenu correspond à certains mots ou phrases et si c'est le cas (ou non), le contenu sera rejeté.
En tout état de cause, si le lien n'ajoute aucune valeur à un utilisateur ou n'est lié en aucune façon au site Web, il doit être effectué en tant que non-suivi, ou mieux encore, le lien ne doit pas être disponible du tout.
la source