J'ai découvert que McAfee SiteAdvisor a signalé mon site Web comme "pouvant avoir des problèmes de sécurité" .
Peu m'importe ce que McAfee pense de mon site Web (je peux le sécuriser moi-même et sinon, McAfee n'est certainement pas la société à laquelle je demanderais de l'aide, merci beaucoup). Ce qui me dérange cependant, c'est qu'ils ont apparemment exploré mon site Web sans ma permission.
Pour clarifier: il n'y a presque pas encore de contenu sur mon site Web, juste un espace réservé et quelques fichiers pour mon usage personnel. Il n'y a pas de ToS.
Ma question est la suivante: McAffee a-t-il le droit de télécharger du contenu depuis / explorer mon site Web? Puis-je leur interdire de le faire? J'ai le sentiment qu'il devrait y avoir une sorte de principe "Mon château, mes règles", mais je ne sais pratiquement rien de tout ce qui est légal.
Mise à jour: j'aurais probablement dû mentionner que mon fournisseur de serveur m'envoie régulièrement des e-mails concernant les conclusions de SiteAdvisor - c'est ainsi que j'ai découvert leur `` note '' et c'est pourquoi je suis agacé.
la source
Réponses:
Il existe un précédent juridique à cet égard. Field c. Google Inc., 412 F. Supp. 2d 1106, (US Dist. Ct. Nevada 2006). Google a obtenu un jugement sommaire basé sur plusieurs facteurs, notamment le fait que l'auteur n'utilisait pas de fichier robots.txt dans les métabalises de son site Web, ce qui aurait empêché Google d'explorer et de mettre en cache des pages que le propriétaire du site Web ne voulait pas indexer.
Décision pdf
Il n'y a AUCUNE loi américaine traitant spécifiquement des fichiers robots.txt; cependant, une autre affaire judiciaire a créé un précédent qui pourrait éventuellement conduire à ce que les fichiers robots.txt soient considérés comme contournant les mesures électroniques intentionnelles prises pour protéger le contenu. Dans HEALTHCARE ADVOCATES, INC Vs HARDING, EARLEY, FOLLMER & FRAILEY, et. al, Healthcare Advocates a fait valoir que Harding et al ont essentiellement piraté les capacités de la Wayback Machine afin d'accéder aux fichiers mis en cache des pages qui avaient des versions plus récentes avec des fichiers robots.txt. Alors que Healthcare Advocates a perdu cette affaire, le tribunal de district a noté que le problème n'était pas que Harding et al "avaient choisi le verrou", mais qu'ils avaient eu accès aux fichiers en raison d'un problème de chargement du serveur avec la Wayback Machine qui autorisait l'accès à la fichiers mis en cache quand il ne devrait pas
Décision judiciaire pdf
Il est seulement une question de temps à mon humble avis jusqu'à ce que quelqu'un prend cette décision et se retourne sur son côté: Le tribunal a indiqué que robots.txt est un verrou pour empêcher l' exploration et la contourner est de choisir le verrou.
Beaucoup de ces poursuites, malheureusement, ne sont pas aussi simples que "J'ai essayé de dire à votre robot qu'il n'est pas autorisé et votre robot a ignoré ces paramètres / commandes." Il y a une foule d'autres problèmes dans tous ces cas qui affectent finalement le résultat plus que le problème central de savoir si un fichier robots.txt doit être considéré comme une méthode de protection électronique en vertu de la loi américaine DCMA.
Cela étant dit, il s'agit d'une loi américaine et quelqu'un de Chine peut faire ce qu'il veut - non pas à cause du problème juridique, mais parce que la Chine n'appliquera pas la protection des marques et des droits d'auteur aux États-Unis, alors bonne chance.
Pas une réponse courte, mais il n'y a vraiment pas de réponse courte et simple à votre question!
la source
Oui, ils ont le droit de le faire - vous avez créé un site Web public, qu'est-ce qui vous fait penser qu'ils ne le font pas?
Vous aussi, bien sûr, avez le droit de les arrêter. Vous pouvez leur demander de ne pas explorer votre site Web avec robots.txt ou de les empêcher activement d'y accéder avec quelque chose comme fail2ban .
Sinon, ne vous en faites pas et continuez votre vie. Cela ne fait de mal à rien et est définitivement du côté bénin du sondage sur Internet.
la source
Que ce comportement soit éthique ou non n'est pas parfaitement clair.
Le fait d'explorer un site public n'est pas contraire à l'éthique (à moins que vous ne l'ayez explicitement interdit d'utiliser un fichier robots.txt ou d'autres mesures technologiques et qu'ils les contournent).
Ce qu'ils font est l'équivalent approximatif de vous appeler à froid, tout en annonçant au monde que vous n'êtes peut-être pas en sécurité. Si cela nuit à votre réputation et est injustifié, c'est contraire à l'éthique; s'il le fait et que la seule résolution pour cela implique que vous les payiez, c'est du racket. Mais je ne pense pas que ce soit ce qui se passe.
L'autre fois que cela devient contraire à l'éthique, c'est lorsque quelqu'un explore votre site pour s'approprier votre contenu ou vos données, puis le représente comme le leur. Mais ce n'est pas non plus ce qui se passe.
Donc, je suggère que leur comportement dans ce cas est éthique, et vous pouvez aussi très probablement l'ignorer.
Leur comportement connexe de spam vous est contraire à l'éthique si vous n'avez aucune relation avec eux et n'avez pas demandé les e-mails, mais je soupçonne qu'ils ont un désabonnement fonctionnel.
la source
Disallow
directive dans un fichier robots.txt une "mesure technologique interdite". robots.txt agit comme une demande de courtoisie, et bien que les bots bien élevés s'y conforment, il n'y a aucune obligation et aucune sécurité réelle impliquées. En fait, les bots mal comportés pourraient bien prendre une entrée dans robots.txt comme une invitation à explorer ce chemin spécifique ...Approche technique pour empêcher certaines personnes ou entreprises d'accéder à votre site Web:
Vous pouvez empêcher des adresses IP spécifiques ou des plages d'adresses d'accéder aux pages de votre site. C'est dans le fichier .htaccess (si votre site fonctionne sur Apache Web Server).
http://www.htaccess-guide.com/deny-visitors-by-ip-address/
Demandez à votre serveur Web de consigner les adresses IP à partir desquelles il est accessible et recherchez ces adresses IP pour trouver celles associées à McAfee. Probablement facile à dire maintenant, si vous n'avez pas de visiteurs réguliers.
Bien sûr, ils pourraient changer d'adresses IP à l'avenir. Néanmoins, si vous recherchez les adresses IP que vous trouvez, pour voir à qui elles appartiennent, vous pourrez peut-être en savoir plus sur un bloc entier d'adresses appartenant à McAfee et les bloquer toutes.
Pour une base légale à cet effet:
"Les propriétaires de sites Web peuvent bloquer légalement certains utilisateurs, règles de justice"
http://www.computerworld.com/s/article/9241730/Website_owners_can_legally_block_some_users_court_rules
(Si votre site Web est personnel, personne ne contesterait votre droit de bloquer certains utilisateurs. Mais s'il s'agit d'un site Web pour une entreprise, il y a des arguments juridiques et moraux des deux côtés de cette discussion. Plus votre entreprise est petite, plus il est facile il doit être légalement protégé - et moins personne d'autre ne se soucierait de toute façon de se plaindre.)
Vous pourriez également être intéressé par "Refuser les visiteurs par référent".
http://www.htaccess-guide.com/deny-visitors-by-referrer/
la source