Afficher tous les fichiers du répertoire d'un site Web?

10

Est-il possible de lister tous les fichiers et répertoires d'un répertoire de site Web donné à partir du shell Linux?

Quelque chose de semblable à:

ls -l some_directory

mais au lieu de some_directory, ce serait ls -l http://www.some_site.com/some_directory/. Évidemment, le plus tard ne fonctionnera pas.

utilisateur1032531
la source

Réponses:

10

Je me demandais juste la même chose. Ce qui suit n’est probablement pas la solution la plus efficace, mais cela semble fonctionner. Il recrée localement la structure de répertoire du serveur Web. (Trouvé la première commande via stackoverflow )

wget --spider -r --no-parent http://some.served.dir.ca/
ls -l some.served.dir.ca
Brian Z
la source
+1 pour l'option `` --spider`. Je ne savais pas que l' on thogh je l' ai utilisé wgetet curlavant.
Hennes
1

Oui c'est possible. Quelquefois.

Lorsque vous accédez à une page Web (Dites à http://demo.domain.tld/testdir/index.html), le fichier que vous avez spécifié est ouvert (dans ce cas, `index.html).

Si vous ne spécifiez pas de fichier et si un fichier par défaut est présent (par exemple, le serveur Web est configuré pour afficher index.html ou index.php, ...) et que vous avez tapé, http://demo.domain.tld/testdir/il vous présentera automatiquement le fichier approprié .

Si ce fichier n'est pas présent, il peut effectuer d'autres tâches, telles que lister le contenu du répertoire. C'est très utile lors de la construction d'un site, mais cela est également considéré comme peu judicieux du point de vue de la sécurité.

TL; DR: Oui, parfois c'est possible.

Cependant, l'approche la plus pratique consiste simplement à SSH, [s] FTP ou RDP au serveur Web et à émettre une commande de liste de répertoires locaux.

Hennes
la source
Merci Heenes. Pas mon site, donc je suppose que SSH, etc. ne fonctionnera pas, correct? Je pensais à quelque chose d'une commande shell comme wget et n'utilisant pas le navigateur.
user1032531
wgetvous obtiendrez tous les fichiers liés. Je suppose que vous pouvez également utiliser quelque chose de similaire à la liste plutôt que de récupérer les fichiers. Cependant, il manque toujours des fichiers qui ne sont pas liés.
Hennes
0

Sans récursion

lftp -e "cls -1 > /tmp/list; exit" "https://cloud-images.ubuntu.com/xenial/current/"
cat /tmp/list
Parag Doke
la source
0

Je pense que le fuzzing d’URL est ce que vous recherchez. Les outils Pentest offrent une solution simple, mais ils vous demandent de disposer des droits de recherche. Probablement pour réduire le piratage. Voici une solution en ligne.

https://pentest-tools.com/website-vulnerability-scanning/discover-hidden-directories-and-files

Sinon, téléchargez et installez Kali Linux. Tout le monde pense que c'est pour les pirates, mais si vous êtes un constructeur de site Web professionnel, je pense que ce sera bien d'avoir. Essentiellement, cette question demande "comment créer" quelque chose comme un sitemap, ce que la plupart des domaines fournissent de toute façon.

Sinon, essayez les solutions Arch Linux. https://blackarch.org/fuzzer.html

Phume
la source