Sous Linux, comment puis-je récupérer une URL et obtenir son contenu dans une variable dans un script shell?
Sous Linux, comment puis-je récupérer une URL et obtenir son contenu dans une variable dans un script shell?
J'ai besoin d'obtenir l'URL finale après une redirection de page de préférence avec curl ou wget. Par exemple, http://google.com peut rediriger vers http://www.google.com . Le contenu est facile à obtenir (ex. curl --max-redirs 10 http://google.com -L), Mais je ne suis intéressé que par l'URL...
J'essaie de télécharger une archive tar à partir de GitHub en utilisant cURL , mais cela ne semble pas rediriger: $ curl --insecure https://github.com/pinard/Pymacs/tarball/v0.24-beta2 <html><body>You are being <a
J'ai essayé d'utiliser cURL mais il semble que par défaut (Debian) n'est pas compilé avec le support HTTPS et je ne veux pas le construire moi-même. wget semble avoir le support SSL mais je n'ai trouvé aucune information sur la façon de générer une requête HTTP OPTIONS avec wget....