Je veux connaître l'état HTTP des sites Web utilisant Ubuntu. J'ai utilisé curl
et wget
commandé à cette fin. Mais le problème est que ces commandes téléchargent la page complète du site Web, puis recherchent l'en-tête et l'affiche à l'écran. Par exemple:
$ curl -I trafficinviter.com
HTTP/1.1 200 OK
Date: Mon, 02 Jan 2017 14:13:14 GMT
Server: Apache
X-Pingback: http://trafficinviter.com/xmlrpc.php
Link: <http://trafficinviter.com/>; rel=shortlink
Set-Cookie: wpfront-notification-bar-landingpage=1
Content-Type: text/html; charset=UTF-8
La même chose se produit avec la Wget
commande où la page complète est téléchargée et consomme inutilement ma bande passante.
Ce que je recherche, c'est: comment obtenir le code d'état HTTP sans télécharger aucune page pour économiser ma bande passante. J'avais essayé d'utiliser curl mais je ne sais pas si je télécharge la page complète ou juste un en-tête sur mon système pour obtenir le code d'état.
command-line
wget
curl
Jaffer Wilson
la source
la source
curl -v
(--verbose
) L'option est un moyen pratique de déboguer ce que curl envoie et reçoit réellement.Réponses:
curl -I
récupère uniquement les en-têtes HTTP; il ne télécharge pas la page entière. Deman curl
:Une autre option est d'installer
lynx
et d'utiliserlynx -head -dump
.La demande HEAD est spécifiée par le protocole HTTP 1.1 ( RFC 2616 ):
la source
Avec
wget
, vous devez utiliser l'--spider
option pour envoyer une demande HEAD comme curl:la source