Как отправить HTTP-запрос HEAD в Python 2?

Здесь я пытаюсь получить заголовки данного URL, чтобы я мог определить тип MIME. Я хочу быть в состоянии увидеть, если http://somedomain/foo/ вернет HTML-документ или изображение JPEG, например. Таким образом, мне нужно выяснить, как отправить запрос HEAD, чтобы я мог читать MIME-тип без необходимости загружать контент. Кто-нибудь знает простой способ сделать это?

11 ответов

Решение

редактировать: этот ответ работает, но в настоящее время вы должны просто использовать библиотеку запросов, как указано в других ответах ниже.


Используйте httplib.

>>> import httplib
>>> conn = httplib.HTTPConnection("www.google.com")
>>> conn.request("HEAD", "/index.html")
>>> res = conn.getresponse()
>>> print res.status, res.reason
200 OK
>>> print res.getheaders()
[('content-length', '0'), ('expires', '-1'), ('server', 'gws'), ('cache-control', 'private, max-age=0'), ('date', 'Sat, 20 Sep 2008 06:43:36 GMT'), ('content-type', 'text/html; charset=ISO-8859-1')]

Там также есть getheader(name) чтобы получить конкретный заголовок.

urllib2 может использоваться для выполнения запроса HEAD. Это немного лучше, чем использование httplib, так как urllib2 анализирует URL-адрес для вас, вместо того, чтобы требовать, чтобы вы разбили URL-адрес на имя хоста и путь.

>>> import urllib2
>>> class HeadRequest(urllib2.Request):
...     def get_method(self):
...         return "HEAD"
... 
>>> response = urllib2.urlopen(HeadRequest("http://google.com/index.html"))

Заголовки доступны через response.info(), как и раньше. Интересно, что вы можете найти URL, на который вы были перенаправлены:

>>> print response.geturl()
http://www.google.com.au/index.html

Обязательное Requests путь:

import requests

resp = requests.head("http://www.google.com")
print resp.status_code, resp.text, resp.headers

Я считаю, что библиотека Requests также должна быть упомянута.

Просто:

import urllib2
request = urllib2.Request('http://localhost:8080')
request.get_method = lambda : 'HEAD'

response = urllib2.urlopen(request)
response.info().gettype()

Редактировать: я только что понял, что есть httplib2:D

import httplib2
h = httplib2.Http()
resp = h.request("http://www.google.com", 'HEAD')
assert resp[0]['status'] == 200
assert resp[0]['content-type'] == 'text/html'
...

текст ссылки

Для полноты, чтобы получить ответ Python3, эквивалентный принятому ответу, используя httplib.

Это в основном тот же код, только библиотека больше не называется httplib, а http.client

from http.client import HTTPConnection

conn = HTTPConnection('www.google.com')
conn.request('HEAD', '/index.html')
res = conn.getresponse()

print(res.status, res.reason)
import httplib
import urlparse

def unshorten_url(url):
    parsed = urlparse.urlparse(url)
    h = httplib.HTTPConnection(parsed.netloc)
    h.request('HEAD', parsed.path)
    response = h.getresponse()
    if response.status/100 == 3 and response.getheader('Location'):
        return response.getheader('Location')
    else:
        return url

Я обнаружил, что httplib немного быстрее, чем urllib2. Я рассчитал две программы - одну с использованием httplib, а другую с помощью urllib2 - отправку HEAD-запросов на 10000 URL-адресов. Httplib один был быстрее на несколько минут. Общая статистика httplib: реальный пользователь 6m21.334s 0m2.124s sys 0m16.372s

И общая статистика urllib2 была: реальная 9m1.380s пользователь 0m16.666s sys 0m28.565s

Кто-нибудь еще имеет вклад по этому вопросу?

Кроме того, при использовании httplib (по крайней мере, на 2.5.2) попытка прочитать ответ на запрос HEAD заблокирует (на readline) и впоследствии потерпит неудачу. Если вы не выполнили чтение в ответе, вы не можете отправить еще один запрос на соединение, вам нужно будет открыть новый. Или примите большую задержку между запросами.

И еще один подход (похожий на ответ Павла):

import urllib2
import types

request = urllib2.Request('http://localhost:8080')
request.get_method = types.MethodType(lambda self: 'HEAD', request, request.__class__)

Просто чтобы избежать неограниченных методов на уровне экземпляра.

Вероятно, проще: используйте urllib или urllib2.

>>> import urllib
>>> f = urllib.urlopen('http://google.com')
>>> f.info().gettype()
'text/html'

f.info () - словарь-подобный объект, поэтому вы можете сделать f.info()['content-type'] и т. д.

http://docs.python.org/library/urllib.html
http://docs.python.org/library/urllib2.html
http://docs.python.org/library/httplib.html

Документы отмечают, что httplib обычно не используется напрямую.

Другие вопросы по тегам