当使用请求库请求Web资源,网站或Web服务时,请求将花费很长时间才能完成。该代码类似于以下内容:
import requests
requests.get("https://www.example.com/")
此请求需要2分钟(恰好是2分钟10秒)才能完成!为什么这么慢,我该如何解决?
答案 0 :(得分:9)
对于此问题,可以有多种解决方案。在StackOverflow上,有很多答案可以解决,因此,我将尝试将它们全部组合起来,以免您麻烦寻找它们。
在搜索中,我发现了以下几层:
对于许多问题,激活日志记录可以帮助您发现问题所在(source):
import requests
import logging
import http.client
http.client.HTTPConnection.debuglevel = 1
# You must initialize logging, otherwise you'll not see debug output.
logging.basicConfig()
logging.getLogger().setLevel(logging.DEBUG)
requests_log = logging.getLogger("requests.packages.urllib3")
requests_log.setLevel(logging.DEBUG)
requests_log.propagate = True
requests.get("https://www.example.com")
如果调试输出不能帮助您解决问题,请继续阅读。
不请求所有数据而是仅发送HEAD请求(source)可能会更快:
requests.head("https://www.example.com")
某些服务器不支持此功能,那么您可以尝试流式传输响应(source):
requests.get("https://www.example.com", stream=True)
如果您连续发送多个请求,则可以利用requests.Session
加快请求的速度。这样可以确保与服务器的连接保持打开和配置状态,并且还保留cookie,这是一个不错的好处。试试这个(source):
import requests
session = requests.Session()
for _ in range(10):
session.get("https://www.example.com")
如果您一次发送大量请求,则每个请求都会阻止执行。您可以利用requests-futures(来自kederrac的想法)来并行化此操作:
from concurrent.futures import as_completed
from requests_futures.sessions import FuturesSession
with FuturesSession() as session:
futures = [session.get("https://www.example.com") for _ in range(10)]
for future in as_completed(futures):
response = future.result()
请注意不要让太多请求同时使服务器不堪重负。
如果这也不能解决您的问题,请继续阅读...
在许多情况下,原因可能在于您所请求的服务器。首先,通过以相同的方式请求其他任何URL来验证这一点:
requests.get("https://www.google.com")
如果这很好,您可以将精力集中在以下可能的问题上:
服务器可能专门阻止了requests
,或者他们可能利用了白名单或其他原因。要发送更好的用户代理字符串,请尝试以下(source):
headers = {"User-Agent": "Mozilla/5.0 (X11; CrOS x86_64 12871.102.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.141 Safari/537.36"}
requests.get("https://www.example.com", headers=headers)
如果仅在某些情况下会出现此问题,例如几次请求后,服务器可能会限制您的速率。检查响应,看是否沿这些方向读取内容(即“达到速率限制”,“超出工作队列深度”或类似的内容; source)。
在这里,解决方案是在请求之间等待更长的时间,例如使用time.sleep()
。
您可以通过不阅读从服务器收到的响应来进行检查。如果代码仍然很慢,那么这不是您的问题,但是如果此问题得以解决,则问题可能出在解析响应上。
要解决这些问题,请尝试:
r = requests.get("https://www.example.com")
r.raw.chunked = True # Fix issue 1
r.encoding = 'utf-8' # Fix issue 2
print(response.text)
这可能是所有所有人中最糟糕的问题。一种简单但奇怪的检查方法是添加一个timeout
参数,如下所示:
requests.get("https://www.example.com/", timeout=5)
如果这返回了成功的响应,则问题应该出在IPv6上。原因是requests
首先尝试进行IPv6连接。如果超时,它将尝试通过IPv4连接。通过将超时设置为较低,可以强制其在较短的时间内切换到IPv4。
通过使用wget
或curl
进行验证:
wget --inet6-only https://www.example.com -O - > /dev/null
# or
curl --ipv6 -v https://www.example.com
在两种情况下,我们都强制该工具通过IPv6连接以隔离问题。如果超时,请再次尝试强制使用IPv4:
wget --inet4-only https://www.example.com -O - > /dev/null
# or
curl --ipv4 -v https://www.example.com
如果此方法正常,您已找到问题!但是,您问如何解决呢?
socket.AF_INET
。)AddressFamily inet
添加到您的SSH配置中。)