昨天我写了一个简单的Python程序(非常简单,如下所示)来验证大约5000个URL的HTTP状态响应。问题是该程序似乎每隔400到500个URL就会卡住。由于我是编程新手,我不知道如何跟踪问题。
我添加了“a = a + 1”部分来跟踪卡住的网址数量。
我怎样才能找到问题所在?非常感谢你!
我正在使用Ubuntu 11.10和Python 2.7
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import httplib
raw_url_list = open ('url.txt', 'r')
url_list = raw_url_list.readlines()
result_file = open('result.txt', 'w')
a = 0
for url in url_list:
url = url.strip()[23:]
conn = httplib.HTTPConnection('www.123456789.cn')
conn.request('HEAD', url)
res = conn.getresponse()
result_file.write('http://www.123456789.cn%s, %s, %s \n' % (url, res.status, res.reason))
a = a + 1
print a
raw_url_list.close()
result_file.close()
答案 0 :(得分:3)
完成后需要关闭连接。只需将其添加到for循环的末尾即可。
conn.close()