为什么Python中的UrlOpener需要很长时间才能返回

时间:2016-02-12 16:20:36

标签: python python-3.x urllib

所以我最近一直在研究一个程序来检查网站上用户名的可用性我已经完成了核心程序,但是当它搜索每个名字时,它需要将近2秒的名字。关于如何提高效率的任何想法?

    def urlTest(name):

        opener = URLopener() #Open the URL Connection
        opener.addheaders = [('User-agent', 'Mozilla/5.0')]
        page = opener.open("https://exampleusernamechecker.com/s?"+str(name)) #Open the page
        soup = BeautifulSoup(page)

        ABC=soup.find_all("div",class_="alert-link")

        if "Available" in str(ABC):
            print( "Success")
            file = open("Freenames.txt","at")
            file.write(""+str(name)+"\n")
            file.close()

        else:
            print("Failure",ABC)
        opener.close()

1 个答案:

答案 0 :(得分:0)

如果为每个名称创建一个新连接,则需要2秒的延迟。

如果您想加快速度,请创建并重复使用单个连接。

如果您想加快速度,一次阅读多个页面,您无法对延迟/延迟做任何事情,但您可以提高吞吐量/使用更多带宽。