以Python

时间:2017-09-01 23:27:09

标签: python web-crawler python-requests

我正在尝试以递归方式从其根目录下载网站的所有目录和文件。我尝试为此编写代码,但我不确定我应该如何让Python创建适当的目录和文件。我理解如何使用requests向网站发出GET请求,但我不知道如何实际编写系统所需的文件。这是我的代码:

import os
import requests
import getpass

class Fetch:
    url=''

    def __init__(self, url):
        self.url = url
        user = getpass.getuser()
        os.chdir('/home' + user)

    def download():
        r = requests.get(url, stream=True)

0 个答案:

没有答案