循环urllib以从网络下载csv数据

时间:2019-01-24 02:28:02

标签: python urllib2

我正在尝试使用for循环从2013年到2009年在此网址下载所有数据。

网络地址:

http://data.wa.aemo.com.au/datafiles/balancing-summary/balancing-summary-2013.csv
.
.
.
http://data.wa.aemo.com.au/datafiles/balancing-summary/balancing-summary-2019.csv

我的代码是这样的:

year = 2006
max_year = 2019
host = "http://data.wa.aemo.com.au/datafiles/balancing-summary/balancing-summary-"
ending = ".csv"

while year < max_year:
    url = host + str(year)
    print(url)
    urllib.urlretrieve(url, url.lstrip(host))
    print("Done" + url)

但是它没有下载数据,但是脚本运行时我没有收到错误消息?

谢谢您的任何帮助。

1 个答案:

答案 0 :(得分:1)

您忘记在while循环中增加年份。您还忘记了url变量中的“结尾”。这似乎对我有用。

year = 2006
max_year = 2019
host = "http://data.wa.aemo.com.au/datafiles/balancing-summary/balancing-summary-"
ending = ".csv"

while year < max_year:
    url = host + str(year)+ending
    print(url)
    urllib.urlretrieve(url,url.lstrip(host))
    print("Done" + url)
    year +=1