反复阅读html并保存为csv

时间:2017-05-24 13:27:05

标签: r loops

我需要重复读取(并处理)一个html并保存为csv超过500次。你能帮我写一个循环吗?例如,

url <- "https://www.sec.gov/Archives/edgar/data/944508/000104746914007395/a2221329z424b7.htm"
write.csv(sent, "1.csv")

然后,阅读另一个URL并保存为“2.csv”等。

提前致谢!

2 个答案:

答案 0 :(得分:0)

首先尝试将所有网址存储在向量中。在那之后,试试这个。

csv_names <- NULL
for(i in 1:500) csv_names[i] <- paste(as.character(i),".csv",sep="")

for(i in 1:500){
  write.csv(URL[i],file=csv_names[i])
}

答案 1 :(得分:0)

第一步创建一个网址矢量:

url_vec<-c("url1","url2")

然后自动获得csv名称的向量:

csv_vec<-paste0(rep(1:length(url_vec)),".csv")

for(n in 1:length(url_vec)){

        [...start...] 
    (process to create csv)
         [...end...]

   write.csv(sent, csv_vec[n])
}