我需要重复读取(并处理)一个html并保存为csv超过500次。你能帮我写一个循环吗?例如,
url <- "https://www.sec.gov/Archives/edgar/data/944508/000104746914007395/a2221329z424b7.htm"
write.csv(sent, "1.csv")
然后,阅读另一个URL并保存为“2.csv”等。
提前致谢!
答案 0 :(得分:0)
首先尝试将所有网址存储在向量中。在那之后,试试这个。
csv_names <- NULL
for(i in 1:500) csv_names[i] <- paste(as.character(i),".csv",sep="")
for(i in 1:500){
write.csv(URL[i],file=csv_names[i])
}
答案 1 :(得分:0)
第一步创建一个网址矢量:
url_vec<-c("url1","url2")
然后自动获得csv名称的向量:
csv_vec<-paste0(rep(1:length(url_vec)),".csv")
for(n in 1:length(url_vec)){
[...start...]
(process to create csv)
[...end...]
write.csv(sent, csv_vec[n])
}