我有以下功能从网站使用RSelinium和phantomjs获取一些网址。
get_url <- function(url){
rdr$navigate(url)
li <- rdr$findElements(using = 'xpath', "//div[@data-id]")
str <- sapply(li, function(x){x$getElementAttribute('outerHTML')})
if(length(str)>1){
tree <- htmlParse(str)
url <- getNodeSet(tree, '//div//a[@class="link url"]')
url <- sapply(url, xmlGetAttr, 'href')
}
}
url
存储在30 x 60矩阵中。
我尝试使用以下嵌套循环执行此操作。
for(i in 1:ncol(offset_url)){
for(j in 1:nrow(offset_url)){
url_list <- rbind(url_list,get_url(offset_url[j,i]))
}
}
然而,执行需要花费很多时间。
有没有办法可以使用应用函数来缩短时间?
答案 0 :(得分:1)
这有用吗?
do.call(rbind,list(mapply(function(x,y) get_url(offset_url[x,y]),x=row(offset_url),y=col(offset_url))))