我在R中运行以下查询以从流API获取24小时的推文(OAuth详细信息位于我正在调用的单独文件中):
library(streamR)
library(RCurl)
library(RJSONIO)
library(stringr)
load("my_oauth.Rdata")
filterStream(file.name = "tweets.json", track = c("@Sydney_Uni", "usyd", "syd uni", "sydney uni", "university of sydney" ), language = "en", timeout = 86400, oauth = my_oauth)
tweets.df <- parseTweets("tweets.json", simplify = FALSE)
这导致以下
与Twitter流的连接在86400秒后关闭,最多下载了1993条推文。
但是,我只能将一些推文解析为我的数据帧
已解析了145条推文。
为什么所有已下载的推文都不会被解析为数据帧?
答案 0 :(得分:1)
您应该阅读ParseTweets()
的文档。
在R控制台中执行以下操作:
?ParseTweets()
您可以在帮助部分找到以下信息:
解析的推文总数可能低于 包含推文的文件或对象中的行数,因为 空行,删除通知和不完整的推文将被忽略。
希望这有帮助!