如何删除R中重复的推文?

时间:2013-06-04 08:32:16

标签: r using

我正在对推文进行文本挖掘 我有重复推文的问题,如:

“aeCERT:aeCERT为选民,执法部门,学术界和公众提供持续的信息安全意识计划。”

“Salim_aeCERT:aeCERT为三方成员,执法部门,学术界和公众提供持续的信息安全意识计划。”

我为两个不同的帐户收到了相同的推文,我如何从我的数据集中删除一个?我试过这段代码,但重复的推文仍然出现:

tweets1.df <- do.call("rbind", lapply(tweets, as.data.frame))
tweets2.df <- tweets1.df[duplicated(tweets1.df ) == FALSE,] 
dim(tweets2.df)

如何从不同的帐户中删除重复的推文?

2 个答案:

答案 0 :(得分:4)

从推文中提取文本,然后使用duplicated删除实际的重复项。

tweets = searchTwitter('aeCERT: aeCERT' , n=100, cainfo = "cacert.pem")
texts <- sapply( unlist( tweets ) , function(x) `$`( x , "text" ) )
length(texts)
#[1] 100
texts[87:91]
#[1] "You should always update your Operating System  to reduce and eliminate vulnerabilities  http://t.co/l0sdv0k304"                            
#[2] "We are today at Dubai Electricity and Water Authority (DEWA) in Dubai conducting information security awareness workshop by Eng. Khalifa..."
#[3] "We are today at Dubai Electricity and Water Authority (DEWA) in Dubai conducting information security awareness workshop by Eng. Khalifa..."
#[4] "صباح الخير لجميع المغردين ..متواجدين اليوم في هيئة كهرباء ومياه دبي  لعقد ورش التوعية الأمنية الالكترونية يقدمها المهندس خليفة الشامسي"     
#[5] "صباح الخير لجميع المغردين ..متواجدين اليوم في هيئة كهرباء ومياه دبي  لعقد ورش التوعية الأمنية الالكترونية يقدمها المهندس خليفة الشامسي"

unq.texts <- texts[ ! duplicated( texts ) ]
length(unq.texts)
#[1] 82
unq.texts[71:74]
#[1] "You should always update your Operating System  to reduce and eliminate vulnerabilities  http://t.co/l0sdv0k304"                             
#[2] "We are today at Dubai Electricity and Water Authority (DEWA) in Dubai conducting information security awareness workshop by Eng. Khalifa..." 
#[3] "صباح الخير لجميع المغردين ..متواجدين اليوم في هيئة كهرباء ومياه دبي  لعقد ورش التوعية الأمنية الالكترونية يقدمها المهندس خليفة الشامسي"      
#[4] "RT @Salim_aeCERT: لا تستجب للمكالمات الهاتفية التي تخبرك بأنك ربحت جوائز قيمة ومبالغ مالية، فقد تكون ضحية للاحتيال #aecert http://t.co/HTK5…"

请注意,即使推文文本中的一个字符更改也意味着推文不会被检测为重复(例如,在有人转发并通过不同的链接缩短程序添加链接的情况下相关)。

您也可以执行类似

的操作
sapply( unlist( tweets ) , function(x) length(`$`( x , "replyToUID" ) ) > 0 )

获取回复某人推文的所有推文的逻辑向量,或

sapply( unlist( tweets ) , function(x) length(`$`( x , "retweeted" ) ) > 0 )

获取推文的推文的逻辑向量(但我不确定这是否可靠,因为我的样本中没有推文转推)。其他适用的名称和方法可以使用(例如):

找到
str(tweets[[1]])
Reference class 'status' [package "twitteR"] with 14 fields
 $ text        : chr "<U+062A><U+0639><U+0644><U+0645> <U+0627><U+0644><U+0645><U+0632><U+064A><U+062F> <U+0639><U+0646>  <U+062A><U+062D><U+062F><U+"| __truncated__
 $ favorited   : logi FALSE
 $ replyToSN   : chr(0) 
 $ created     : POSIXct[1:1], format: "2013-06-04 08:02:24"
 $ truncated   : logi FALSE
 $ replyToSID  : chr(0) 
 $ id          : chr "341827259352641536"
 $ replyToUID  : chr(0) 
 $ statusSource: chr "<a href=\"http://www.hootsuite.com\" rel=\"nofollow\">HootSuite</a>"
 $ screenName  : chr "Salim_aeCERT"
 $ retweetCount: num 1
 $ retweeted   : logi FALSE
 $ longitude   : chr(0) 
 $ latitude    : chr(0) 

答案 1 :(得分:0)

也许尝试类似的事情:

tweets2.df <- unique(sapply(tweets1.df$tweets, FUN = function(tmp)
    sub(regmatches(tmp,regexpr("^[[:alnum:]*|[:punct:]*]*[:] ",tmp))[[1]],"",tmp)
))

编辑(没有不必要的sapply):

unique(gsub(regmatches(tweets,regexpr("^[[:alnum:]*|[:punct:]*]*[:] ",tweets))[[1]],"",tweets))