我想为我的情绪分析项目提取主题标签,但是我得到的是包含所有主题标签的字典列表以及它们在推文中的索引。我只想要文本。
data = tweepy.Cursor(api.search, q, since=a[i], until=b[i]).items()
tweet_data = []
tweets = pd.DataFrame()
tweets['Tweet_ID'] = map(lambda tweet: tweet['id'], tweet_data)
tweets['Tweet'] = map(lambda tweet: tweet['text'].encode('utf-8'), tweet_data)
tweets['Date'] = map(lambda tweet: time.strftime('%Y-%m-%d %H:%M:%S', time.strptime(tweet['created_at'],'%a %b %d %H:%M:%S +0000 %Y')), tweet_data)
tweets['User'] = map(lambda tweet: tweet['user']['screen_name'], tweet_data)
tweets['Follower_count'] = map(lambda tweet: tweet['user']['followers_count'], tweet_data)
tweets['Hashtags']=map(lambda tweet: tweet['entities']['hashtags'], tweet_data)
df=pd.DataFrame({'Hashtags' : [{u'indices': [53, 65], u'text': u'Predictions'}, {u'indices': [67, 76], u'text': u'FreeTips'}, {u'indices': [78, 89], u'text': u'SoccerTips'}, {u'indices': [90, 103], u'text': u'FootballTips'}, {u'indices': [104, 110], u'text': u'Goals'}]})
df=pd.DataFrame({'Hashtags' :["u'Predictions'", "u'SoccerTips'", "u'FootballTips'", "u'Goals'"]})
我尝试使用多种方法来展平/缩小/访问包含字典列表的嵌套字典。请帮忙。
dt=tweet.entities.hashtags
pd.io.json.json_normalize(dt, 'hashtags')
pd.io.json.json_normalize(dt, 'hashtags')['text'].tolist()
Traceback (most recent call last): <\br>
File "<ipython-input-166-be11241611d6>", line 1, in <module>
dt=tweet.entities.hashtags
AttributeError: 'dict' object has no attribute 'entities'
我也试过这样做: -
dx = tweets['Hashtags']
for key, value in dx.items():
print key, value
出现以下错误: -
Traceback (most recent call last):
File "<ipython-input-167-d66c278ec072>", line 2, in <module>
for key, value in dx.items():
File "C:\ANACONDA\lib\site-packages\pandas\core\generic.py", line 2740, in __getattr__
return object.__getattribute__(self, name)
AttributeError: 'Series' object has no attribute 'items'
我可以访问嵌套的hashtags字典的文本部分
tweets['Hashtags'][1][1]['text']
Out[209]: u'INDvPAK'
我想创建一个循环来附加行中的所有主题标签。
答案 0 :(得分:0)
您可以使用json_normalize
函数:
DataFrame
构造函数
>>> import pandas as pd
>>> d = {'Hashtags' :
... [{u'indices': [53, 65], u'text': u'Predictions'},
... {u'indices': [67, 76], u'text': u'FreeTips'},
... {u'indices': [78, 89], u'text': u'SoccerTips'},
... {u'indices': [90, 103], u'text': u'FootballTips'},
... {u'indices': [104, 110], u'text': u'Goals'}]}
>>> pd.io.json.json_normalize(d, 'Hashtags')
indices text
0 [53, 65] Predictions
1 [67, 76] FreeTips
2 [78, 89] SoccerTips
3 [90, 103] FootballTips
4 [104, 110] Goals
然后您可以使用'text'
列:
>>> pd.io.json.json_normalize(d, 'Hashtags')['text'].tolist()
[u'Predictions', u'FreeTips', u'SoccerTips', u'FootballTips', u'Goals']
答案 1 :(得分:0)
经过多次故障排除和尝试各种方法后,我终于想出了如何拆分嵌套字典。 这是一个相当简单的循环。我注意到我们可以通过
访问#标签文本tweets['Hashtags'][1][1]['text']
Out[209]: u'INDvPAK'
这是一个有价值的见解,因为我知道我不需要提及u'text
作为我的索引。将使用text
。
ht=[]
for s in range(len(tweets['Hashtags'])):
hasht=[]
for t in range(len(tweets.Hashtags[s])):
#zx = tweets['Hashtags'][s][t]['text']
hasht.append(tweets['Hashtags'][s][t]['text'])
t=t+1
ht.append(hasht)
s=s+1
tweets['HT']=zip(ht)
这是一个简单的嵌套for循环,首先遍历{ "Indices" : [], "u'text'" : []}
中的内部键值,然后遍历["entities" : { "Hashtags" : [{1},{2},{3}]}]
下的词典列表
最后,我使用zip()
压缩单行/用户的主题标签列表。
([u'SoccerTips', u'FootballTips'],)
这很容易分开。