我有一个凌乱的嵌套字典,我想将其转换为熊猫数据框。数据存储在包含在更广泛的词典中的列表的词典中,其中每个键/值细分如下:
{userID_key: {postID_key: [list of hash tags]}}
这是数据看起来更具体的示例:
{'user_1': {'postID_1': ['#fitfam',
'#gym',
'#bro'],
'postID_2': ['#swol',
'#anotherhashtag']},
'user_2': {'postID_78': ['#ripped',
'#bro',
'#morehashtags'],
'postID_1': ['#buff',
'#othertags']},
'user_3': ...and so on }
我想创建一个数据框,为我提供每个(userID,postID)对的每个主题标签的频率计数,如下所示:
+------------+------------+--------+-----+-----+------+-----+
| UserID_key | PostID_key | fitfam | gym | bro | swol | ... |
+------------+------------+--------+-----+-----+------+-----+
| user_1 | postID_1 | 1 | 1 | 1 | 0 | ... |
| user_1 | postID_2 | 0 | 0 | 0 | 1 | ... |
| user_2 | postID_78 | 0 | 0 | 1 | 0 | ... |
| user_2 | postID_1 | 0 | 0 | 0 | 0 | ... |
| user_3 | ... | ... | ... | ... | ... | ... |
+------------+------------+--------+-----+-----+------+-----+
我有一个scikit-learn的CountVectorizer
想法,但是它不能处理嵌套的字典。感谢您将其转换为所需形式的任何帮助。
答案 0 :(得分:1)
以my answer to another question为基础,您可以使用pd.concat
构建和连接子帧,然后使用stack
和get_dummies
:
(pd.concat({k: pd.DataFrame.from_dict(v, orient='index') for k, v in dct.items()})
.stack()
.str.get_dummies()
.sum(level=[0, 1]))
#anotherhashtag #bro #buff #fitfam #gym #morehashtags #othertags #ripped #swol
user_1 postID_1 0 1 0 1 1 0 0 0 0
postID_2 1 0 0 0 0 0 0 0 1
user_2 postID_78 0 1 0 0 0 1 0 1 0
postID_1 0 0 1 0 0 0 1 0 0