列表的嵌套字典到Pandas DataFrame

时间:2019-02-04 02:02:00

标签: python pandas dictionary countvectorizer

我有一个凌乱的嵌套字典,我想将其转换为熊猫数据框。数据存储在包含在更广泛的词典中的列表的词典中,其中每个键/值细分如下: {userID_key: {postID_key: [list of hash tags]}}

这是数据看起来更具体的示例:

   {'user_1': {'postID_1':  ['#fitfam',
                             '#gym',
                             '#bro'],
               'postID_2':  ['#swol',
                             '#anotherhashtag']},
    'user_2': {'postID_78': ['#ripped',
                             '#bro',
                             '#morehashtags'],
               'postID_1':  ['#buff',
                             '#othertags']},
    'user_3': ...and so on }

我想创建一个数据框,为我提供每个(userID,postID)对的每个主题标签的频率计数,如下所示:

+------------+------------+--------+-----+-----+------+-----+
| UserID_key | PostID_key | fitfam | gym | bro | swol | ... |
+------------+------------+--------+-----+-----+------+-----+
| user_1     | postID_1   | 1      | 1   | 1   | 0    | ... |
| user_1     | postID_2   | 0      | 0   | 0   | 1    | ... |
| user_2     | postID_78  | 0      | 0   | 1   | 0    | ... |
| user_2     | postID_1   | 0      | 0   | 0   | 0    | ... |
| user_3     | ...        | ...    | ... | ... | ...  | ... |
+------------+------------+--------+-----+-----+------+-----+

我有一个scikit-learn的CountVectorizer想法,但是它不能处理嵌套的字典。感谢您将其转换为所需形式的任何帮助。

1 个答案:

答案 0 :(得分:1)

my answer to another question为基础,您可以使用pd.concat构建和连接子帧,然后使用stackget_dummies

(pd.concat({k: pd.DataFrame.from_dict(v, orient='index') for k, v in dct.items()})
   .stack()
   .str.get_dummies()
   .sum(level=[0, 1]))

                  #anotherhashtag  #bro  #buff  #fitfam  #gym  #morehashtags  #othertags  #ripped  #swol
user_1 postID_1                 0     1      0        1     1              0           0        0      0
       postID_2                 1     0      0        0     0              0           0        0      1
user_2 postID_78                0     1      0        0     0              1           0        1      0
       postID_1                 0     0      1        0     0              0           1        0      0