早上好!
我已经使用python facebook库从Facebook Graph API中检索了很多数据。我想将所有有意义的数据整齐地组织在一个csv文件中以供以后分析,但是问题是我对python还是很陌生,我不知道如何处理检索数据的格式。基本上,我在名为data_basic
的列表中拥有有关自01-05-2020以来的页面帖子的所有数据:
列表的每个实例都代表一个帖子,并且是大小为8的字典。
每个字典都有:3个字典元素,3个字符串元素,1个布尔元素和1个列表元素。
例如,为了访问第一篇文章的media_type,我必须输入:data_basic[0]['attachments']['data'][0]['value']
,因为在代表第一篇文章的字典中,我有一个字典,其中包含附件,其附件的“数据”键包含一个列表。我有值(例如,再次是media_type)。一场噩梦...
每个包含帖子数据的字典实例都是不同的...附件是最嵌套的,但是注释或标签会发生类似的情况,而消息,创建时间等则更容易访问。
我想获得一个csv表,该表的行是各种帖子,列是变量(当然,注释除外,我将它们存储在不同的文件中,因为每个帖子有多个)。
我该如何解决这个问题?我想到的第一件事是蛮力方法,使用for循环通过所有帖子和所有变量,逐位填充数据框。但是,我希望有一种更快,更优雅的方法……我遇到了json_normalize
函数,做了一些尝试,但是我真的不明白它是如何工作的,是否有任何帮助...有什么想法吗?
谢谢!
编辑:几个屏幕截图,以便更好地理解