用于Python中分组数据的JSON的数据帧

时间:2018-03-08 10:08:08

标签: python dictionary

我的数据框看起来有点像这样:

my_df = pd.DataFrame({'business_id':[1,1,1,2,2,2,3,3,3],
              'year':[2010,2011,2012,2010,2011,2012,2010,2011,2012],
             'number_staff':[3,4,5,4,3,5,6,5,8],
             'ave_turnover_in_k':[10,12,13,13,10,17,16,15,17]})

我希望它看起来像这样:

{  
   "1":{  
      "number_staff":{  
         "2010":3,
         "2011":4,
         "2012":5
      },
      "ave_turnover_in_k":{  
         "2010":10,
         "2011":12,
         "2012":13
      }
   },
   "2":{  
      "number_staff":{  
         "2010":4,
         "2011":3,
         "2012":5
      },
      "ave_turnover_in_k":{  
         "2010":13,
         "2011":10,
         "2012":17
      }
   },
   "3":{  
      "number_staff":{  
         "2010":6,
         "2011":5,
         "2012":8
      },
      "ave_turnover_in_k":{  
         "2010":16,
         "2011":15,
         "2012":17
      }
   }
}

我有我的商家名单:

business = list(set(list(my_df.iloc[:,1])))
business

我为一家公司提供了一些员工,例如为一家公司创建字典:

no_staff = my_df.loc[my_df['business_id'] == 1].iloc[:,[3,2]]
no_staff
no_staff_dict = {list(no_staff.columns.values)[1]:no_staff.set_index('year').T.to_dict('records')[0]}
no_staff_dict

但我无法弄清楚如何迭代所有业务,然后将这些数据添加到业务列表中,以便业务ID仍然是关键,变量是值。

1 个答案:

答案 0 :(得分:0)

这是一个简单的解决方案:

def dt_to_json(df):
  d = {}
  for i,j in zip(df['business_id'], range(len(df['year']))):
    if str(i) not in d:           
        d[str(i)] = {
            "number_staff": { str(df['year'][j]): df['number_staff'][j] },
            "ave_turnover_in_k": { str(df['year'][j]): df['ave_turnover_in_k'][j] }
        }
    else:
        d[str(i)]['number_staff'][str(df['year'][j])] = df['number_staff'][j]
        d[str(i)]['ave_turnover_in_k'][str(df['year'][j])] = df['ave_turnover_in_k'][j]
  return d

如果您将DataFrame传递给此功能,您将获得JSON个对象,但您的string将用单引号括起来。因此,在通过此运行dt_to_json(df)的输出之后:

str(dt_to_json(df)).replace("'", "\"")

您将获得有效的JSON。我已经使用您的DataFrame尝试了此操作,并粘贴了输出here以检查结果,并且确实有效。

注意

可能有更优雅的解决方案,内置函数如to_json(),但我对pandas不太熟悉。