使用str_to_map()将SparkSQL输出转换为(K,V)对

时间:2016-08-03 07:53:25

标签: scala hadoop apache-spark

我从hive表中查询了几列,并希望将sql输出转换为rdd。我想使用该rdd将行(在RDD输出中)转换为键值对。我尝试调整this查询,如

阶>从my_hive_table中选择str_to_map(df.rdd.collect(),' \ n',',');

但我能做到。这可能吗。如果是,那怎么办?

0 个答案:

没有答案