标签: scala hadoop apache-spark
我从hive表中查询了几列,并希望将sql输出转换为rdd。我想使用该rdd将行(在RDD输出中)转换为键值对。我尝试调整this查询,如
阶>从my_hive_table中选择str_to_map(df.rdd.collect(),' \ n',',');
但我能做到。这可能吗。如果是,那怎么办?