标签: apache-spark pyspark graphframes
我知道Spark不允许您使用在map或其任何变体中生成RDD的函数。有没有解决这个问题?例如,我可以对分区中的所有RDD执行标准循环迭代。 (例如,有一种方法可以将RDD转换为每个节点上的列表,以便每个节点都包含它所携带的条目列表吗?)
map
我试图在graphframes中使用pyspark进行一些图表工作,但目前无法按照我的意愿行事。
graphframes
pyspark