将Scala映射转换为Python for Spark

时间:2016-02-23 22:40:51

标签: python scala apache-spark pyspark random-forest

作为随机森林的例子:

这是一些背景

val forest = RandomForest.trainClassifier(
  trainData, 7, Map(10 -> 4, 11 -> 40), 20,
  "auto", "entropy", 30, 300)
  1. 我不确定地图(10 - > 4,11 - > 40)是什么意思?
  2. 什么是python或pyspark相当于此?

1 个答案:

答案 0 :(得分:0)

这基本上相当于Python字典

所以

Map(10 -> 4, 11 -> 40)

成为

categoricalFeaturesInfo={10: 4, 11: 40}