标签: java scala apache-spark apache-spark-mllib
我想使用spark的MLlib函数对数据进行聚类。问题是,在我的数据集中,有时我会将NULL作为特征值。
我不能写0.0代替它,因为它错了。所以我尝试使用Double.NaN作为值。这不起作用,集群失败了:
java.lang.IllegalArgumentException: requirement failed
处理此问题的常用方法是什么?