我试图在我的HashMap中创建一个通用值类型,如下所示:
val aMap = ArrayBuffer[HashMap[String, Any]]()
aMap += HashMap()
aMap(0)("aKey") = "aStringVal"
aMap(0)("aKey2") = true // a bool value
aMap(0)("aKey3") = 23 // an int value
这适用于我的spark-shell但它在我的IntelliJ项目中的scala.Any上给了我这个ClassNotFoundException:
org.apache.spark.streaming.scheduler.JobScheduler logError - Error running job streaming job 1521859195000 ms.0
java.lang.ClassNotFoundException: scala.Any
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
我使用的是Scala 2.11。可能导致这种情况的任何想法?
答案 0 :(得分:1)
这对我来说最终是用DataFrame
用混合数据创建一个.toDF
我有:
val baseDataFrame = Seq(
("value1", "one"),
("value2", 2),
("value3", 3)
).toDF("column1", "column2")
此更改解决了该问题:
val baseDataFrame = Seq(
("value1", "one"),
("value2", "2"),
("value3", "3")
).toDF("column1", "column2")