Spark数据集 - 在对数据集进行过滤时发生NullPointerException

时间:2017-10-03 23:42:34

标签: java scala apache-spark apache-spark-sql spark-dataframe

我有2个数据集,如下所示。我试图找出与每个游戏相关的产品数量。基本上,我正在努力计算相关产品的数量。

   scala> df1.show()
   gameid     | games     | users         | cnt_assoc_prod  
   -------------------------------------------
   1          | cricket   |[111, 121]     |
   2          | basketball|[211]          |
   3          | skating   |[101, 100, 98] |

   scala> df2.show()
   user  | products 
   ----------------------
   98    | "shampoo"   
   100   | "soap"          
   101   | "shampoo"
   111   | "shoes"
   121   | "honey"
   211   | "shoes"

我正在尝试从数组中遍历每个df1的用户,并通过在匹配用户的列上应用过滤器来查找df2中的相应行。

df1.map{x => {
   var assoc_products = new Set()
   x.users.foreach(y => assoc_products + df2.filter(z => z.user == y).first(). 
        products)
   x.cnt_assoc_prod = assoc_products.size
}

在应用过滤器时,我得到以下异常

java.lang.NullPointerException
    at org.apache.spark.sql.Dataset.logicalPlan(Dataset.scala:784)
    at org.apache.spark.sql.Dataset.mapPartitions(Dataset.scala:344)
    at org.apache.spark.sql.Dataset.filter(Dataset.scala:307)

我正在使用spark版本1.6.1。

1 个答案:

答案 0 :(得分:0)

您可以爆炸 users中的df1列,加入df2列上的user,然后执行groupBy计数:

(df1.withColumn("user", explode(col("users")))
    .join(df2, Seq("user"))
    .groupBy("gameid", "games")
    .agg(count($"products").alias("cnt_assoc_prod"))
).show

+------+----------+--------------+
|gameid|     games|cnt_assoc_prod|
+------+----------+--------------+
|     3|   skating|             3|
|     2|basketball|             1|
|     1|   cricket|             2|
+------+----------+--------------+