如何在spark sql中将两个agruments传递给MAX函数

时间:2018-06-18 17:39:42

标签: apache-spark pyspark apache-spark-sql

执行以下sql查询时出现以下异常。

pyspark.sql.utils.AnalysisException:u'没有Hive udf类的处理程序org.apache.hadoop.hive.ql.udf.generic.GenericUDAFMax因为:预计只有一个参数

std::vector<FooBar> foobars_with_valid_foos;
std::copy_if(
    foobars.begin()
,   foobars.end()
,   std::back_inserter(foobars_with_valid_foos)
,   [](const auto& foobar){
        return foobar.is_valid;
    }
);
std::vector<Foo> valid_foos;
std::transform(
    foobars_with_valid_foos.begin()
,   foobars_with_valid_foos.end()
,   std::back_inserter(valid_foos)
,   [](const auto& foobar){
        return foobar.foo;
    }
);
return valid_foos;

0 个答案:

没有答案