执行以下sql查询时出现以下异常。
pyspark.sql.utils.AnalysisException:u'没有Hive udf类的处理程序org.apache.hadoop.hive.ql.udf.generic.GenericUDAFMax因为:预计只有一个参数
std::vector<FooBar> foobars_with_valid_foos;
std::copy_if(
foobars.begin()
, foobars.end()
, std::back_inserter(foobars_with_valid_foos)
, [](const auto& foobar){
return foobar.is_valid;
}
);
std::vector<Foo> valid_foos;
std::transform(
foobars_with_valid_foos.begin()
, foobars_with_valid_foos.end()
, std::back_inserter(valid_foos)
, [](const auto& foobar){
return foobar.foo;
}
);
return valid_foos;