Python内置函数与Spark冲突

时间:2018-12-09 21:32:25

标签: apache-spark conflict built-in

我正在使用Databricks,并且尝试编写python函数,然后将其转换为udf。在我的python函数的输出中,我试图将结果四舍五入到小数点后8位,并且它昨天有效。

但是,当我今天重新运行代码时,出现如下错误。看来Databrick笔记本电脑将python内置的“舍入”功能识别为RDD方法了吗?并要求输入列或字符串。

enter image description here

当我将其更改为字符串输入时,它返回一个Column ...但是我只是想要一个数字。

enter image description here

有没有一种方法可以告诉引擎使用python内置函数呢?我尝试“从集合中将回合作为py_round导入”,但是它不起作用。

非常感谢!

0 个答案:

没有答案