Spark AttributeError:'DataFrame'对象没有属性'weekofyear'

时间:2017-01-04 16:06:41

标签: python apache-spark dataframe pyspark

我需要获得一年中的周数

      from pyspark.sql.functions import weekofyear
      dt =sqlContext.createDataFrame([('2015-04-08',)], ['a'])
      dt = dt.weekofyear(dt.a).alias('week')
      dt.show()

但是我收到了这个错误:AttributeError:'DataFrame'对象没有属性'weekofyear'

有什么想法吗? 感谢

2 个答案:

答案 0 :(得分:1)

以下工作正常。

 from pyspark.sql.functions import weekofyear
 dt =sqlContext.createDataFrame([('2015-04-08',)], ['a'])
 dt = dt.select('*',weekofyear(dt.a).alias('week'))
 dt.show()

答案 1 :(得分:0)

我想它应该是:

weekofyear(dt.a).alias('week')

而不是:

dt.weekofyear(dt.a).alias('week')

因为weekofyear()是SQL函数 - 它不是DataFrame方法......