如何使用spark.sql删除无效的行/记录?

时间:2019-05-12 08:12:52

标签: apache-spark

select features ('age', 'job', 'marital', 'education', 'default', 'balance', 'housing', 'loan', 'campaign', 'pdays', 'previous', 'poutcome', 'deposit') as df2
    sdf.select('age','job', 'marital', 'education', 'default', 'balance', 
    'housing', 'loan', 'campaign', 'pdays', 'previous', 'poutcome', ' 
    deposit').show()

我知道如何选择功能,但是由于我是pyspark的新手,所以我不了解 通过使用spark.sql删除无效的行

使用spark.sql删除无效的行/记录

0 个答案:

没有答案