选择spark sql中除特定列以外的所有列

时间:2017-04-26 21:01:25

标签: apache-spark-sql hiveql pyspark-sql spark-hive

我想选择除StudentAddress之外的表中的所有列,因此我编写了以下查询:

select `(StudentAddress)?+.+` from student;

它在Squirrel Sql客户端中出现以下错误。 org.apache.spark.sql.AnalysisException:无法解析给定输入列的“(StudentAddress)?+.+

1 个答案:

答案 0 :(得分:4)

您可以在DataFrame API中使用drop()方法删除特定列,然后选择所有列。

例如:

val df = hiveContext.read.table("student")
val dfWithoutStudentAddress = df.drop("StudentAddress").select("*")