如何计算Spark Dataframe中的列数?

时间:2018-07-27 08:08:18

标签: scala apache-spark dataframe apache-spark-sql

我在Spark中有此数据框,我想计算其中的可用列数。我知道如何计算列中的行数,但我想计算列数。

val df1 = Seq(
    ("spark", "scala",  "2015-10-14", 10,"rahul"),
    ("spark", "scala", "2015-10-15", 11,"abhishek"),
    ("spark", "scala", "2015-10-16", 12,"Jay"),
    ("spark","scala",null,13,"Kiran"))
  .toDF("bu_name","client_name","date","patient_id","paitent _name")
df1.show

有人可以告诉我如何计算此数据框中的列数吗?我正在使用Scala语言。

6 个答案:

答案 0 :(得分:11)

要计算列数,只需执行以下操作:

df1.columns.size

答案 1 :(得分:1)

在python中,以下代码对我有用:

print(len(df.columns))

答案 2 :(得分:0)

可变索引序列的长度也起作用。

df.columns.length

答案 3 :(得分:0)

要计算Spark dataFrame的列:

len(df1.columns)

并计算dataFrame的行数:

df1.count()

答案 4 :(得分:0)

data.columns访问列标题列表。您要做的就是计算列表中的项目数。

len(df1.columns)

作品 要获得单个变量中的全部数据,我们要做

rows = df.count()
columns = len(df.columns)
size = (rows, columns)
print(size)

答案 5 :(得分:0)

在Pyspark中,您只能result.select("your column").count()