我在Spark中有此数据框,我想计算其中的可用列数。我知道如何计算列中的行数,但我想计算列数。
val df1 = Seq(
("spark", "scala", "2015-10-14", 10,"rahul"),
("spark", "scala", "2015-10-15", 11,"abhishek"),
("spark", "scala", "2015-10-16", 12,"Jay"),
("spark","scala",null,13,"Kiran"))
.toDF("bu_name","client_name","date","patient_id","paitent _name")
df1.show
有人可以告诉我如何计算此数据框中的列数吗?我正在使用Scala语言。
答案 0 :(得分:11)
要计算列数,只需执行以下操作:
df1.columns.size
答案 1 :(得分:1)
在python中,以下代码对我有用:
print(len(df.columns))
答案 2 :(得分:0)
可变索引序列的长度也起作用。
df.columns.length
答案 3 :(得分:0)
要计算Spark dataFrame的列:
len(df1.columns)
并计算dataFrame的行数:
df1.count()
答案 4 :(得分:0)
data.columns访问列标题列表。您要做的就是计算列表中的项目数。
len(df1.columns)
作品 要获得单个变量中的全部数据,我们要做
rows = df.count()
columns = len(df.columns)
size = (rows, columns)
print(size)
答案 5 :(得分:0)
在Pyspark中,您只能result.select("your column").count()