我来自pandas背景,用于将CSV文件中的数据读入数据帧,然后使用简单命令将列名更改为有用的内容:
df.columns = new_column_name_list
但是,在使用sqlContext创建的pyspark数据帧中同样不起作用。 我可以轻松解决的唯一解决方案如下:
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)
这基本上是定义变量两次并首先推断模式然后重命名列名,然后再次使用更新的模式加载数据帧。
有没有更好更有效的方法来像我们在熊猫中那样做?
我的火花版本是1.5.0
答案 0 :(得分:229)
有很多方法可以做到这一点:
选项1.使用selectExpr。
data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)],
["Name", "askdaosdka"])
data.show()
data.printSchema()
# Output
#+-------+----------+
#| Name|askdaosdka|
#+-------+----------+
#|Alberto| 2|
#| Dakota| 2|
#+-------+----------+
#root
# |-- Name: string (nullable = true)
# |-- askdaosdka: long (nullable = true)
df = data.selectExpr("Name as name", "askdaosdka as age")
df.show()
df.printSchema()
# Output
#+-------+---+
#| name|age|
#+-------+---+
#|Alberto| 2|
#| Dakota| 2|
#+-------+---+
#root
# |-- name: string (nullable = true)
# |-- age: long (nullable = true)
选项2.使用withColumnRenamed,请注意此方法允许您“覆盖”同一列。
oldColumns = data.schema.names
newColumns = ["name", "age"]
df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
df.printSchema()
df.show()
选项3.使用 alias,在Scala中,您还可以使用as。
from pyspark.sql.functions import col
data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
data.show()
# Output
#+-------+---+
#| name|age|
#+-------+---+
#|Alberto| 2|
#| Dakota| 2|
#+-------+---+
选项4.使用sqlContext.sql,它允许您在注册为表的DataFrames
上使用SQL查询。
sqlContext.registerDataFrameAsTable(data, "myTable")
df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
df2.show()
# Output
#+-------+---+
#| name|age|
#+-------+---+
#|Alberto| 2|
#| Dakota| 2|
#+-------+---+
答案 1 :(得分:109)
df = df.withColumnRenamed("colName", "newColName")
.withColumnRenamed("colName2", "newColName2")
使用这种方式的优点:使用长列列表,您只想更改几个列名称。在这些情况下,这可能非常方便。在连接具有重复列名的表时非常有用。
答案 2 :(得分:33)
如果您想更改所有列名称,请尝试df.toDF(*cols)
答案 3 :(得分:21)
如果您想对所有列名称应用简单转换,此代码可以解决这个问题:(我用下划线替换所有空格)
new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))
df = df.toDF(*new_column_name_list)
感谢@ user8117731 for toDf
trick。
答案 4 :(得分:8)
如果要重命名单个列并保持原样:
from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])
答案 5 :(得分:6)
df.withColumnRenamed('age', 'age2')
答案 6 :(得分:3)
我们可以使用各种方法来重命名列名。
首先,让我们创建一个简单的DataFrame。
df = spark.createDataFrame([("x", 1), ("y", 2)],
["col_1", "col_2"])
现在让我们尝试将col_1重命名为col_3。 PFB有几种方法可以做到这一点。
# Approach - 1 : using withColumnRenamed function.
df.withColumnRenamed("col_1", "col_3").show()
# Approach - 2 : using alias function.
df.select(df["col_1"].alias("col3"), "col_2").show()
# Approach - 3 : using selectExpr function.
df.selectExpr("col_1 as col_3", "col_2").show()
# Rename all columns
# Approach - 4 : using toDF function. Here you need to pass the list of all columns present in DataFrame.
df.toDF("col_3", "col_2").show()
这是输出。
+-----+-----+
|col_3|col_2|
+-----+-----+
| x| 1|
| y| 2|
+-----+-----+
我希望这会有所帮助。
答案 7 :(得分:3)
另一种只重命名一列(使用import pyspark.sql.functions as F
)的方法:
df = df.select( '*', F.col('count').alias('new_count') ).drop('count')
答案 8 :(得分:2)
这是我使用的方法:
创建pyspark会话:
import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()
创建数据框:
df = spark.createDataFrame(data = [('Bob', 5.62,'juice'), ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])
查看具有列名的df:
df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob| 5.62|juice|
| Sue| 0.85| milk|
+----+------+-----+
使用新列名创建一个列表:
newcolnames = ['NameNew','AmountNew','ItemNew']
更改df的列名:
for c,n in zip(df.columns,newcolnames):
df=df.withColumnRenamed(c,n)
使用新列名查看df:
df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
| Bob| 5.62| juice|
| Sue| 0.85| milk|
+-------+---------+-------+
答案 9 :(得分:2)
我用这个:
from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()
答案 10 :(得分:1)
我提供了一个易于使用的函数来为pyspark数据框重命名多个列, 万一有人要使用它:
df.where(df.A.diff().ne(0), 0)
A
2013-01-01 1
2013-01-02 0
2013-01-03 0
2013-01-04 -1
2013-01-05 0
2013-01-06 0
2013-01-07 1
2013-01-08 0
2013-01-09 -1
2013-01-10 1
请注意,两个列表的长度必须相同。
答案 11 :(得分:1)
您可以使用多种方法:
df1=df.withColumn("new_column","old_column").drop(col("old_column"))
df1=df.withColumn("new_column","old_column")
df1=df.select("old_column".alias("new_column"))
答案 12 :(得分:1)
您可以放入for循环,并使用zip将两个列中的每个列名配对。
new_name = ["id", "sepal_length_cm", "sepal_width_cm", "petal_length_cm", "petal_width_cm", "species"]
new_df = df
for old, new in zip(df.columns, new_name):
new_df = new_df.withColumnRenamed(old, new)
答案 13 :(得分:1)
我喜欢用字典重命名df。
rename = {'old1': 'new1', 'old2': 'new2'}
for col in df.schema.names:
df = df.withColumnRenamed(col, rename[col])
答案 14 :(得分:0)
您可以使用以下函数来重命名数据框的所有列。
def df_col_rename(X, to_rename, replace_with):
"""
:param X: spark dataframe
:param to_rename: list of original names
:param replace_with: list of new names
:return: dataframe with updated names
"""
import pyspark.sql.functions as F
mapping = dict(zip(to_rename, replace_with))
X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
return X
如果只需要更新几个列的名称,则可以在replace_with列表中使用相同的列名称
重命名所有列
df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])
重命名一些列
df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])
答案 15 :(得分:0)
对于单列重命名,您仍然可以使用toDF()。例如,
df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()
答案 16 :(得分:0)
方法1:
df = df.withColumnRenamed("new_column_name", "old_column_name")
方法2: 如果您想进行一些计算并重命名新值
df = df.withColumn("old_column_name", F.when(F.col("old_column_name") > 1, F.lit(1)).otherwise(F.col("old_column_name"))
df = df.drop("new_column_name", "old_column_name")
答案 17 :(得分:0)
from pyspark.sql.types import StructType,StructField, StringType, IntegerType
CreatingDataFrame = [("James","Sales","NY",90000,34,10000),
("Michael","Sales","NY",86000,56,20000),
("Robert","Sales","CA",81000,30,23000),
("Maria","Finance","CA",90000,24,23000),
("Raman","Finance","CA",99000,40,24000),
("Scott","Finance","NY",83000,36,19000),
("Jen","Finance","NY",79000,53,15000),
("Jeff","Marketing","CA",80000,25,18000),
("Kumar","Marketing","NY",91000,50,21000)
]
schema = StructType([ \
StructField("employee_name",StringType(),True), \
StructField("department",StringType(),True), \
StructField("state",StringType(),True), \
StructField("salary", IntegerType(), True), \
StructField("age", StringType(), True), \
StructField("bonus", IntegerType(), True) \
])
OurData = spark.createDataFrame(data=CreatingDataFrame,schema=schema)
OurData.show()
# COMMAND ----------
GrouppedBonusData=OurData.groupBy("department").sum("bonus")
# COMMAND ----------
GrouppedBonusData.show()
# COMMAND ----------
GrouppedBonusData.printSchema()
# COMMAND ----------
from pyspark.sql.functions import col
BonusColumnRenamed = GrouppedBonusData.select(col("department").alias("department"), col("sum(bonus)").alias("Total_Bonus"))
BonusColumnRenamed.show()
# COMMAND ----------
GrouppedBonusData.groupBy("department").count().show()
# COMMAND ----------
GrouppedSalaryData=OurData.groupBy("department").sum("salary")
# COMMAND ----------
GrouppedSalaryData.show()
# COMMAND ----------
from pyspark.sql.functions import col
SalaryColumnRenamed = GrouppedSalaryData.select(col("department").alias("Department"), col("sum(salary)").alias("Total_Salary"))
SalaryColumnRenamed.show()