首先,感谢您抽出时间阅读我的问题。
我的问题如下:在Spark with Java中,我在两个数据帧中加载了两个csv文件的数据。
这些数据框将包含以下信息。
Dataframe Airport
Id | Name | City
-----------------------
1 | Barajas | Madrid
Dataframe airport_city_state
City | state
----------------
Madrid | España
我想加入这两个数据帧,看起来像这样:
数据框结果
Id | Name | City | state
--------------------------
1 | Barajas | Madrid | España
dfairport.city = dfaiport_city_state.city
但是我无法用语法来澄清所以我可以正确地进行连接。我如何创建变量的一些代码:
// Load the csv, you have to specify that you have header and what delimiter you have
Dataset <Row> dfairport = Load.Csv (sqlContext, data_airport);
Dataset <Row> dfairport_city_state = Load.Csv (sqlContext, data_airport_city_state);
// Change the name of the columns in the csv dataframe to match the columns in the database
// Once they match the name we can insert them
Dfairport
.withColumnRenamed ("leg_key", "id")
.withColumnRenamed ("leg_name", "name")
.withColumnRenamed ("leg_city", "city")
dfairport_city_state
.withColumnRenamed("city", "ciudad")
.withColumnRenamed("state", "estado");
答案 0 :(得分:9)
您可以使用join
方法将列名加入两个数据框,例如:
Dataset <Row> dfairport = Load.Csv (sqlContext, data_airport);
Dataset <Row> dfairport_city_state = Load.Csv (sqlContext, data_airport_city_state);
Dataset <Row> joined = dfairport.join(dfairport_city_state, dfairport_city_state("City"));
还有一个重载版本,允许您将join
类型指定为第三个参数,例如:
Dataset <Row> joined = dfairport.join(dfairport_city_state, dfairport_city_state("City"), "left_outer");
Here更多关于加入。
答案 1 :(得分:4)
首先,非常感谢您的回复。
我已经尝试了我的两个解决方案,但没有一个工作,我收到以下错误: 对于类型ETL_Airport
,方法dfairport_city_state(String)未定义我无法访问数据框的特定列以进行连接。
编辑: 已经完成了加入,我把解决方案放在这里以防其他人帮忙;)
感谢您的一切和最好的问候
//Join de tablas en las que comparten ciudad
Dataset <Row> joined = dfairport.join(dfairport_city_state, dfairport.col("leg_city").equalTo(dfairport_city_state.col("city")));