Apache Flink:像Spark一样推断CSV文件的模式

时间:2017-12-28 13:58:13

标签: apache-flink flink-sql

在Spark中,我们可以使用推断模式从文件中动态读取模式,例如:

df = sqlContext.read.format('com.databricks.spark.csv').options(delimiter='|',header='true', inferschema='true').load('cars.csv')

有没有办法在Flink做同样的事情?

1 个答案:

答案 0 :(得分:1)

Flink没有内置支持CSV文件的自动架构推断。

您可以通过分析CSV文件的第一行并生成相应的CsvTableSource来实现此类功能。