我正在使用databricks社区版。 我正在使用配置单元查询创建一个外部表,该查询正在运行,没有任何错误,但是该表没有使用配置单元查询中指定的指定文件填充。
任何帮助将不胜感激。
答案 0 :(得分:0)
来自官方文档...确保您的s3 /存储位置路径和架构(相对于文件格式[TEXT, CSV, JSON, JDBC, PARQUET, ORC, HIVE, DELTA, and LIBSVM
]而言正确)
DROP TABLE IF EXISTS <example-table> // deletes the metadata
dbutils.fs.rm("<your-s3-path>", true) // deletes the data
CREATE TABLE <example-table>
USING org.apache.spark.sql.parquet
OPTIONS (PATH "<your-s3-path>")
AS SELECT <your-sql-query-here>
// alternative
CREATE TABLE <table-name> (id long, date string) USING PARQUET LOCATION "<storage-location>"