正在将镶木地板文件从S3位置加载到雪花表。这就是我正在做的:
CREATE TABLE myschema.target_table(
col1 DATE,
col2 VARCHAR);
CREATE OR REPLACE TEMPORARY STAGE myschema.stage_table
url = 's3://mybucket/myfolder1/'
storage_integration = My_int
fileformat = (type = 'parquet')
COPY INTO myschema.target_table FROM(
SELECT $1:col1::date,
$1:col2:varchar
FROM myschema.stage_table)
这很好用,我的问题是,我有10个表和10个列。有什么方法可以优化步骤3,在这里我不必明确提及列名,因此代码将变得通用:
COPY INTO myschema.target_table FROM(
SELECT *
FROM myschema.stage_table)
答案 0 :(得分:1)
您尝试过吗 MATCH_BY_COLUMN_NAME = CASE_SENSITIVE | CASE_INSENSITIVE |无
文档:https://docs.snowflake.com/en/sql-reference/sql/copy-into-table.html#type-parquet