雪花DW的标准负载(摄取)过程?

时间:2020-05-16 19:07:43

标签: snowflake-cloud-data-platform snowflake-schema snowflake-task

对于本地-> S3-> Snowflake ETL解决方案

当前我使用的工具是:

  • snowSQL
  • 雪花UI

当前,我遵循此加载过程

  1. 创建仓库
  2. 创建索引(DDL)
  3. 创建表(DDL)
  4. 将文件复制到User S3 Stage。
  5. 将S3阶段文件复制到表中

问题:我应该遵循一个标准的摄取过程吗?我正在寻找一种行之有效的生产级流程,可以用来开发数据加载(摄取)

条件:我可以使用雪花提供的实用程序,但不能使用ETL工具(Informatica或TalenD或其他任何工具)

过去,我曾与其他数据库供应商合作,提出过此类流程。而且我知道它确实存在。

1 个答案:

答案 0 :(得分:0)

一种用于数据集成的源数据加载过程有两种

  1. 散装 2持续摄入

您已经对ETL / ELT工具的使用表现出了有限的兴趣。我的建议

  1. 对于批量加载操作(一次关闭),请使用标准copy into命令,直接创建外部Stage或使用外部命名的stage(您愿意)即可(您已提供了足够的步骤) 2对于连续的摄取,雪管是理想的选择,有关更多信息,请参见

https://docs.snowflake.com/en/user-guide/data-load-snowpipe.html

谢谢 Palash Chatterjee