将数据从GCP上的Snowflake卸载/写入到AWS S3

时间:2020-06-30 00:35:57

标签: snowflake-cloud-data-platform

我是Snowflake的新手,无法真正找到答案–将GCP上托管的Snowflake数据卸载到AWS S3存储桶的正确/推荐方法是什么?如突出显示的here一样,它与从已经托管在AWS上的Snowflake卸载到S3的过程相同吗?是否需要授予其他任何安全问题或权限?

在这种情况下,如何协调不同云提供商之间的出口/入口?

您能否使用雪花的JDBC / ODBC驱动程序简单地跨云连接和传输数据?

1 个答案:

答案 0 :(得分:0)

将GCP上托管的Snowflake数据卸载到AWS S3存储桶的正确/推荐方法是什么? 如突出显示的here一样,它与从已经托管在AWS上的Snowflake卸载到S3的过程相同吗? 是否需要授予其他任何安全问题或权限?

是的,该链接包含将任何Snowflake部署设置到您自己的AWS账户之间的集成以执行卸载操作所需的大多数步骤。

雪花supports unloading across-clouds seamlessly as a use-casesome egress charges

您需要允许雪花a supported mode of write access到特定的云存储帐户。从occur over the internet (HTTPS)GCP's data-center IPs将从GCP访问S3,并且如果当前限制超出身份验证要求,则应允许存储桶策略允许此类访问。

您能否使用雪花的JDBC / ODBC驱动程序简单地跨云连接和传输数据?

是的。语句执行由Snowflake的virtual warehouses(即服务端,而不是客户端端)完成,COPY INTO <location>是由JDBC / ODBC驱动程序支持的常规语句。