我正在使用 azure-data-factory 中的 copy-activity ,从复制一个 500 MB 的json文件从strongs> CosmosDB 到从CosmosDb到存储帐户blob
AzureBlobStorageLinkedService配置有 SAS令牌。
将CosmosDb转到存储帐户blob: 4分钟
到CosmosDB的存储帐户blob: 2小时-超过7小时(超时)
在开始复制活动之前,将创建一个 20.000 RU / s 的空集合。我查看了CosmosDB的指标,它确实很无聊。只有429个错误。我们有“默认索引配置”和一个partitionKey。这意味着我们具有包含来自几个partitionKey-ranges(分区)的几个partitionKeys的数据
在json文件中,有 48.000 个json对象。有些小,有些可以 200 KB 。
我尝试了不同的WriteBatchSizes:
5: 2 hours
100: 2 hours
10.000: 7 hours (timeout)
我尝试了相同/不同区域=>没有差异
我尝试使用较小的文件=>它们的速度更快(500 KB /秒,而不是50 KB /秒)
为什么这么慢? 500 MB的文件太大了吗?
答案 0 :(得分:0)
我尝试使用非常高的吞吐量值,但效果很好:
1.000.000 RU/s: 9 Minuten ✔
100.000 RU/s: 15 Minuten ✔
但是由于成本原因,我不得不考虑在数据传输完成后缩减规模!