Azure DocumentDb似乎有some strange storage limits:
--------------------------------------------------------------------
| Entity | Default quota (Standard Offer)|
-------------------------------------------------------------------|
| Document storage per collection | 250 GB* |
-------------------------------------------------------------------|
| Throughput per collection, | 250,000 RU/s* |
| measured in Request Units per | |
| second per collection | |
-------------------------------------------------------------------|
| Request document size | 512 KB* |
-------------------------------------------------------------------|
| Response document size | 1MB |
-------------------------------------------------------------------|
请求文档大小 - 这是否意味着在没有请求支持的情况下,在documentdb中发送存储的json有效负载的大小不能大于512KB?
此外,如果要求支持更大的请求文档大小,那么限制是什么?我可以要求1MB吗? 2MB?
响应文档大小 - 这是否意味着json响应的大小不能超过1MB?除了最简单的实体之外,这几乎没什么用。
答案 0 :(得分:18)
更新:截至2016年12月,DocumentDB已将默认文档大小配额增加到2mb,页面大小配额增加到4mb
DocumentDB团队在这里。它看起来像我们的限制和#34;页面可以改进...在此期间,请允许我尝试澄清:
文档大小配额(默认值:每个文档2MB)
默认文档大小配额为每个文档2MB。换句话说,您可以在每条记录中存储< = 2MB的JSON - 而无需发送票证。 参考:https://docs.microsoft.com/en-us/azure/cosmos-db/documentdb-resources#documents
我们正积极致力于一些长期改进,以广泛增加我们的默认配额。与此同时,您可以提交支持请求,以便在今天的DocumentDB帐户上预览更高的文档大小配额。
另外值得注意的是 - 大多数文件(一般来说)> 2MB都涉及大型无界数组 - 其中最好将每个数组元素抽象出来并作为单独的文档进行建模。
每页结果的响应大小配额(默认值:每页4MB)
要明确 - DocumentDB允许任意大小的查询结果(例如1 KB,1 GB,1 TB等)。
对于大型查询结果 - DocumentDB将对结果进行分页,每个页面将限制为响应大小配额(默认情况下,每页4MB)。
为什么分页查询结果是一个非常酷的功能:
你有没有在另一个数据存储(除了DocumentDB)中运行查询,它似乎需要永远...如果一个查询需要一个小时才能完成 - 你如何判断是否需要几分钟与小时相比正在取得进展吗?
DocumentDB通过将查询结果拆分为可以迭代的一组页面来解决此问题。结果按照许多标准进行分页:
这意味着您可以立即流式传输并利用查询结果,并控制恢复执行查询的速率。
以下代码段说明了如何使用C#.NET SDK一次检索一页查询结果:
var query = client.CreateDocumentQuery<Family>(collectionUri, "SELECT * FROM Families", options).AsDocumentQuery();
while (query.HasMoreResults)
{
foreach (Family family in await query.ExecuteNextAsync())
{
families.Add(family);
}
}
以下代码段说明了如何通常让客户端SDK迭代分页结果并代表您实现整个查询结果:
var families= client.CreateDocumentQuery<Family>(collectionUri, "SELECT * FROM Families", options).toList();