我在5-6小时后运行一个长Azure表存储查询6-7小时,Azure表存储抛出异常已经无法从传输连接中读取数据:现有连接被远程主机强行关闭。现有的连接被远程主机强行关闭了#34; **
"Exception : Unable to read data from the transport connection: An existing connection was forcibly closed by the remote host., Stack Trace : at Microsoft.WindowsAzure.Storage.Core.Executor.Executor.ExecuteSync[T](RESTCommand`1 cmd, IRetryPolicy policy, OperationContext operationContext)
at Microsoft.WindowsAzure.Storage.Table.TableQuery`1.<>c__DisplayClass7.<ExecuteInternal>b__6(IContinuationToken continuationToken)
at Microsoft.WindowsAzure.Storage.Core.Util.CommonUtility.<LazyEnumerable>d__0`1.MoveNext()
at System.Collections.Generic.List`1..ctor(IEnumerable`1 collection)
at System.Linq.Enumerable.ToList[TSource](IEnumerable`1 source)"
**
不知道导致问题的原因,任何人都可以帮我解决这个错误。
ServicePointManager.DefaultConnectionLimit = 48;
ServicePointManager.Expect100Continue = false;
ServicePointManager.UseNagleAlgorithm = false;
我使用的是A7(8个CPU核心,56 GB RAM),即使配置很高,也会失败。
还包括表存储上的重试逻辑,确保执行Query,但没有运气。
var DefaultRequestOptions = new TableRequestOptions
{
RetryPolicy =new ExponentialRetry(TimeSpan.FromSeconds(3), 3),
//PayloadFormat = TablePayloadFormat.JsonNoMetadata
};
AzureTableQuery.Execute(DefaultRequestOptions).ToList();
我还检查了网络IN:它显示的是100 GB。网络带宽是否有限制。我请求任何一个帮助。 提前致谢
答案 0 :(得分:2)
对于需要这么长时间的查询,最好是逐步处理结果,而不是一次尝试下载所有内容。这样,如果您的查询在任何时候都失败,则不必重新下载所有内容。例如:
TableContinuationToken token = null;
try
{
do
{
TableQuerySegment<ITableEntity> segment = AzureTableQuery.ExecuteSegmented(token);
// Do something with segment.Results(), which is this batch of results from the query
List<ITableEntity> results = segment.Results;
// Save the continuation token for the next iteration.
token = segment.ContinuationToken;
} while (token != null);
}
catch (Exception e)
{
// Handle exception, retry, etc
}
这样,即使查询中途失败,您也会获得部分结果,并且您拥有延续令牌,因此您可以从中断处继续查询,而不是从头开始。
请注意,大多数表格扫描效率不高;如果您的方案对延迟敏感,您可能需要重新设计表以允许更有效的查询。此外,我不确定你是如何在网络上获得100 GB / s的,但绝对不是所有这些都来自这一个查询,Azure Storage不会快速推送一个查询的数据。