我们有一个webapp,它通过.NET IHttpHandler(称为proxy.ashx)路由许多请求,用于CORS和安全目的。某些资源加载速度很快,其他资源根据这些资源所需的大量计算加载速度很慢。这是预期的。
在重负载期间,proxy.ashx会慢速爬行,并且所有资源都会永远加载。在这些峰值加载时间内,如果绕过代理并直接加载资源,它会立即加载,这意味着代理是瓶颈。
(即http://server/proxy.ashx?url=http://some_resource加载缓慢,但http://some_resource自行加载速度快。)
我有一个假设,即响应性降低是因为IHttpHandler是同步编码的,当有太多长时间运行的请求处于活动状态时,IIS请求线程都忙。我创建了一个快速的A / B测试应用程序来验证我的假设,我的测试结果显示情况并非如此。
This article是我理解请求线程池的基础。
在Web服务器上,.NET Framework维护一个线程池 用于服务ASP.NET请求。当请求到达时,一个线程 从池中调度以处理该请求。如果请求是 同步处理,处理请求的线程是 在处理请求时被阻止,而该线程不能 服务另一个请求。 ...
但是,在异步调用期间,不会阻止服务器 在等待第一个请求时响应其他请求 完成。因此,异步请求会阻止请求排队 当有许多请求调用长时间运行的操作时。
在下面的示例中,理论上,同步处理程序应该在某个阈值之后占用请求线程,从而阻止更多新请求启动。异步处理程序应该允许更多的请求排队,因为每个请求几乎立即将其请求线程返回到线程池,等待Task.Delay
,允许该请求线程处理新请求,而前一个请求仍然是等待。
同步HttpHandler
<%@ WebHandler Language="C#" Class="SyncHandler" %>
using System.Web;
using System.Threading;
public class SyncHandler : IHttpHandler
{
public void ProcessRequest(HttpContext context)
{
//BLOCKING artifical pause to simulate network activity
Thread.Sleep(300);
var Response = context.Response;
Response.Write("sync response");
}
public bool IsReusable { get { return true; } }
}
异步处理程序
<%@ WebHandler Language="C#" Class="AsyncHandler" %>
using System.Web;
using System.Threading.Tasks;
public class AsyncHandler : HttpTaskAsyncHandler
{
public override async Task ProcessRequestAsync(HttpContext context)
{
//NON-BLOCKING artificial pause to simulate network activity
await Task.Delay(300);
var Response = context.Response;
Response.Write("async response");
}
public override bool IsReusable { get { return true; } }
}
基准
我使用apache基准测试实用程序运行了一些基准测试。这是我使用的命令(显然改变了下面结果的数字)。
ab -n 1000 -c 10 http://localhost/AsyncProxyTest/Sync.ashx
ab -n 1000 -c 10 http://localhost/AsyncProxyTest/Async.ashx
结果的
1,000个请求,一次10个
10,000次请求,一次100次
10,000次请求,一次1,000次
正如您所看到的,同步与异步似乎几乎没有任何影响(至少不足以使其值得切换)。
我的问题是:在我的测试中是否弄乱了一些不准确建模这个概念的东西?
答案 0 :(得分:7)
IIS的桌面版本存在一个限制,一次将并发请求限制为10(请参阅this post)。 IIS Express中不存在此限制,Windows服务器上的IIS中不存在此限制。
测试没有任何问题,只需要在不受限制的Web服务器上运行。我在Windows Server上使用IIS重新运行了这些测试,我的发现与我最初的假设完全一样。
以下是结果。 (注意:这些结果来自一个非常活跃的开发服务器,因此可能会有一些推动)
1,000个请求,一次10个 (这些结果是相同的,因为我们没有超出请求限制)
10,000次请求,一次100次
10,000次请求,一次1,000次
我捕获的另一个指标是运行的最大并发请求数。这就是我发现本地机器的限制为10的方法。在Windows服务器上再次运行测试后,同步的最大值为~48个并发请求。对于异步,它是301,这意味着async / await在处理非阻塞调用时肯定会产生更高的吞吐量。