我正在创建一个与实时 Web API 对话的网络客户端。
客户端每秒必须进行许多不同的调用Task<TResult>
并向每个客户端组件反馈,以便客户端可以决定是否阻塞:
public Task<TResult> Execute<TResult>(IOperation<TResult> operation);
进行 API 调用的过程如下所示:
- 将(小,小于 1KB)请求序列化到 Json
- 使用
HttpClient
- 成功后,反序列化为
TResult
(Json 的大小可能为几百 KB,但通常要小得多)并返回
在我的测试中,选择在任务工作流中包含每个步骤的位置(以及因此在哪个线程上)对性能有重大影响。
到目前为止我发现的最快的设置是这样的(半伪代码,为简洁起见省略了泛型类型参数):
// serialize on main thread
var requestString = JsonConvert.SerializeObject(request);
// create message - omitted
var post = Task.Factory.StartNew(() => this.client.SendAsync(requestMessage)).Unwrap();
return post.ContinueWith(response =>
{
var jsonString = response.Result.Content.ReadAsStringAsync();
return JsonConvert.DeserializeObject(jsonString.Result);
});
最慢的是这种设置,其中整个过程在单个任务中执行:
return Task.Factory.StartNew((request) =>
{
var requestString = JsonConvert.SerializeObject(request);
// create message - omitted
var post = client.SendAsync(requestMessage);
var jsonString = post.Result.Content.ReadAsStringAsync();
return JsonConvert.DeserializeObject(jsonString.Result);
})
我原以为最后一种方法可能是最快的,因为您为每个请求创建一个后台线程。我的假设是,由于阻塞调用,这不允许 TPL 最有效地使用可用线程。
那么,是否有一个关于什么应该进入任务以及什么应该放在它之外或继续的一般规则?
在这种特定情况下,我可以尝试进一步的优化吗?