我们的应用程序通常传输数百兆字节的数据(使用 HTTP GET),默认的 64 Kb 块大小对于最佳下载速率来说似乎太小了。将该值更改为 5 Mb 可以将 2 Gb 数据的下载时间从 2 分钟减少到 28 秒。
演示代码,它只是在内存中分配请求的数据并发送它们:
#include <Windows.h>
#include <cpprest/http_listener.h>
#include <cpprest/json.h>
#include <cpprest/streams.h>
#include <cpprest/filestream.h>
#include <cpprest/producerconsumerstream.h>
#include <algorithm>
#include <chrono>
#include <iostream>
#include <string>
using namespace concurrency::streams;
using namespace web;
using namespace http;
using namespace http::experimental::listener;
int main(int argc, char *argv[]) {
http_listener listener(L"http://*:8080/bytes");
listener.support(methods::GET, [](http_request &request) {
auto q = web::uri::split_query(request.request_uri().query());
// default: 100 MB of data
std::size_t bytes_to_write = 100 * 1048576;
if (q.find(L"b") != std::end(q)) {
bytes_to_write = std::stoul(q[L"b"]);
}
if (q.find(L"kb") != std::end(q)) {
bytes_to_write = std::stoul(q[L"kb"]) * 1024;
}
if (q.find(L"mb") != std::end(q)) {
bytes_to_write = std::stoul(q[L"mb"]) * 1024 * 1024;
}
request.reply(status_codes::OK, std::string(bytes_to_write, '+'));
std::cout << "Sent " << bytes_to_write << "bytes\n";
});
listener.open().wait();
std::wcout << "Listening on " << listener.uri().port() << std::endl;
while (true) {
try {
Sleep(1);
}
catch (...) {
break;
}
}
listener.close().wait();
return 0;
}
并使用 curl 进行测试:
curl -o NUL http://localhost:8080/bytes?mb=2000
使用 64Kb 块大小:
[root@localhost ~]# curl -o NUL 10.50.10.51:8080/bytes?mb=2000
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 2000M 100 2000M 0 0 15.7M 0 0:02:06 0:02:06 --:--:-- 14.8M
使用 5Mb 块大小:
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 2000M 100 2000M 0 0 69.2M 0 0:00:28 0:00:28 --:--:-- 77.1M
目前我正在修改cpprest的源代码以获得后来的结果。CHUNK_SIZE
它是一个在其源文件之一中定义的宏( http_server_httpsys.cpp
):
#define CHUNK_SIZE 64 * 1024
有没有更简单的方法来做到这一点?还是我以错误的方式使用 cpprest?