我正在构建一个具有各种网络流量的实时嵌入式 linux 应用程序。在一组流量中,两个连接是时间关键的。一个是输入数据,另一个是输出数据。我的应用程序需要此流量优先于其他非时间关键型流量。
我关心两件事:
- 尽量减少由于这两个连接上的过载而丢弃的数据包数量。
- 通过这两个连接上的设备(输入到输出)的延迟最小化。
我已经(有点!)加快了 Linux 流量控制的速度,并且了解它主要适用于出口流量,因为远程设备负责它发送给我的数据的优先级。我已将我的应用程序设置为实时进程,并解决了与运行它的优先级相关的问题。
我现在开始设置 tc。对于我的测试用例,这是我使用的:
tc qdisc add dev eth0 root handle 1: prio bands 3 priomap 2 2 2 2 2 2 2 0 2 2 2 2 2 2 2 2
tc qdisc add dev eth0 parent 1:1 handle 10: pfifo
tc qdisc add dev eth0 parent 1:2 handle 20: pfifo
tc qdisc add dev eth0 parent 1:3 handle 30: pfifo
基本上我的意思是:在频段 0 上发送所有优先级为 7 的流量,在频段 2 上发送所有其他流量。一旦我进行了这个简单的测试,我将在处理其他流量方面做得更好。
首先让我们验证一下我的期望:我期望的是任何具有优先级 7 的流量应该总是在具有任何其他优先级的流量之前出去。这应该使此类流量的延迟相对不受盒子上其他流量的影响,不是吗?我的 mtu 设置为 1500,我通过界面获得了大约 10 MB/秒的速度。由频段 2 流量引起的频段 0 上的最大额外延迟是一个数据包(<=1500 字节),或 150 微秒(1500 字节/10 兆字节/秒 = 150 微秒)。
这是我的测试设置:
两个 Linux 盒子。框 1 运行回显输入数据的 TCP 服务器。框 2 连接到框 1,通过 TCP 发送数据包并测量延迟(发送时间到接收时间)。
我对 box Linux 机器使用相同的 tc 设置。
在应用程序(服务器和客户端)中,我在套接字上设置 SO_PRIORITY 如下:
int so_priority = 7;
setsockopt(m_socket.native(), SOL_SOCKET, SO_PRIORITY, &so_priority, sizeof(so_priority));
我使用 tc 来验证我的流量是否超过频段 0,以及所有其他流量是否超过频段 2:
tc -s qdisc ls dev eth0
问题是:当没有其他流量时,我发现延迟在 500 us 范围内。当我有其他流量(例如,复制 100 MB 文件的 scp 作业)时,延迟会上升到 10+ 毫秒。真正奇怪的是,我所做的所有 tc 工作都没有任何影响。事实上,如果我交换频段(所以我的所有流量都通过较低优先级的频段 2,而其他流量通过频段 1),我看不出延迟有任何差异。
我所期待的是,当网络上有其他流量时,我会看到延迟增加约 150 毫秒,而不是 10 毫秒!顺便说一句,我已经验证了用其他(非实时优先级)进程加载盒子不会影响延迟,也不会影响其他接口上的流量。
另一项需要注意的是,如果我将 mtu 降低到 500 字节,则延迟会降低到大约 5 毫秒。尽管如此,这比空载情况下要差一个数量级。还有——为什么改变mtu会影响这么大,但是用tc设置优先级队列却没有效果???
为什么 tc 不帮助我?我错过了什么?
谢谢!
埃里克