我在一台装有 Red Had Linux 的 16 核 NUMA 机器上对 Java 程序进行了基准测试。我根据每秒能够接收和发送的数据包数量(64 字节大小)来测量 Java DatagramSocket(用于 UDP)的吞吐量。该程序由一个套接字和 n 个正在侦听套接字的线程组成。当一个数据包到达时,他们会将有效负载复制到一个 byte[] 数组中,使用该数组创建一个新的 DatagramPacket 并将其直接发送回它的来源。将其视为 UDP 层上的 ping。
我发现当使用多个线程(即两个或四个)时,Java DatagramSocket 套接字的吞吐量要小得多。如果我只使用一个线程来监听套接字,我可以实现每秒 122,000 个数据包的吞吐量,而多个线程只能实现每秒 65,000 个数据包的吞吐量。现在,我知道线程可能会在 NUMA 机器的任何核心上执行,并且如果内存必须从一个节点传输到另一个节点,那么内存访问会变得很昂贵。但是,如果我有两个线程,那么只有一个应该在“错误”的核心上执行,而另一个应该仍然可以实现非常高的吞吐量。另一种可能的解释是 Datagramsocket 中的同步问题,但这些只是猜测。有人对真正的解释有很好的了解吗?
我发现在多个端口上多次(并行)执行这个程序可以获得更高的整体吞吐量。我用一个线程启动程序四次,每个程序都使用一个单独端口(5683、5684、5685 和 5686)上的套接字。四个程序的总吞吐量为每秒 370,000 个数据包。总之,在同一个端口上使用多个线程会降低吞吐量,而在一个线程上使用多个端口会增加吞吐量。这怎么解释?
系统规格:
硬件: 2 个 AMD Opteron(TM) 处理器 6212 处理器上的 16 个内核,组织在 4 个节点中,每个节点具有 32 GB RAM。频率:1.4 Ghz,2048 KB 缓存。
node distances:
node 0 1 2 3
0: 10 16 16 16
1: 16 10 16 16
2: 16 16 10 16
3: 16 16 16 10
该操作系统是 Red Hat Enterprise Linux Workstation 版本 6.4 (Santiago),内核版本为2.6.32-358.14.1.el6.x86_64
. Java 版本"1.7.0_09"
、Java(TM) SE 运行时环境 ( build 1.7.0_09-b05
)、Java HotSpot(TM) 64 位服务器 VM ( build 23.5-b02, mixed mode
),我使用了该-XX:+UseNUMA
标志。服务器和客户端通过 10GB 以太网连接。