我开发了一种能量感知路由协议,现在为了进行性能评估,我想计算数据包通过多跳链路时的端到端数据包传输延迟。我无法决定要考虑哪些时间信息是考虑日志文件中可用的模拟时间 ( log-0.txt
) 还是调制解调器的传输时间 (txtime
和rxtime
)。请让我知道在 UnetStack 中计算端到端延迟的方法。
问问题
278 次
1 回答
1
模拟时间(下面日志文件中的第一列,以毫秒为单位)在所有模拟节点之间同步,因此如果您在源节点记录 START 时间和 END 时间,您可以使用它来计算端到端延迟在您的目标节点。
示例日志文件:
5673|INFO|org.arl.unet.sim.SimulationAgent/4@570:call|TxFrameNtf:INFORM[type:DATA txTime:2066947222]
6511|INFO|org.arl.unet.sim.SimulationAgent/3@567:call|TxFrameNtf:INFORM[type:DATA txTime:1157370743]
10919|INFO|org.arl.unet.sim.SimulationAgent/4@570:call|TxFrameNtf:INFORM[type:DATA txTime:2072193222
在此示例中,节点 4 ( SimulationAgent/4
) 在时间 传输5673
。节点 3( SimulationAgent/3
) 然后在 time 传输6511
。等等...
和以微秒为单位txTime
,rxTime
但对于每个节点都是本地的。因此它们可以用于获取同一节点中事件的时间差异,但不能直接跨节点进行比较。
于 2019-10-09T09:25:07.830 回答