5

我正在从一个发送时间戳的设备解析 NMEA GPS 数据,该设备无需毫秒即可发送时间戳。据我所知,这些设备将在发送带有 .000 时间戳的句子时使用特定的触发点 - afaik GGA 句子中的 $。

所以我正在解析 GGA 语句,并在收到 $ 时获取时间戳(我使用串行端口波特率补偿在同一操作中读取的任何其他字符)。

根据这些信息,我计算了用于更正系统时间的偏移量,但是当我将设置的时间与某些 NTP 服务器进行比较时,我会得到 250 毫秒的恒定差异——当我手动更正时,我的偏差在 20 毫秒之内,这适合我的申请。

但当然我不确定这个偏移来自哪里,以及它是否特定于我正在使用的 GPS 鼠标或我的系统。我使用了错误的 $ 字符,还是有人知道应该如何处理?我知道这个问题非常模糊,但是任何可能导致这种偏移的提示都会非常有帮助!

这是来自我的设备的一些示例数据,我将使用 $ 字符作为标记的时间偏移量:

$GPGSA,A,3,17,12,22,18,09,30,14,,,,,,2.1,1.5,1.6*31
$GPRMC,003538.000,A,5046.8555,N,00606.2913,E,0.00,22.37,160209,,,A*58
-> $ <- GPGGA,003539.000,5046.8549,N,00606.2922,E,1,07,1.5,249.9,M,47.6,M,,0000*5C
$GPGSA,A,3,17,12,22,18,09,30,14,,,,,,2.1,1.5,1.6*31
$GPGSV,3,1,10,09,77,107,17,12,63,243,30,05,51,249,16,14,26,315,20*7E
$GPGSV,3,2,10,30,24,246,25,17,23,045,22,15,15,170,16,22,14,274,24*7E
$GPGSV,3,3,10,04,08,092,22,18,07,243,22*74
$GPRMC,003539.000,A,5046.8549,N,00606.2922,E,0.00,22.37,160209,,,A*56
-> $ <- GPGGA,003540.000,5046.8536,N,00606.2935,E,1,07,1.5,249.0,M,47.6,M,,0000*55
$GPGSA,A,3,17,12,22,18,09,30,14,,,,,,2.1,1.5,1.6*31
$GPRMC,003540.000,A,5046.8536,N,00606.2935,E,0.00,22.37,160209,,,A*56
-> $ <- GPGGA,003541.000,5046.8521,N,00606.2948,E,1,07,1.5,247.8,M,47.6,M,,0000*5E
4

1 回答 1

2

您必须考虑 GPS 设备中发生的事情:

  • 接收卫星信号并计算位置、速度和时间。
  • 准备 NMEA 消息并放入串口缓冲区
  • 发送消息

GPS 设备的 CPU 相对较慢(与现代计算机相比),因此您观察到的这种延迟是设备在位置生成和开始传输数据之间必须进行的处理的结果。

Here is one analysis of latency in consumer grade GPS receivers from 2005. There you can find measurement of latency for specific NMEA sentences.

于 2009-02-16T01:26:56.510 回答