我正在从一个发送时间戳的设备解析 NMEA GPS 数据,该设备无需毫秒即可发送时间戳。据我所知,这些设备将在发送带有 .000 时间戳的句子时使用特定的触发点 - afaik GGA 句子中的 $。
所以我正在解析 GGA 语句,并在收到 $ 时获取时间戳(我使用串行端口波特率补偿在同一操作中读取的任何其他字符)。
根据这些信息,我计算了用于更正系统时间的偏移量,但是当我将设置的时间与某些 NTP 服务器进行比较时,我会得到 250 毫秒的恒定差异——当我手动更正时,我的偏差在 20 毫秒之内,这适合我的申请。
但当然我不确定这个偏移来自哪里,以及它是否特定于我正在使用的 GPS 鼠标或我的系统。我使用了错误的 $ 字符,还是有人知道应该如何处理?我知道这个问题非常模糊,但是任何可能导致这种偏移的提示都会非常有帮助!
这是来自我的设备的一些示例数据,我将使用 $ 字符作为标记的时间偏移量:
$GPGSA,A,3,17,12,22,18,09,30,14,,,,,,2.1,1.5,1.6*31
$GPRMC,003538.000,A,5046.8555,N,00606.2913,E,0.00,22.37,160209,,,A*58
-> $ <- GPGGA,003539.000,5046.8549,N,00606.2922,E,1,07,1.5,249.9,M,47.6,M,,0000*5C
$GPGSA,A,3,17,12,22,18,09,30,14,,,,,,2.1,1.5,1.6*31
$GPGSV,3,1,10,09,77,107,17,12,63,243,30,05,51,249,16,14,26,315,20*7E
$GPGSV,3,2,10,30,24,246,25,17,23,045,22,15,15,170,16,22,14,274,24*7E
$GPGSV,3,3,10,04,08,092,22,18,07,243,22*74
$GPRMC,003539.000,A,5046.8549,N,00606.2922,E,0.00,22.37,160209,,,A*56
-> $ <- GPGGA,003540.000,5046.8536,N,00606.2935,E,1,07,1.5,249.0,M,47.6,M,,0000*55
$GPGSA,A,3,17,12,22,18,09,30,14,,,,,,2.1,1.5,1.6*31
$GPRMC,003540.000,A,5046.8536,N,00606.2935,E,0.00,22.37,160209,,,A*56
-> $ <- GPGGA,003541.000,5046.8521,N,00606.2948,E,1,07,1.5,247.8,M,47.6,M,,0000*5E