我不确定这个问题是否属于 StackOverflow,但在这里。
我需要使用 C# 为要从一方传输到另一方的某些数据生成时间戳,并且我需要知道所有操作系统(Windows、Linux 和 Unix)中系统时钟的最坏情况精度是多少?我需要的是弄清楚所有操作系统都能够验证这个时间戳的精度。
例如,Windows Vista 操作系统的时钟分辨率约为 10-15 毫秒。
我不确定这个问题是否属于 StackOverflow,但在这里。
我需要使用 C# 为要从一方传输到另一方的某些数据生成时间戳,并且我需要知道所有操作系统(Windows、Linux 和 Unix)中系统时钟的最坏情况精度是多少?我需要的是弄清楚所有操作系统都能够验证这个时间戳的精度。
例如,Windows Vista 操作系统的时钟分辨率约为 10-15 毫秒。
有趣的。主要操作系统在最坏的情况下具有厘米分辨率(0.01 秒),尽管它通常以更高的精度嵌入。
Linux 在其时间戳中提供高达微秒的分辨率(请参阅 参考资料man utime
),具体取决于计算机的时钟硬件。Windows NT/Win2K/XP/等。提供文件时间戳的毫秒精度(仅使用 NTFS),尽管它以0.000 000 1
秒为单位(每秒一千万)考虑所有系统时间戳。
如果系统之间需要准确和精确的时间分辨率,GPS 接收器很容易达到 100 纳秒的精度,这是它们工作方式的副作用,而许多廉价型号的精度可以达到 10 纳秒。 特殊的 GPS 模型使导出的时间可供外部使用。