我读到NTP在WAN上同步机器的准确度高达100毫秒(在以下链接中给出 - http://www.ntp.org/ntpfaq/NTP-s-algo.htm和https://en.wikipedia.org/wiki/Network_Time_Protocol)。
每个NTP层的错误是100毫秒(或同步差异)? 如果没有,那么NTP如何确保错误不会构建到较低层?
我知道我在这里遗漏了NTP协议,有人可以指出一下吗?它是否与根延迟和根分散有关,或者它们仅用于拒绝候选服务器?
答案 0 :(得分:0)
100ms只是一个说明性的值,给出了典型的上限 当前网络技术的预期目标。
基本上2个ntp节点之间的差异由不对称性决定 进出一个节点到另一个节点的网络连接。
色散测量测量时钟的误差 (源)ntp服务器与ntp客户端的(本地)时钟。
因此,利用ATM或网络路径中的其他类型的存储转发组件,可实现的准确性要高得多 而不是LAN中可能存在的低延迟广播链路。
100ms不是每个级别的值,而是 什么是预期的 通常的(低深度)同步树。 (我还没有看到超过5个级别在现场直播中使用)
root delay是使用时间源的总延迟 根分散是此时间源路径上的最大误差。
有关错误(以及抖动和色散)的详细说明 计算和互动,请查看规范文档。
例如:RFC 5905: Network Time Protocol Version 4: Protocol and Algorithms Specification