我想创建一个相当简单的数学模型来描述系统中的使用模式和性能权衡。
系统的行为如下:
- 客户端定期向主机网络发出多播数据包
- 任何接收数据包的主机,直接以单播回答进行响应
- 发起主机在一段时间内缓存响应,然后丢弃它们
- 如果在下次需要请求时缓存已满,则从缓存而不是网络中提取数据
- 数据包具有固定大小,并且始终包含相同的信息
- 主机是symmetic - 任何主机都可以发出请求并响应请求
我想制作一些简单的数学模型(和图表),描述上述系统的一些变化后可用的权衡:
- 如果您改变主机缓存响应的时间,会发生什么?这节省了多少数据?你避免了几次拨打网络电话? (显然取决于活动)
- 假设响应也是多播的,任何无意中听到其他客户端请求的主机都可以缓存它听到的所有响应 - 从而节省自己潜在的网络请求 - 这将如何影响系统的整体状态?
- 现在,这个变得有点复杂 - 每个请求 - 响应周期都会改变网络中一个其他主机的状态,因此更快的缓存变得越无效。如何模拟主机数量,活动速率,缓存的“脏”(假设主机监听其他响应)以及缓存有效期如何变化?不知道从哪里开始。
我真的不知道我需要什么样的数学模型,或者我是如何构建它的。显然,只更改两个参数会更容易,但特别是最后一个参数,我可能有四个变量,我想要探索。
帮助和建议表示赞赏。