Thinbug
News
为什么不使用模拟环境作为已知模型进行基于模型的强化学习
时间:2020-06-04 04:30:27
标签:
reinforcement-learning
我是DRL的新手,我看到很多案例使用模拟模型作为RL学习环境来进行无模型的RL,例如DQN家族和PG家族。所以问题是
1,我们已经有了一个已知的仿真模型,以及它是否会 更好地直接使用模型来做基于模型的RL?
2,如果这样做,当我得到一个 确定性模型? (其中P(next_state |(action,state))为 始终为0或1)
0 个答案:
没有答案
相关问题
Q学习与时间差异与基于模型的强化学习
强化学习:如何使用模拟器创建新的游戏环境
强化学习是否适用于RANDOM环境?
用Keras模型进行强化学习
如何模拟我的强化学习环境?
如何使用强化学习模型MDP Q学习?
深度强化学习用于延迟学习环境的配置
为什么不使用模拟环境作为已知模型进行基于模型的强化学习
强化学习DQN环境结构
我的简单强化学习模型没有学习。我不知道为什么
最新问题
我写了这段代码,但我无法理解我的错误
我无法从一个代码实例的列表中删除 None 值,但我可以在另一个实例中。为什么它适用于一个细分市场而不适用于另一个细分市场?
是否有可能使 loadstring 不可能等于打印?卢阿
java中的random.expovariate()
Appscript 通过会议在 Google 日历中发送电子邮件和创建活动
为什么我的 Onclick 箭头功能在 React 中不起作用?
在此代码中是否有使用“this”的替代方法?
在 SQL Server 和 PostgreSQL 上查询,我如何从第一个表获得第二个表的可视化
每千个数字得到
更新了城市边界 KML 文件的来源?