我想知道何时决定使用强化学习来解决以前通过数学优化方法解决过的问题-想想旅行推销员问题,工作计划或出租车共享问题。
由于强化学习旨在以与运营研究试图优化某个成本函数的结果类似的方式来最小化/最大化某个成本/奖励函数,因此我认为这是可以由两方之一解决的问题可能会被对方解决。但是,是这种情况吗?两者之间需要权衡吗?关于上述问题,我真的没有看到太多关于RL的研究,但我可能会误会。
如果有任何见解,将不胜感激!
答案 0 :(得分:2)
这是我的两分钱。我认为,尽管两种近似都有一个共同的目标(最佳决策),但它们的基本工作原理是不同的。本质上,强化学习是一种数据驱动的方法,其中优化过程是通过代理与环境的交互(即数据)来实现的。另一方面,Optimization Research使用了其他方法,这些方法需要更深入地了解问题和/或施加更多假设。
存在许多问题,尤其是学术或玩具问题,可以同时应用RL和OR两种近似值。在现实世界的应用程序中,我想如果您能够满足OR所要求的所有假设,那么RL不会取得更好的结果。不幸的是,情况并非总是如此,因此RL在这种情况下更有用。
但是,请注意,有些方法尚不清楚RL和OR之间的区别。
答案 1 :(得分:1)
帕勃罗提供了很好的解释。我的研究实际上是在强化学习与模型预测控制之间。 MPC是一种基于轨迹优化的控制方法。强化学习只是一种数据驱动的优化算法,可用于您的上述示例。这是使用RL的traveling salesman problem的论文。
最大的区别实际上是这些:
强化学习方法
优化方法
性能取决于型号。如果模型不好,优化将很糟糕。
由于性能是基于模型的,因此识别“完美”模型非常昂贵。在能源行业,这种针对一个工厂的模型需要花费数百万美元,尤其是因为运行条件会随着时间而变化。
保证最优性。关于这些方法可确保鲁棒性,可行性和稳定性的证明,已有很多论文发表。
易于解释。使用优化方法的控制和决策很容易解释,因为您可以进入模型并计算执行某项操作的原因。在RL情况下,这通常是神经网络,完全是黑匣子。因此,对于安全敏感的问题,目前很少使用RL。
取决于预测范围的在线计算非常昂贵,因为在每个时间步上,我们都必须根据当前状态优化轨迹。