我提前道歉这可能是一个很长的问题,但是在我走的时候试试并缩短它。
也是一个小小的免责声明,我是机器学习的新手,并且只研究它大约2周,我理解神经网络的基础知识和张量流程编程以及强化学习如何工作但我所做的一切我学会了帮助我完成我的工作。
在所有强化的学习示例中,我看到他们都使用基于环境的状态和奖励(通常来自vizdoom或openai gym(这是一个Windows用户我不能使用atari或宇宙没有像docker和WSL))我一直在尝试做的是使用cv2的获取桌面窗口函数来返回一个数组,其中包含游戏窗口中每个像素的像素值(即时尝试它在一个厄运模式上)很简单因为我的电脑不是非常强大而且那很好用。
所以为了获得奖励,我想使用cv2的matchtemplate功能来检查游戏画面是否与胜利屏幕匹配,如果是,或者如果屏幕与失败的屏幕匹配,那么也惩罚我想要的状态只使用我的cv2 getdesktopwindow函数的输出为我的DRQN网络(这也与openai的健身房推车和使用开放的ai env工具完美配合)但我无法弄清楚如何用厄运和cv2做到这一点。
我遗漏了很多东西以保持简单,我也删除了大部分没有用的代码,但如果有帮助的话我还有旧东西,所以是的,只要问你是否需要它。任何帮助,甚至只是链接到一些资源,解释如何为RL算法设置自定义变量将是非常贬值,因为我只能找到像openai gym等东西的东西,谢谢。 :)