马尔可夫决策过程的编码问题

时间:2019-06-23 18:19:54

标签: python markov-decision-process

我正在尝试编写马尔可夫决策过程(MDP),但遇到一些问题。您能否检查一下我的代码,并找出为什么它不起作用

我试图用一些小数据来做到这一点,并且它可以工作并给我必要的结果,我认为这是正确的。但是我的问题是该代码的一般化。是的,我了解MDP库,但是我需要编写这一代码。这段代码有效,我希望在类中得到相同的结果:

import pandas as pd
data = [['3 0', 'UP', 0.6, '3 1', 5, 'YES'], ['3 0', 'UP', 0.4, '3 2', -10, 'YES'], \
    ['3 0', 'RIGHT', 1, '3 3', 10, 'YES'], ['3 1', 'RIGHT', 1, '3 3', 4, 'NO'], \
    ['3 2', 'DOWN', 0.6, '3 3', 3, 'NO'], ['3 2', 'DOWN', 0.4, '3 1', 5, 'NO'], \
    ['3 3', 'RIGHT', 1, 'EXIT', 7, 'NO'], ['EXIT', 'NO', 1, 'EXIT', 0, 'NO']]

df = pd.DataFrame(data, columns = ['Start', 'Action', 'Probability', 'End', 'Reward', 'Policy'], \
                  dtype = float) #initial matrix

point_3_0, point_3_1, point_3_2, point_3_3, point_EXIT = 0, 0, 0, 0, 0

gamma = 0.9 #it is a discount factor

for i in range(100): 
    point_3_0 = gamma * max(0.6 * (point_3_1 + 5) + 0.4 * (point_3_2 - 10), point_3_3 + 10)
    point_3_1 = gamma * (point_3_3 + 4)
    point_3_2 = gamma * (0.6 * (point_3_3 + 3) + 0.4 * (point_3_1 + 5))
    point_3_3 = gamma * (point_EXIT + 7)


print(point_3_0, point_3_1, point_3_2, point_3_3, point_EXIT)

但是这里我在某个地方犯了一个错误,它看起来太复杂了吗?您能帮我解决这个问题吗?!

gamma = 0.9

class MDP:

    def __init__(self, gamma, table):
        self.gamma = gamma
        self.table = table

    def Action(self, state):
        return self.table[self.table.Start == state].Action.values

    def Probability(self, state):
        return self.table[self.table.Start == state].Probability.values

    def End(self, state):
        return self.table[self.table.Start == state].End.values

    def Reward(self, state):
        return self.table[self.table.Start == state].Reward.values

    def Policy(self, state):
        return self.table[self.table.Start == state].Policy.values

mdp = MDP(gamma = gamma, table = df)

def value_iteration():
    states = mdp.table.Start.values
    actions = mdp.Action
    probabilities = mdp.Probability
    ends = mdp.End
    rewards = mdp.Reward
    policies = mdp.Policy

    V1 = {s: 0 for s in states}
    for i in range(100):
        V = V1.copy()
        for s in states:
            if policies(s) == 'YES':
                V1[s] = gamma * max(rewards(s) + [sum([p * V[s1] for (p, s1) \
                in zip(probabilities(s), ends(s))][actions(s)==a]) for a in set(actions(s))])
            else: 
                sum(probabilities[s] * ends(s))

    return V

value_iteration()

我希望每个点都有值,但得到:ValueError:包含多个元素的数组的真值是不明确的。使用a.any()或a.all()

2 个答案:

答案 0 :(得分:0)

您会收到此错误,因为策略= ['YES''YES''YES'],因此它包含3次'YES'。如果要检查,如果策略中的所有元素均为“是”,只需将policies(s) == 'YES'替换为all(x=='YES' for x in policies(s))

如果只想检查第一个元素,请更改为policies(s)[0] == 'YES'

有关不同方法,请参见帖子check if all elements in a list are identical

答案 1 :(得分:0)

对于所描述的第二个问题(假设(policies(s) == YES).any()解决了第一个问题),请注意,您使用此表达式初始化了常规的python列表

[sum([p * V[s1] for (p, s1) in zip(probabilities(s), ends(s))]

然后尝试使用索引[actions(s)==a]进行访问 python列表不支持多个索引,这会导致您遇到的TypeError