迷宫的MDP政策图

时间:2018-04-17 13:37:38

标签: python-3.x matlab matplotlib matlab-figure markov-decision-process

我有一个5x-5迷宫指定如下。

r = [1  0   1   1   1
     1  1   1   0   1
     0  1   0   0   1
     1  1   1   0   1
     1  0   1   0   1];

其中1是路径,0是墙。

假设我有一个函数foo(policy_vector,r),它将策略向量的元素映射到r中的元素。例如1 = UP,2 =右,3 =下,4 =左。 MDP的设置使得墙壁状态永远不会实现,因此图中忽略了这些状态的策略。

policy_vector' = [3 2 2 2 3 2 2 1 2 3 1 1 1 2 3 2 1 4 2 3 1 1 1 2 2]
symbols' = [v > > > v > > ^ > v ^ ^ ^ > v > ^ < > v ^ ^ ^ > >]

我试图在解决迷宫的背景下显示马尔可夫决策过程的政策决定。我怎么画一些看起来像这样的东西? Matlab是首选,但Python很好。

enter image description here

即使有些身体可以告诉我如何制作这样的情节,我也可以从那里弄明白。

enter image description here

1 个答案:

答案 0 :(得分:0)

enter image description here

function[] = policy_plot(policy,r)
    [row,col] = size(r);
    symbols = {'^', '>', 'v', '<'};
    policy_symbolic = get_policy_symbols(policy, symbols);
    figure()
    hold on
    axis([0, row, 0, col])
    grid on
    cnt = 1;
    fill([0,0,col,col],[row,0,0,row],'k')
    for rr = row:-1:1
        for cc = 1:col
            if r(row+1 - rr,cc) ~= 0 && ~(row == row+1 - rr && col == cc)
                fill([cc-1,cc-1,cc,cc],[rr,rr-1,rr-1,rr],'g')
                text(cc - 0.55,rr - 0.5,policy_symbolic{cnt})
            end
            cnt = cnt + 1;
        end
    end
    fill([cc-1,cc-1,cc,cc],[rr,rr-1,rr-1,rr],'b')
    text(cc - 0.70,rr - 0.5,'Goal')

function [policy_symbolic] = get_policy_symbols(policy, symbols)
    policy_symbolic = cell(size(policy));
    for ii = 1:length(policy)
        policy_symbolic{ii} = symbols{policy(ii)};
    end