我正在训练代理在离散环境中行动,我正在使用tf.distributions.Categorical
输出层,然后对它进行采样以创建softmax输出以确定要采取的措施。我这样创建我的政策网络:
pi_eval, _ = self._build_anet(self.state, 'pi', reuse=True)
def _build_anet(self, state_in, name, reuse=False):
w_reg = tf.contrib.layers.l2_regularizer(L2_REG)
with tf.variable_scope(name, reuse=reuse):
layer_1 = tf.layers.dense(state_in, HIDDEN_LAYER_NEURONS, tf.nn.relu, kernel_regularizer=w_reg, name="pi_l1")
layer_2 = tf.layers.dense(layer_1, HIDDEN_LAYER_NEURONS, tf.nn.relu, kernel_regularizer=w_reg, name="pi_l2")
a_logits = tf.layers.dense(layer_2, self.a_dim, kernel_regularizer=w_reg, name="pi_logits")
dist = tf.distributions.Categorical(logits=a_logits)
params = tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES, scope=name)
return dist, params
然后使用tf.distributions.Categorical webpage中的示例,对网络进行采样并构建一个类分发输出以用作softmax输出:
n = 1e4
self.logits_action = tf.cast(tf.histogram_fixed_width(values=pi_eval.sample(int(n)), value_range=[0, 1], nbins=self.a_dim), dtype=tf.float32) / n
像这样运行:
softmax = self.sess.run([self.logits_action], {self.state: state[np.newaxis, :]})
但是输出仅具有两个非零条目:
[0.44329998 0. 0. 0.5567 ]
[0.92139995 0. 0. 0.0786 ]
[0.95699996 0. 0. 0.043 ]
[0.7051 0. 0. 0.2949]
我的直觉与documentation说的value_range
有关:
value_range:形状2的张量与值具有相同的dtype。值<= value_range [0]将映射到hist [0],值> = value_range 1 将被映射到hist [-1]。
但是我不确定应该使用哪个值范围?我想知道是否有人有想法吗?
答案 0 :(得分:0)
确实,我怀疑这与value_range
有关,我应该将操作尺寸的上限设置为
value_range=[0, self.a_dim]