如何将我的参数(权重,偏差)添加到符号中的参数?

时间:2018-11-13 02:02:07

标签: arguments symbols mxnet

我正在尝试像这样修改卷积的权重。 为此,我制作,初始化我的参数(权重,偏差),并使用它们对输入图像进行卷积。 但是,它显示了错误,因为我的参数不是符号中的参数。

如何将我的参数添加到符号中的参数? 如果您让我知道,我将不胜感激。

1 个答案:

答案 0 :(得分:0)

如果要将参数传递给自定义运算符,则必须通过init方法进行。

来自https://github.com/apache/incubator-mxnet/issues/5580的以下代码段说明了您的需求:

class Softmax(mx.operator.CustomOp):

    def __init__(self, xxx, yyy):  # arguments xxx, and yyy
        self.xxx = xxx
        self.yyy = yyy
    def forward(self, is_train, req, in_data, out_data, aux):
        x = in_data[0].asnumpy()
        y = np.exp(x - x.max(axis=1).reshape((x.shape[0], 1)))
        y /= y.sum(axis=1).reshape((x.shape[0], 1))
        print self.xxx, self.yyy
        self.assign(out_data[0], req[0], mx.nd.array(y))

    def backward(self, req, out_grad, in_data, out_data, in_grad, aux):
        l = in_data[1].asnumpy().ravel().astype(np.int)
        y = out_data[0].asnumpy()
        y[np.arange(l.shape[0]), l] -= 1.0
        self.assign(in_grad[0], req[0], mx.nd.array(y))

@mx.operator.register("softmax")
class SoftmaxProp(mx.operator.CustomOpProp):
    def __init__(self, xxx, yyy):
        super(SoftmaxProp, self).__init__(need_top_grad=False)

        # add parameter
        self.xxx = xxx
        self.yyy = yyy
    def list_arguments(self):
        return ['data', 'label', 'xxx', 'yyy']

    def list_outputs(self):
        return ['output']

    def infer_shape(self, in_shape):
        data_shape = in_shape[0]
        label_shape = (in_shape[0][0],)
        output_shape = in_shape[0]
        return [data_shape, label_shape], [output_shape], []

    def create_operator(self, ctx, shapes, dtypes):
        return Softmax(xxx=self.xxx, yyy=self.yyy)

查看https://mxnet.incubator.apache.org/faq/new_op.html以获得完整信息。

Vishaal