Python中的Perceptron - 偏差不正确

时间:2016-11-02 03:18:50

标签: python algorithm machine-learning perceptron

对于某些输入X,例如:

[[ 1.456044 -7.058824]
 [-4.478022 -2.072829]
 [-7.664835 -6.890756]
 [-5.137363  2.352941]
 ...

Y,例如:

[ 1.  1.  1.  -1.  ...

这是我的感知训练功能:

def train(self, X, Y, iterations=1000):
    # Add biases to every sample.
    biases = np.ones(X.shape[0])
    X = np.vstack((biases, X.T)).T
    w = np.random.randn(X.shape[1])
    errors = []

    for _ in range(iterations):
        all_corr = True
        num_err = 0
        for x, y in zip(X, Y):
            correct = np.dot(w, x) * y > 0
            if not correct:
                num_err += 1
                all_corr = False
                w += y * x
        errors.append(num_err)
        # Exit early if all samples are correctly classified.
        if all_corr:
            break

    self.w = perpendicular(w[1:])
    self.b = w[0]
    return self.w, self.b, errors

当我打印错误时,我通常会看到类似的内容:

[28, 12, 10, 7, 10, 8, 11, 8, 0]

请注意,我收到0错误,但数据明显偏离了一些偏差:

Samples vs. Accuracy

例如,一次运行b

-28.6778508366

我看过this SO,但我们的算法没有看到差异。我想也许这就是我如何解释,然后绘制wb?我只是做一些非常简单的事情:

def plot(X, Y, w, b):
    area = 20
    fig = plt.figure()
    ax = fig.add_subplot(111)
    p = X[Y == 1]
    n = X[Y == -1]
    ax.scatter(p[:, 0], p[:, 1], s=area, c='r', marker="o", label='pos')
    ax.scatter(n[:, 0], n[:, 1], s=area, c='b', marker="s", label='neg')
    neg_w = -w
    xs = [neg_w[0], w[0]]
    ys = [neg_w[1], w[1]]  # My guess is that this is where the bias goes?
    ax.plot(xs, ys, 'r--', label='hyperplane')
    ...

1 个答案:

答案 0 :(得分:1)

是的,我认为你学到了正确的w但没有正确绘制分界线。

你有一个2d的数据集。因此,您的w有2个维度。比方说,w = [w1, w2]

分隔线应为w1 x x1 + w2 x x2 + b = 0。 我认为你在该线上使用两个点来绘制分隔线。这两点可以在下面找到:

  • 首先,我们将x1设置为0.我们得到x2 = -b/w2
  • 其次,我们将x2设为0.我们得到x1 = -b/w1

因此,这两点应该是(0, -b/w2)(-b/w1, 0)。在您的公式xsys中,我没有看到如何使用b。你可以尝试设置:

# Note w[0] = w1, w[1] = w2. 
xs = [0, -b/w[0]]   # x-coordinate of the two points on line.
ys = [-b/w[1], 0]   # y-coordinate.

请参阅@gwg提到的this幻灯片中的下图。红色实线是您通过w(而不是self.w)学习的分隔符。红色虚线箭头表示:在分隔符的那一侧,sum(wx)的符号>它在基于边缘的模型(感知器就是这样的模型)中也很有用,可以计算学习模型的边际。也就是说,如果你从分隔符开始,并采取分隔符垂直方向,你到达的第一个例子定义了那边的“边距”,这是你到目前为止的距离(注意你可以从任何地方开始)在分隔符上)。

snapshot from http://www.cs.princeton.edu/courses/archive/fall16/cos402/lectures/402-lec4.pdf