了解感知器的工作原理,并尝试从中创建功能。
我最近在youtube中观看了一段视频,作为对上述主题的介绍。
现在,我试图模仿他的功能,我想尝试将其应用到样本数据集中:
# x1 x2 y
data = [ [3.5, 1.5, 1],
[2.0, 1.0, 0],
[4.0, 1.5, 1],
[3.0, 1.0, 0],
[3.5, 0.5, 1],
[2.0, 0.5, 0],
[5.5, 1.0, 1],
[1.0, 1.0, 0],
[4.5, 1.0, 1] ]
data = pd.DataFrame(data, columns = ["Length", "Width", "Class"])
S型函数:
def sigmoid(x):
x = 1 / (1 + np.exp(-x))
return x
感知器功能:
w1 = np.random.randn()
w2 = np.random.randn()
b = np.random.randn()
def perceptron(x1,x2, w1, w2, b):
z = (w1 * x1) + (w2 * x2) + b
return sigmoid(z)
我的问题是如何在Perceptron内添加成本函数,并根据参数循环n次以使用成本函数调整权重?
def get_cost_slope(b,a):
"""
b = predicted value
a = actual value
"""
sqrerror = (b - a) ** 2
slope = 2 * (b-a)
return sqrerror, slope
答案 0 :(得分:2)
您需要创建一种可以在感知器中反向传播并优化权重的方法。
def optimize( a , b ):
sqrerror = (b - a) ** 2
cost_deriv = 2 * (b-a)
sigmoid_deriv = z * ( 1 - z ) # derivative of sigmoid function
learning_rate = 0.001 # Used to scale the gradients
w1 -= ( cost_deriv * sigmoid_deriv * x1 ) * learning_rate # Gradient Descent update rule
w2 -= ( cost_deriv * sigmoid_deriv * x2 ) * learning_rate
b -= ( cost_deriv * sigmoid_deriv ) * learning_rate
自
其中$ J $是成本函数。