我正在解决加州理工学院机器学习课程(http://work.caltech.edu/homework/hw1.pdf)的作业1。为解决问题7-10,我们需要实施PLA。这是我在python中的实现:
import sys,math,random
w=[] # stores the weights
data=[] # stores the vector X(x1,x2,...)
output=[] # stores the output(y)
# returns 1 if dot product is more than 0
def sign_dot_product(x):
global w
dot=sum([w[i]*x[i] for i in xrange(len(w))])
if(dot>0):
return 1
else :
return -1
# checks if a point is misclassified
def is_misclassified(rand_p):
return (True if sign_dot_product(data[rand_p])!=output[rand_p] else False)
# loads data in the following format:
# x1 x2 ... y
# In the present case for d=2
# x1 x2 y
def load_data():
f=open("data.dat","r")
global w
for line in f:
data_tmp=([1]+[float(x) for x in line.split(" ")])
data.append(data_tmp[0:-1])
output.append(data_tmp[-1])
def train():
global w
w=[ random.uniform(-1,1) for i in xrange(len(data[0]))] # initializes w with random weights
iter=1
while True:
rand_p=random.randint(0,len(output)-1) # randomly picks a point
check=[0]*len(output) # check is a list. The ith location is 1 if the ith point is correctly classified
while not is_misclassified(rand_p):
check[rand_p]=1
rand_p=random.randint(0,len(output)-1)
if sum(check)==len(output):
print "All points successfully satisfied in ",iter-1," iterations"
print iter-1,w,data[rand_p]
return iter-1
sign=output[rand_p]
w=[w[i]+sign*data[rand_p][i] for i in xrange(len(w))] # changing weights
if iter>1000000:
print "greater than 1000"
print w
return 10000000
iter+=1
load_data()
def simulate():
#tot_iter=train()
tot_iter=sum([train() for x in xrange(100)])
print float(tot_iter)/100
simulate()
根据问题7的答案的问题,当训练集的大小但我的实现平均为15 iterations
时,感知器应该在50000 iteration
左右收敛。训练数据是随机生成的,但我正在生成简单线条的数据,如x = 4,y = 2,等等。这是我得到错误答案还是有其他错误的原因。我的训练数据样本(使用y = 2可分离):
1 2.1 1
231 100 1
-232 1.9 -1
23 232 1
12 -23 -1
10000 1.9 -1
-1000 2.4 1
100 -100 -1
45 73 1
-34 1.5 -1
格式为x1 x2 output(y)
答案 0 :(得分:4)
很明显,您正在努力学习Python和分类算法。
然而,由于您的代码存在一些样式效率低下的问题,因此很难帮助您,并且这可能会导致问题的一部分成为您与教授之间的沟通错误。
例如,教授是否希望您在"在线模式中使用Perceptron"或"离线模式"?在"在线模式"你应该按顺序移动数据点,你不应该重新访问任何点。从分配的猜想看它应该只需要15次迭代来收敛,我很好奇这是否意味着前15个数据点按顺序排列会导致分类器线性地分离你的数据集。
通过替换随机抽样,您可能会导致自己花费更长的时间(尽管,根据数据样本的分布和大小,这是不可能的,因为您大致预期任何15点将会和第一个一样做。)
另一个问题是,在您检测到正确分类的点(not is_misclassified
评估为True
时的情况)后,如果您再见到 错误分类的新随机点,然后你的代码将进入外部while
循环的较大部分,然后返回到顶部,它将覆盖全部为0的check
向量。
这意味着您的代码检测到它已正确分类所有点的唯一方法是它评估它们的特定随机序列(在内部while
循环中)恰好是一个全部为1的字符串#39; s除了神奇的能力,在任何特定的0,通过数组,它正确分类。
我无法正式确定为什么我认为这会让程序花费更长的时间,但似乎你的代码需要更严格的融合形式,它必须同时学习所有内容在已经更新了一堆之后,在训练阶段后期的一个整体通行方式。
检查我对此的直觉是否蹩脚的一种简单方法是将行check=[0]*len(output)
全部移到while loop
之外并仅将其初始化一次。
使代码更易于管理的一些一般性建议:
不要使用全局变量。相反,让你的函数加载和准备数据返回的东西。
您可以说有几个地方,例如
return (True if sign_dot_product(data[rand_p])!=output[rand_p] else False)
这种事情可以简化为
return sign_dot_product(data[rand_p]) != output[rand_p]
更容易阅读并传达您尝试以更直接的方式检查的标准。
我怀疑效率起着重要的作用,因为这似乎是一种教学练习,但是有很多方法可以重构你对列表理解的使用,这可能是有益的。如果可能,只需使用具有本机数组类型的NumPy
。目睹如何用list
操作来表达这些操作中的某些操作是可悲的。即使你的教授不希望你用NumPy
来实施,因为她或他正试图教你纯粹的基础知识,我说只要忽略它们就去学习NumPy
。它将帮助您在Python中使用这些类型的操作获得工作,实习和实践技能,而不是与本机数据类型进行斗争,以执行它们不是为数组计算而设计的(数组计算)。