我有一个包含7个子文件夹的文件夹,每个子文件夹包含8个文件。通常我有56个列车的文件。对于测试集,我有一个包含7个子文件夹的文件夹,每个子文件夹包含2个文件(通常为测试集的14个文件)。我有另一个文件,其中包含火车组的1000个最常见的单词。我必须检查这1000个单词是否在火车组中或没有。如果它们存在,那么它应该返回+1,否则它应该返回-1来制作一个向量。然后我必须用双极感知器(神经网络)对文本进行分类。阈值为0.1,学习率为0.5。分配权重后的部分不能很好地工作。我该如何更改代码?
import os
file="c:/python34/1000CommonWords.txt"
folder_path="c:/python34/train"
def vector (folder_path, file):
t=[]
vector=[]
vector2=[]
m=[]
for folder in sorted(os.listdir(folder_path)):
folder_path1 = os.path.join(folder_path, folder)
for folder1 in sorted(os.listdir(folder_path1)):
file=os.path.join(folder_path1, folder1)
tex = open(file,encoding="utf-8")
tex=tex.read().split()
t=tex+t
with open (file, encoding="utf-8") as f1:
f1=f1.read().split()
for c in t: # to make the [1, -1] vector
for i in c:
for j in f1:
if j in i:
m.append (+1)
else:
m.append (-1)
vector.append(m)
vector2.append(vector)
#return vector2
w=[[0 for row in range(len(vector2[0][0] ))] for clmn in range(7)] # weights
b=[0 for wb in range(7)] # bias
l=0
while l<=1000:
w_old=w[:]
b_old=b[:]
for Class in vector2:
for text in Class:
node=0
while node<7:
i=0
y_in=0
while i<len(text):
y_in= text[i]*w[node][i]
i+=1
y_in=b[node]+y_in
if y_in<=-0.1: # activatin function
y=-1
elif (y_in <=0.1 and y_in>=-0.1):
y=0
else:
y=1
if node==vector2.index(Class):
target=1 # assign target
else:
target=-1
if target!=y:
for j in range(0,len(w[0])): # update weights
w[node][j]=w[nod][j]+0.5*text[j]*target
b[node]=b[node]+0.5*target
# print(len(w))
# print(len(w[0]))
node+=1
l+=1
print (w)
print(b)
文件夹名称:(语言为波斯语)
['اجتماعی','اديان','اقتصادی','سیاسی','فناوري','مسائلراهبرديايران','ورزشی']
每个文件夹都包含以下文件:
['13810320-txt-0132830_utf.txt','13810821-txt-0172902_utf.txt','13830627-txt-0431835_utf.txt','13850502-txt-0751465_utf.txt','13850506-txt-0754145_utf .txt','13850723-txt-0802407_utf.txt','13860630-txt-1002033_utf.txt','13870730-txt-1219770_utf.txt'] ['13860431-txt-0963964_utf.txt','13860616-txt-0992811_utf.txt','13860625-txt-0997674_utf.txt','13860722-txt-1013944_utf.txt','13860802-txt-1021550_utf.txt' ,'13870329-txt-1149735_utf.txt','13870903-txt-1240455_utf.txt','13871001-txt-1256894_utf.txt'] ['13860321-txt-0940314_utf.txt','13860930-txt-1055987_utf.txt','13870504-txt-1169324_utf.txt','13880223-txt-1337283_utf.txt','13890626-txt-1614537_utf.txt' ,'13891005-txt-1681151_utf.txt','13891025-txt-1694816_utf.txt','13891224-txt-1732745_utf.txt'] ['13821109-txt-0342352_utf.txt','13840501-txt-0558076_utf.txt','13840725-txt-0599073_utf.txt','13850728-txt-0809843_utf.txt','13850910-txt-0834263_utf.txt' ,'13871015-txt-1264594_utf.txt','13880304-txt-1345179_utf.txt','13890531-txt-1596470_utf.txt'] ['13850816-txt-0807093_utf.txt','13850903-txt-0830601_utf.txt','13851012-txt-0853818_utf.txt','13870605-txt-1185666_utf.txt','13890301-txt-1542795_utf.txt' ,'13890626-txt-1614287_utf.txt','13890716-txt-1628932_utf.txt','13900115-txt-1740412_utf.txt'] ['13870521-txt-1177039_utf.txt','13870706-txt-1196885_utf.txt','13870911-txt-1220118_utf.txt','13871029-txt-1273519_utf.txt','13880118-txt-1312303_utf.txt' ,'13880303-txt-1202027_utf.txt','13880330-txt-1132374_utf.txt','13880406-txt-1360964_utf.txt'] ['13840803-txt-0602704_utf.txt','13841026-txt-0651073_utf.txt','13880123-txt-1315587_utf.txt','13880205-txt-1324336_utf.txt','13880319-txt-1353520_utf.txt' ,'13880621-txt-1401062_utf.txt','13890318-txt-1553380_utf.txt','13890909-txt-1665470_utf.txt']
答案 0 :(得分:2)
好的,这里是任何分类任务的一般规则(简而言之):要对任何内容(文本,图像,声音......)进行分类,首先需要从数据点中提取特征(在每种情况下都是如此)文本文件)。对于您的情况,功能是您提到的1000个单词。因此,每个训练案例的每个特征向量的长度都为1000.然后将这些示例提供给您想要的模型(任何类型的神经网络或任何其他模型),然后获取每个类的输出。在这里,您必须有一个成本函数,用于确定模型的输出偏离每个输入示例(在您的情况下为每个文本文件)的真实标签的多少,并最小化关于模型参数的成本函数
您的愿望模型有很多实现。构建特征向量后,您可以使用这些公开可用的实现。
使用Perceptron学习规则训练的线性神经网络:http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Perceptron.html
使用其他激活函数并使用渐变下降训练的神经网络:http://scikit-learn.org/dev/modules/neural_networks_supervised.html
我建议你使用用梯度descnet而不是Perceptrons神经网络训练的神经网络类型。感知器只能学习线性可分的分类器。他们的假设是您的输入数据是线性可分的,如下所示:
该图中的点是数据点。但是,在实际情况中,大多数数据点不是线性可分的。只是为了给你一个想法,体育文本文档可能与社交文档共享很多单词。因此,您最好使用非线性分类器,例如神经网络。