感知器分类

时间:2015-12-28 21:02:18

标签: python machine-learning nlp neural-network

我有一个包含7个子文件夹的文件夹,每个子文件夹包含8个文件。通常我有56个列车的文件。对于测试集,我有一个包含7个子文件夹的文件夹,每个子文件夹包含2个文件(通常为测试集的14个文件)。我有另一个文件,其中包含火车组的1000个最常见的单词。我必须检查这1000个单词是否在火车组中或没有。如果它们存在,那么它应该返回+1,否则它应该返回-1来制作一个向量。然后我必须用双极感知器(神经网络)对文本进行分类。阈值为0.1,学习率为0.5。分配权重后的部分不能很好地工作。我该如何更改代码?

import os
file="c:/python34/1000CommonWords.txt"
folder_path="c:/python34/train"
def vector (folder_path, file):
    t=[]   
    vector=[]
    vector2=[]
    m=[]

    for folder in sorted(os.listdir(folder_path)):
        folder_path1 = os.path.join(folder_path, folder)
        for folder1 in sorted(os.listdir(folder_path1)):
            file=os.path.join(folder_path1, folder1)
            tex = open(file,encoding="utf-8") 
            tex=tex.read().split()
            t=tex+t






        with open (file, encoding="utf-8") as f1:
            f1=f1.read().split()


            for c in t:      # to make the [1, -1] vector
               for i in c:
                    for j in f1:
                        if j in i:
                            m.append (+1)
                        else:
                            m.append (-1)
                    vector.append(m)
                    vector2.append(vector)
                    #return vector2

                    w=[[0 for row in range(len(vector2[0][0] ))] for clmn in range(7)]   # weights
                    b=[0 for wb in range(7)]   # bias
                    l=0
                    while l<=1000:
                        w_old=w[:]
                        b_old=b[:]
                        for Class in vector2:
                            for text in Class:
                                node=0
                                while node<7:
                                    i=0
                                    y_in=0
                                    while i<len(text):
                                        y_in= text[i]*w[node][i]
                                        i+=1
                                        y_in=b[node]+y_in
                                        if y_in<=-0.1:  # activatin function
                                            y=-1
                                        elif (y_in <=0.1 and y_in>=-0.1):
                                            y=0
                                        else:
                                            y=1

                                        if node==vector2.index(Class):
                                            target=1  # assign target
                                        else:
                                            target=-1

                                        if target!=y:
                                            for j in range(0,len(w[0])): # update weights
                                                w[node][j]=w[nod][j]+0.5*text[j]*target
                                                b[node]=b[node]+0.5*target
                                              #  print(len(w)) 
                                               # print(len(w[0]))
                                                node+=1
                                                l+=1
                                                print (w)
                                                print(b)

文件夹名称:(语言为波斯语)

['اجتماعی','اديان','اقتصادی','سیاسی','فناوري','مسائلراهبرديايران','ورزشی']

每个文件夹都包含以下文件:

['13810320-txt-0132830_utf.txt','13810821-txt-0172902_utf.txt','13830627-txt-0431835_utf.txt','13850502-txt-0751465_utf.txt','13850506-txt-0754145_utf .txt','13850723-txt-0802407_utf.txt','13860630-txt-1002033_utf.txt','13870730-txt-1219770_utf.txt'] ['13860431-txt-0963964_utf.txt','13860616-txt-0992811_utf.txt','13860625-txt-0997674_utf.txt','13860722-txt-1013944_utf.txt','13860802-txt-1021550_utf.txt' ,'13870329-txt-1149735_utf.txt','13870903-txt-1240455_utf.txt','13871001-txt-1256894_utf.txt'] ['13860321-txt-0940314_utf.txt','13860930-txt-1055987_utf.txt','13870504-txt-1169324_utf.txt','13880223-txt-1337283_utf.txt','13890626-txt-1614537_utf.txt' ,'13891005-txt-1681151_utf.txt','13891025-txt-1694816_utf.txt','13891224-txt-1732745_utf.txt'] ['13821109-txt-0342352_utf.txt','13840501-txt-0558076_utf.txt','13840725-txt-0599073_utf.txt','13850728-txt-0809843_utf.txt','13850910-txt-0834263_utf.txt' ,'13871015-txt-1264594_utf.txt','13880304-txt-1345179_utf.txt','13890531-txt-1596470_utf.txt'] ['13850816-txt-0807093_utf.txt','13850903-txt-0830601_utf.txt','13851012-txt-0853818_utf.txt','13870605-txt-1185666_utf.txt','13890301-txt-1542795_utf.txt' ,'13890626-txt-1614287_utf.txt','13890716-txt-1628932_utf.txt','13900115-txt-1740412_utf.txt'] ['13870521-txt-1177039_utf.txt','13870706-txt-1196885_utf.txt','13870911-txt-1220118_utf.txt','13871029-txt-1273519_utf.txt','13880118-txt-1312303_utf.txt' ,'13880303-txt-1202027_utf.txt','13880330-txt-1132374_utf.txt','13880406-txt-1360964_utf.txt'] ['13840803-txt-0602704_utf.txt','13841026-txt-0651073_utf.txt','13880123-txt-1315587_utf.txt','13880205-txt-1324336_utf.txt','13880319-txt-1353520_utf.txt' ,'13880621-txt-1401062_utf.txt','13890318-txt-1553380_utf.txt','13890909-txt-1665470_utf.txt']

1 个答案:

答案 0 :(得分:2)

好的,这里是任何分类任务的一般规则(简而言之):要对任何内容(文本,图像,声音......)进行分类,首先需要从数据点中提取特征(在每种情况下都是如此)文本文件)。对于您的情况,功能是您提到的1000个单词。因此,每个训练案例的每个特征向量的长度都为1000.然后将这些示例提供给您想要的模型(任何类型的神经网络或任何其他模型),然后获取每个类的输出。在这里,您必须有一个成本函数,用于确定模型的输出偏离每个输入示例(在您的情况下为每个文本文件)的真实标签的多少,并最小化关于模型参数的成本函数

您的愿望模型有很多实现。构建特征向量后,您可以使用这些公开可用的实现。

使用Perceptron学习规则训练的线性神经网络http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Perceptron.html

使用其他激活函数并使用渐变下降训练的神经网络http://scikit-learn.org/dev/modules/neural_networks_supervised.html

我建议你使用用梯度descnet而不是Perceptrons神经网络训练的神经网络类型。感知器只能学习线性可分的分类器。他们的假设是您的输入数据是线性可分的,如下所示:

https://upload.wikimedia.org/wikipedia/commons/2/20/Svm_separating_hyperplanes.png

该图中的点是数据点。但是,在实际情况中,大多数数据点不是线性可分的。只是为了给你一个想法,体育文本文档可能与社交文档共享很多单词。因此,您最好使用非线性分类器,例如神经网络。