用于性别分类的SVM:使用线性内核100%正确的结果,但使用RBF的结果更差

时间:2013-10-25 22:16:40

标签: image-processing classification svm scikit-learn

我根据脸部图像性别分类制作了一个小程序。我使用Yale face databse(男性为175张图像,女性为相同数字),将它们转换为灰度和均衡直方图,因此在预处理后图像看起来像这样:

enter image description here

我运行以下代码来测试结果(它使用SVM和线性内核):

def run_gender_classifier():
    Xm, Ym = mkdataset('gender/male', 1)     # mkdataset just preprocesses images, 
    Xf, Yf = mkdataset('gender/female', 0)   #  flattens them and stacks into a matrix
    X = np.vstack([Xm, Xf])
    Y = np.hstack([Ym, Yf])
    X_train, X_test, Y_train, Y_test = train_test_split(X, Y,
                                                    test_size=0.1,
                                                    random_state=100)
    model = svm.SVC(kernel='linear')
    model.fit(X_train, Y_train)
    print("Results:\n%s\n" % (
        metrics.classification_report(
            Y_test, model.predict(X_test))))

100%精度

In [22]: run_gender_classifier()
Results:
             precision    recall  f1-score   support

          0       1.00      1.00      1.00        16
          1       1.00      1.00      1.00        19

avg / total       1.00      1.00      1.00        35

我可以期待不同的结果,但100%正确的图像分类看起来真的很可疑。

此外,当我将内核更改为 RBF 时,结果变得非常糟糕:

In [24]: run_gender_classifier()
Results:
             precision    recall  f1-score   support

          0       0.46      1.00      0.63        16
          1       0.00      0.00      0.00        19

avg / total       0.21      0.46      0.29        35

对我来说这似乎更奇怪。

所以我的问题是:

  1. 我的方法或代码是否有任何错误?
  2. 如果没有,线性内核的结果怎么会这么好,而RBF的结果如此糟糕?
  3. 注意,我通过逻辑回归获得了100%正确的结果,并且使用深度置信网络获得了非常差的结果,因此它不是特定于SVM,而是针对线性和非线性模型。


    为了完整起见,这是我的预处理和制作数据集的代码:

    import cv2
    from sklearn import linear_model, svm, metrics
    from sklearn.cross_validation import train_test_split
    
    
    def preprocess(im):
        im = cv2.cvtColor(im, cv2.COLOR_BGR2GRAY)
        im = cv2.resize(im, (100, 100))
        return cv2.equalizeHist(im)
    
    
    def mkdataset(path, label):
        images = (cv2.resize(cv2.imread(fname), (100, 100))
                  for fname in list_images(path))
        images = (preprocess(im) for im in images)
        X = np.vstack([im.flatten() for im in images])
        Y = np.repeat(label, X.shape[0])
        return X, Y
    

2 个答案:

答案 0 :(得分:5)

所有描述的模型都需要调整参数:

  • 线性SVM:C
  • RBF SVM:C,gamma
  • DBN:图层计数,神经元计数,输出分类器,训练率......

你只需省略这个元素。所以很自然,具有最小可调参数的模型表现得更好 - 因为简单地说默认参数实际工作的概率更大。

100%得分总是看起来很可疑,你应该“手动”仔细检查 - 将数据分成火车和测试(放入不同的目录),一部分训练,将模型保存到文件中。然后在单独的代码中 - 加载模型,并在测试文件上测试它,并从模型中显示图像+标签。这样你就可以确保没有implmenentation错误(因为你真的不关心是否有任何处理错误,如果你有一个物理证明你的模型识别那些面,对吧?)。这纯粹是“心理学方法”,这使得数据分割/共享和进一步评估中没有错误显而易见。

<强>更新

正如评论中所建议的,我还检查了您的数据集,并且正如官方网站上所述:

  

扩展的耶鲁人脸数据库B包含16个人物,包括9个姿势和64个照明条件下的28个人物拍摄的图像。

所以这肯定是一个问题 - 这不是性别识别的数据集。您的分类器只记忆这28个科目,这些科目很容易分为男/女。它根本不适用于其他主题的任何图像。这个数据集中唯一的“有价值的”部分是28个独特个体的面部集合,您可以手动提取,但28个图像似乎至少有一个数量级太小而无法使用。

答案 1 :(得分:-2)

朋友从我理解你对你的问题的描述,我认为解释很简单,因为线性内核的问题比RBF更好,相信你的逻辑是正确的但是你应该使用RBF有些错误我认为它会解决你的问题,继续尝试开发一种只使用线性内核的方法