所以我想使用我在下面定义的数据(有两个标签)并使用KNN进行培训和测试以及交叉验证。我找不到有用的MATLAB教程,所以如果你们能帮助我,我会很感激。
想象一下我有
Data=rand(2000,2);
Lables=[ones(1000,1);-1*ones(1000,1)];
我想使用KNN并拥有:
答案 0 :(得分:0)
您提供的数据不是很好的数据集,因为两组之间没有差异。你应该使用
Data = [rand(1000,2)+delta;rand(1000,2)-delta];
最大的三角洲,分类越容易 kNN背后的想法是你不需要任何培训。
假设您有一个带有N个标记值的数据集。现在假设您有一个您想要分类的条目。
如果考虑1-NN分类器,则计算输入与N标记训练示例之间的距离。输入被分类为具有最短距离的示例的标签。
在k-NN分类器中,您可以检查具有最短距离的示例的k个标签。拥有最多NN的班级获胜。
在MATLAB中,您可以使用knnserach查找最近的k个索引,或者只使用knnclassify来获取标签。
这是knnserach的一个例子
delta = 0.3;
N1 = 50;
N2 = 50;
Data1 = rand(1000,2)+delta;
Data2 = rand(1000,2)-delta;
train = [Data1(1:N1,:);Data2(1:N2,:)]; % create a training set
labels = [ones(N1,1);-1*ones(N2,1)]; % create labels for the training
plot(train(1:N1,1),train(1:N1,2),'xb',train(N1+1:end,1),train(N1+1:end,2),'or')
k = 7; % Can't be an even number
idx = knnsearch(train,Data1(N1+1:end,:),'K',k); % classify for the rest of data 1
res1 = 0;
for i=1:size(idx,1)
if sum(labels(idx(i,:))) < 0;
res1 = res1 + 0; % wrong answer
else
res1 = res1 + 1; % correct answer
end
end
idx2 = knnsearch(train,Data2(N2+1:end,:),'K',k); % classify for the rest of data 2
res2 = 0;
for i=1:size(idx2,1)
if sum(labels(idx2(i,:))) > 0;
res2 = res2 + 0; % wrong answer
else
res2 = res2 + 1; % correct answer
end
end
corr = res1+res2;
tot = size(idx2,1)+size(idx,1);
fprintf('Classified %d right out of %d. %.2f correct\n',corr,tot,corr / tot * 100)