%# Fisher Iris dataset
load fisheriris
[~,~,labels] = unique(species); %# labels: 1/2/3
data = zscore(meas); %# scale features
numInst = size(data,1);
numLabels = max(labels);
%# split training/testing
idx = randperm(numInst);
numTrain = 100; numTest = numInst - numTrain;
trainData = data(idx(1:numTrain),:); testData = data(idx(numTrain+1:end),:);
trainLabel = labels(idx(1:numTrain)); testLabel = labels(idx(numTrain+1:end));
%# train one-against-all models
model = cell(numLabels,1);
for k=1:numLabels
model{k} = svmtrain(double(trainLabel==k), trainData, '-c 1 -g 0.2 -b 1');
end
%# get probability estimates of test instances using each model
prob = zeros(numTest,numLabels);
for k=1:numLabels
[~,~,p] = svmpredict(double(testLabel==k), testData, model{k}, '-b 1');
prob(:,k) = p(:,model{k}.Label==1); %# probability of class==k
end
%# predict the class with the highest probability
[~,pred] = max(prob,[],2);
acc = sum(pred == testLabel) ./ numel(testLabel) %# accuracy
C = confusionmat(testLabel, pred) %# confusion matrix

多类支持向量机(一对一)

共 2 个回答
高赞
时间
活跃
0

0

从代码中,我可以看到您正在尝试首先将标签转换为“某些类”与“非此类”,然后调用LibSVM进行培训和测试。一些问题和建议:
- 您为什么要使用原始的
TrainingLabel
进行培训?我认为应该是model = svmtrain(newClass, TrainVec, '-c 1 -g 0.00154');
? - 使用改进的训练机制,您还需要调整预测部分,例如使用总和来确定最终标签。在LibSVM中使用
-b
开关启用概率输出也将提高准确性。
新手导航
- 社区规范
- 提出问题
- 进行投票
- 个人资料
- 优化问题
- 回答问题
0
我知道,对于多类SVM,LIBSVM仅允许一对一分类。但是,我想对它进行一些微调以执行一个针对所有对象的分类。我试图在下面执行全部反对。这是正确的方法吗?
编码:
我可能犯了一些错误。我想听听一些反馈。谢谢。
第二部分:正如Grapeot所说:我需要进行汇总汇总(或作为简化解决方案进行投票)以得出最终答案。我不确定该怎么做。我需要一些帮助。我看到了python文件,但仍然不太确定。我需要协助。