paper 36 :[教程] 基于GridSearch的svm参数寻优

尊重原创~~~

转载出处:http://www.matlabsky.com/thread-12411-1-1.html

交叉验证(Cross Validation)方法思想简介
http://www.matlabsky.com/forum-v ... -fromuid-18677.html

以下内容摘自《MATLAB 神经网络30个案例分析》第13章:

关于SVM参数的优化选取,国际上并没有公认统一的最好的方法,现在目前常用的方法就是让c和g在一定的范围内取值,对于取定的c和g对于把训练集作为原始数据集利用K-CV方法得到在此组c和g下训练集验证分类准确率,最终取使得训练集验证分类准确率最高的那组c和g做为最佳的参数,但有一个问题就是可能会有多组的c和g对应于最高的验证分类准确率,这种情况怎么处理?这里采用的手段是选取能够达到最高验证分类准确率中参数c最小的那组c和g做为最佳的参数,如果对应最小的c有多组g,就选取搜索到的第一组c和g做为最佳的参数。这样做的理由是:过高的c会导致过学习状态发生,即训练集分类准确率很高而测试集分类准确率很低(分类器的泛化能力降低),所以在能够达到最高验证分类准确率中的所有的成对的c和g中认为较小的惩罚参数c是更佳的选择对象。

以上的寻参思想在libsvm-mat-2.89-3[FarutoUltimate3.0]工具箱中已经实现SVMcgForClass.m (分类问题寻优)、SVMcgForRegress.m (回归问题参数寻优):

函数使用接口介绍如下:

网格参数寻优函数(分类问题):SVMcgForClass

[bestCVaccuracy,bestc,bestg]= SVMcgForClass(train_label,train,cmin,cmax,gmin,gmax,v,cstep,gstep,accstep)
输入:
train_label:训练集的标签,格式要求与svmtrain相同。
train:训练集,格式要求与svmtrain相同。
cmin,cmax:惩罚参数c的变化范围,即在[2^cmin,2^cmax]范围内寻找最佳的参数c,默认值为cmin=-8,cmax=8,即默认惩罚参数c的范围是[2^(-8),2^8]。
gmin,gmax:RBF核参数g的变化范围,即在[2^gmin,2^gmax]范围内寻找最佳的RBF核参数g,默认值为gmin=-8,gmax=8,即默认RBF核参数g的范围是[2^(-8),2^8]。
v:进行Cross Validation过程中的参数,即对训练集进行v-fold Cross Validation,默认为3,即默认进行3折CV过程。
cstep,gstep:进行参数寻优是c和g的步进大小,即c的取值为2^cmin,2^(cmin+cstep),…,2^cmax,,g的取值为2^gmin,2^(gmin+gstep),…,2^gmax,默认取值为cstep=1,gstep=1。
accstep:最后参数选择结果图中准确率离散化显示的步进间隔大小([0,100]之间的一个数),默认为4.5。
输出:
bestCVaccuracy:最终CV意义下的最佳分类准确率。
bestc:最佳的参数c。
bestg:最佳的参数g。

网格参数寻优函数(回归问题):SVMcgForRegress
[bestCVmse,bestc,bestg]= 
SVMcgForRegress(train_label,train,
cmin,cmax,gmin,gmax,v,cstep,gstep,msestep)
其输入输出与SVMcgForClass类似,这里不再赘述。

SVMcgForClass.m源代码:

function [bestacc,bestc,bestg] = SVMcgForClass(train_label,train,cmin,cmax,gmin,gmax,v,cstep,gstep,accstep)
%SVMcg cross validation by faruto

%%
% by faruto
%Email:[email protected] QQ:516667408 http://blog.sina.com.cn/faruto BNU
%last modified 2010.01.17

%% 若转载请注明:
% faruto and liyang , LIBSVM-farutoUltimateVersion
% a toolbox with implements for support vector machines based on libsvm, 2009.
%
% Chih-Chung Chang and Chih-Jen Lin, LIBSVM : a library for
% support vector machines, 2001. Software available at
% http://www.csie.ntu.edu.tw/~cjlin/libsvm

%% about the parameters of SVMcg
if nargin < 10
accstep = 4.5;
end
if nargin < 8
cstep = 0.8;
gstep = 0.8;
end
if nargin < 7
v = 5;
end
if nargin < 5
gmax = 8;
gmin = -8;
end
if nargin < 3
cmax = 8;
cmin = -8;
end
%% X:c Y:g cg:CVaccuracy
[X,Y] = meshgrid(cmin:cstep:cmax,gmin:gstep:gmax);
[m,n] = size(X);
cg = zeros(m,n);

eps = 10^(-4);

%% record acc with different c & g,and find the bestacc with the smallest c
bestc = 1;
bestg = 0.1;
bestacc = 0;
basenum = 2;
for i = 1:m
for j = 1:n
cmd = [‘-v ‘,num2str(v),‘ -c ‘,num2str( basenum^X(i,j) ),‘ -g ‘,num2str( basenum^Y(i,j) )];
cg(i,j) = svmtrain(train_label, train, cmd);

if cg(i,j) <= 55
continue;
end

if cg(i,j) > bestacc
bestacc = cg(i,j);
bestc = basenum^X(i,j);
bestg = basenum^Y(i,j);
end

if abs( cg(i,j)-bestacc )<=eps && bestc > basenum^X(i,j)
bestacc = cg(i,j);
bestc = basenum^X(i,j);
bestg = basenum^Y(i,j);
end

end
end
%% to draw the acc with different c & g
figure;
[C,h] = contour(X,Y,cg,70:accstep:100);
clabel(C,h,‘Color‘,‘r‘);
xlabel(‘log2c‘,‘FontSize‘,12);
ylabel(‘log2g‘,‘FontSize‘,12);
firstline = ‘SVC参数选择结果图(等高线图)[GridSearchMethod]‘;
secondline = [‘Best c=‘,num2str(bestc),‘ g=‘,num2str(bestg), ...
‘ CVAccuracy=‘,num2str(bestacc),‘%‘];
title({firstline;secondline},‘Fontsize‘,12);
grid on;

figure;
meshc(X,Y,cg);
% mesh(X,Y,cg);
% surf(X,Y,cg);
axis([cmin,cmax,gmin,gmax,30,100]);
xlabel(‘log2c‘,‘FontSize‘,12);
ylabel(‘log2g‘,‘FontSize‘,12);
zlabel(‘Accuracy(%)‘,‘FontSize‘,12);
firstline = ‘SVC参数选择结果图(3D视图)[GridSearchMethod]‘;
secondline = [‘Best c=‘,num2str(bestc),‘ g=‘,num2str(bestg), ...
‘ CVAccuracy=‘,num2str(bestacc),‘%‘];
title({firstline;secondline},‘Fontsize‘,12);

您可以直接下载
libsvm-mat-2.89-3[FarutoUltimate3.0]
http://www.matlabsky.com/forum-v ... -fromuid-18677.html

进行使用

更多关于SVM的请看:
关于SVM的那点破事[长期更新整理 by faruto]
http://www.matlabsky.com/forum-v ... -fromuid-18677.html

时间: 2024-10-10 14:05:14

paper 36 :[教程] 基于GridSearch的svm参数寻优的相关文章

grid search 超参数寻优

http://scikit-learn.org/stable/modules/grid_search.html 1. 超参数寻优方法 gridsearchCV 和  RandomizedSearchCV 2. 参数寻优的技巧进阶 2.1. Specifying an objective metric By default, parameter search uses the score function of the estimator to evaluate a parameter setti

paper 32 :svm参数优化的进展

从今天开始,我的微信公众号“天空之窗”就暂且停止更新内容了,专心搞研究!上午从师姐那儿淘到一份关于faruto讲解的Libsvm-FarutoUltimate3.1 based on libsvm-3.1,获益匪浅,至少对于目前调参.参数寻优等可以顺利的进展了.毕竟是人家的文章,下面是faruto的文章来源, Email:[email protected]http://blog.sina.com.cn/farutohttp://weibo.com/faruto http://www.360doc

简述人脸特异性识别&amp;&amp;一个基于LBP和SVM的人脸识别小例子

原谅我用图片,MAC在Safari里给文章进行图文排版太麻烦啦~ 本文适合初入计算机视觉和模式识别方向的同学们观看~ 文章写得匆忙,加上博主所知甚少,有不妥和勘误请指出并多多包涵. 本文Demo的代码由HZK编写,特征点由月神和YK选择和训练. 转载请注明 copyleft by sciencefans, 2014 为了方便大家学习,附上高维LBP的核心代码 1 ################################################### 2 # 3 # 4 # NO

OpenCV中的SVM参数优化

OpenCV中的SVM参数优化 标签: svm参数优化opencv SVMSVR参数优化CvSVMopencv CvSVM 2014-08-19 10:31 2995人阅读 评论(8) 收藏 举报  分类: 机器学习(11)  opencv(18)  版权声明:本文为博主原创文章,未经博主允许不得转载. SVM(支持向量机)是机器学习算法里用得最多的一种算法.SVM最常用的是用于分类,不过SVM也可以用于回归,我的实验中就是用SVM来实现SVR(支持向量回归). 对于功能这么强的算法,OpenC

机器学习经典算法详解及Python实现--基于SMO的SVM分类器

原文:http://blog.csdn.net/suipingsp/article/details/41645779 支持向量机基本上是最好的有监督学习算法,因其英文名为support vector machine,简称SVM.通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解. (一)理解SVM基本原理 1,SVM的本质--分类 给定一些数据点,它们分别属于两个不同的类,现在要找到一个线性分类器把这些

基于时间加权svm的指数优化复制策略

1 引言 指数追踪,利用某些金融资产组合去追踪某一股票指数,指数型基金核心技术.  目前主要有两种指数复制方法 基于两种假设 一:历史能够重演,在过去一段时间能构造历史追踪误差最小的,未来也将是最优,现在大多数指数复制类型为此类.二:从统计角度,找到与目标指数具有最大相关 具有协整关系的股票组合,保证未来表现与未来尽可能一致. 从股票数量复制角度,分为两种,完全复制和不完全复制,完全复制按照指数构造方式购买成分证券,但市场时序上变化迅速,造成成本高,逐渐不被使用.不完全复制根据优化方法寻找成分证

SVM 参数选择

-g g :设置核函数中的g ,默认值为1/ k :其中-g选项中的k是指输入数据中的属性数. 惩罚因子 在式子1中 注意其中C的位置,也可以回想一下C所起的作用(表征你有多么重视离群点,C越大越重视,越不想丢掉它们).这个式子是以前做SVM的人写的,大家也就这么用,但没有任何规定说必须对所有的松弛变量都使用同一个惩罚因子,我们完全可以给每一个离群点都使用不同的C,这时就意味着你对每个样本的重视程度都不一样,有些样本丢了也就丢了,错了也就错了,这些就给一个比较小的C:而有些样本很重要,决不能分类

SVM→8.SVM实战→3.调节SVM参数

.card { font-family: arial; font-size: 20px; text-align: left; color: black; background-color: white } .cloze { font-weight: bold; color: red } .myCode { font-family: droid sans mono; background-color: #f2f2f2; padding-left: 5px; padding-right: 5px }

机器学习入门-使用GridSearch进行网格参数搜索GridSeach(RandomRegressor(), param_grid, cv=3)

1.GridSeach(RandomRegressor(), param_grid, cv=3) GridSearch第一个参数是算法本身, 第二个参数是传入的参数组合, cv表示的是交叉验证的次数 GridSearch 对给定的参数进行两两的组合搜索,比如参数为[1, 2, 3], [1, 2, 3], 那么此时就有9种参数的组合 from sklearn.grid_search import GridSearchCV from sklearn.ensemble import RandomFo