libSVM 参数选择

libSVM 参数选择

[预测标签,准确率,决策值]=svmpredict(测试标签,测试数据,训练的模型);

原文参考:http://blog.csdn.net/carson2005/article/details/6539192

关于SVM参数c&g选取的总结帖[matlab-libsvm]:http://www.ilovematlab.cn/thread-47819-1-1.html  原文见下方

需要提醒的是,libSVM支持多类分类问题,当有k个待分类问题时,libSVM构建k*(k-1)/2种分类模型来进行分类,即:libSVM采用一对一的方式来构建多类分类器,如下所示:

1 vs 2, 1 vs 3, ..., 1 vs k, 2 vs 3, ..., 2 vs k, ..., k-1 vs k。

-s  svm 类型 默认是0 c-svc

C_SVC与NU_SVC其实采用的模型相同,但是它们的参数C的范围不同,C_SVC采用的是0到正无穷,NU_SVC是[0,1]。

-g g :设置核函数中的g ,默认值为1/ k ;其中-g选项中的k是指输入数据中的属性数。

SVM关键是选取核函数的类型,主要有线性内核,多项式内核,径向基内核(RBF),sigmoid核。
这些函数中应用最广的应该就是RBF核了,无论是小样本还是大样本,高维还是低维等情况,RBF核函数均适用,它相比其他的函数有一下优点:
1)RBF核函数可以将一个样本映射到一个更高维的空间,而且线性核函数是RBF的一个特例,也就是说如果考虑使用RBF,那么就没有必要考虑线性核函数了。
2)与多项式核函数相比,RBF需要确定的参数要少,核函数参数的多少直接影响函数的复杂程度。另外,当多项式的阶数比较高时,核矩阵的元素值将趋于无穷大或无穷小,而RBF则在上,会减少数值的计算困难。
3)对于某些参数,RBF和sigmoid具有相似的性能。

为什么要选择RBF

通常而言,RBF核是合理的首选。这个核函数将样本非线性地映射到一个更高维的空间,与线性核不同,它能够处理分类标注和属性的非线性关系。并且,线性核是RBF的一个特例(Keerthi and Lin 2003),因此,使用一个惩罚因子C的线性核与某些参数(C,γ)的RBF核具有相同的性能。同时,Sigmoid核的表现很像一定参数的RBF核(Lin and Link 2003)。
        第二个原因,超参数(hyperparameter)的数量会影响到模型选择的复杂度(因为参数只能靠试验呀!)。多项式核比RBF核有更多的超参数。
最后,RBF核有更少的数值复杂度(numerical difficulties)。一个关键点0<Kij<=1对比多项式核,后者关键值需要 infinity(rxiTxj+r>1)或者zero(rxiTxj+r<1),这是高阶运算。此外,我们必须指出sigmoid核在某些参数下不是合法的 (例如,不是两个向量的内积)。(Vapnik 1995)

当然,也存在一些情形RBF核是不适用的。特别地,当特征维数非常大的时候,很可能只能适用线性核。

  1. 在某些情况下RBF kernel是不合适的。实际情况中,当特征数非常大时,我们大多会考虑用linear kernel。

nr_weight, weight_label, and weight这三个参数用于改变某些类的惩罚因子。当输入数据不平衡,或者误分类的风险代价不对称的时候,这三个参数将会对样本训练起到非常重要的调节作用。

nr_weight是weight_label和weight的元素个数,或者称之为维数。Weight[i]与weight_label[i]之间是一一对应的,weight[i]代表着类别weight_label[i]的惩罚因子的系数是weight[i]。如果你不想设置惩罚因子,直接把nr_weight设置为0即可。

为了防止错误的参数设置,你还可以调用libSVM提供的接口函数svm_check_parameter()来对输入参数进行检查。

http://blog.csdn.net/heyijia0327/article/details/38090229

径向基(Radial basis function)径向基函数是一类函数,径向基函数是一个它的值(y)只依赖于变量(x)距原点距离的函数,即 ;也可以是距其他某个中心点的距离,即 引用自wiki. 也就是说,可以选定径向基函数来当核函数,譬如SVM里一般都用高斯径向基作为核函数,但是核函数不一定要选择径向基这一类函数。

接下来将讨论核函数为什么能映射到高维空间,径向基核又为什么能够映射到无限维空间

http://www.cnblogs.com/LeftNotEasy/archive/2011/05/02/basic-of-svm.html整体讲SVM,易懂!

惩罚因子

在式子1中

注意其中C的位置,也可以回想一下C所起的作用(表征你有多么重视离群点,C越大越重视,越不想丢掉它们)。这个式子是以前做SVM的人写的,大家也就这么用,但没有任何规定说必须对所有的松弛变量都使用同一个惩罚因子,我们完全可以给每一个离群点都使用不同的C,这时就意味着你对每个样本的重视程度都不一样,有些样本丢了也就丢了,错了也就错了,这些就给一个比较小的C;而有些样本很重要,决不能分类错误,就给一个很大的C。
对付数据集偏斜问题的方法之一就是在惩罚因子上作文章,想必大家也猜到了,那就是给样本数量少的负类更大的惩罚因子,表示我们重视这部分样本(本来数量就少,再抛弃一些,那人家负类还活不活了),因此我们的目标函数中因松弛变量而损失的部分就变成了:

其中i=1…p都是正样本,j=p+1…p+q都是负样本。libSVM这个算法包在解决偏斜问题的时候用的就是这种方法。

  那C+和C-怎么确定呢?它们的大小是试出来的(参数调优),但是他们的比例可以有些方法来确定。咱们先假定说C+是5这么大,那确定C-的一个很直观的方法就是使用两类样本数的比来算,对应到刚才举的例子,C-就可以定为500这么大(因为10,000:100=100:1嘛)。

  但是这样并不够好,回看刚才的图,你会发现正类之所以可以“欺负”负类,其实并不是因为负类样本少,真实的原因是负类的样本分布的不够广(没扩充到负类本应该有的区域)。说一个具体点的例子,现在想给政治类和体育类的文章做分类,政治类文章很多,而体育类只提供了几篇关于篮球的文章,这时分类会明显偏向于政治类,如果要给体育类文章增加样本,但增加的样本仍然全都是关于篮球的(也就是说,没有足球,排球,赛车,游泳等等),那结果会怎样呢?虽然体育类文章在数量上可以达到与政治类一样多,但过于集中了,结果仍会偏向于政治类!所以给C+和C-确定比例更好的方法应该是衡量他们分布的程度。比如可以算算他们在空间中占据了多大的体积,例如给负类找一个超球——就是高维空间里的球啦——它可以包含所有负类的样本,再给正类找一个,比比两个球的半径,就可以大致确定分布的情况。显然半径大的分布就比较广,就给小一点的惩罚因子。

但是这样还不够好,因为有的类别样本确实很集中,这不是提供的样本数量多少的问题,这是类别本身的特征(就是某些话题涉及的面很窄,例如计算机类的文章就明显不如文化类的文章那么“天马行空”),这个时候即便超球的半径差异很大,也不应该赋予两个类别不同的惩罚因子。

http://blog.csdn.net/zhzhl202/article/details/7583464

参考文献以及进一步阅读:

1. http://www.blogjava.net/zhenandaci/archive/2009/03/15/259786.html 讲解了SVM引入松弛变量的原因及好处

2. http://www.blogjava.net/zhenandaci/archive/2009/03/06/258288.html SVM中核函数的特性以及在SVM中的作用

3. http://blog.pluskid.org/?tag=support-vector-machine Kid的关于SVM经典文章

  • http://blog.csdn.net/liulina603/article/details/8552424
  • svm_type –

    指定SVM的类型,下面是可能的取值:

    • CvSVM::C_SVC C类支持向量分类机。 n类分组  (n  2),允许用异常值惩罚因子C进行不完全分类。
    • CvSVM::NU_SVC 类支持向量分类机。n类似然不完全分类的分类器。参数为  取代C(其值在区间【0,1】中,nu越大,决策边界越平滑)。
    • CvSVM::ONE_CLASS 单分类器,所有的训练数据提取自同一个类里,然后SVM建立了一个分界线以分割该类在特征空间中所占区域和其它类在特征空间中所占区域。
    • CvSVM::EPS_SVR 类支持向量回归机。训练集中的特征向量和拟合出来的超平面的距离需要小于p。异常值惩罚因子C被采用。
    • CvSVM::NU_SVR 类支持向量回归机。  代替了 p
  • kernel_type –

    SVM的内核类型,下面是可能的取值:

    • CvSVM::LINEAR 线性内核。没有任何向映射至高维空间,线性区分(或回归)在原始特征空间中被完成,这是最快的选择。.
    • CvSVM::POLY 多项式内核: .
    • CvSVM::RBF 基于径向的函数,对于大多数情况都是一个较好的选择: .
    • CvSVM::SIGMOID Sigmoid函数内核:.
  • degree – 内核函数(POLY)的参数degree。
  • gamma – 内核函数(POLY/ RBF/ SIGMOID)的参数
  • coef0 – 内核函数(POLY/ SIGMOID)的参数coef0
  • Cvalue – SVM类型(C_SVC/ EPS_SVR/ NU_SVR)的参数C
  • nu – SVM类型(NU_SVC/ ONE_CLASS/ NU_SVR)的参数 
  • p – SVM类型(EPS_SVR)的参数 
  • class_weights – C_SVC中的可选权重,赋给指定的类,乘以C以后变成 。所以这些权重影响不同类别的错误分类惩罚项。权重越大,某一类别的误分类数据的惩罚项就越大。
  • term_crit – SVM的迭代训练过程的中止条件,解决部分受约束二次最优问题。您可以指定的公差和/或最大迭代次数。

 

关于SVM参数c&g选取的总结帖[matlab-libsvm] 

写了个程序来选取SVM中参数c和g的最佳值.
[写这个的目的是方便大家用这个小程序直接来寻找c和g的最佳值,不用再另外编写东西了.]
其实原本libsvm C语言版本中有相应的子程序可以找到最佳的c和g,需装载python语言然后用py 那个画图就可以找到最佳的c和g,我写了个matlab版本的.算是弥补了libsvm在matlab版本下的空缺.

测试数据还是我视频里的wine data.

寻找最佳c和g的思想仍然是让c和g在一定的范围里跑(比如 c = 2^(-5),2^(-4),...,2^(5),g = 2^(-5),2^(-4),...,2^(5)),然后用cross validation的想法找到是的准确率最高的c和g,在这里我做了一点修改(纯粹是个人的一点小经验和想法),我改进的是: 因为会有不同的c和g都对应最高的的准确率,我把具有最小c的那组c和g认为是最佳的c和g,因为惩罚参数不能设置太高,很高的惩罚参数能使得validation数据的准确率提高,但过高的惩罚参数c会造成过学习状态,反正从我用SVM到现在,往往都是惩罚参数c过高会导致最终测试集合的准确率并不是很理想..

在使用这个程序时也有小技巧,可以先大范围粗糙的找 比较理想的c和g,然后再细范围找更加理想的c和g.

比如首先让 c = 2^(-5),2^(-4),...,2^(5),g = 2^(-5),2^(-4),...,2^(5)在这个范围找比较理想的c和g,如图:
======
<ignore_js_op>
======
此时bestc = 0.5,bestg=1,bestacc = 98.8764[cross validation 的准确率]

最终测试集合的准确率 Accuracy = 96.6292% (86/89) (classification)
======
此时看到可以把c和g的范围缩小.还有步进的大小也可以缩小(程序里都有参数可以自己调节,也有默认值可不调节).
让 c = 2^(-2),2^(-1.5),...,2^(4),g = 2^(-4),2^(-3.5),...,2^(4)在这个范围找比较理想的c和g,如图:
=============
<ignore_js_op>
===============
此时bestc = 0.3536,bestg=0.7017,bestacc = 98.8764[cross validation 的准确率]
最终测试集合的准确率 Accuracy = 96.6292% (86/89) (classification)
===================
上面第二个的测试的代码:

  1. load wine_SVM;
  2. train_wine = [wine(1:30,:);wine(60:95,:);wine(131:153,:)];
  3. train_wine_labels = [wine_labels(1:30);wine_labels(60:95);wine_labels(131:153)];
  4. test_wine = [wine(31:59,:);wine(96:130,:);wine(154:178,:)];
  5. test_wine_labels = [wine_labels(31:59);wine_labels(96:130);wine_labels(154:178)];
  6. [train_wine,pstrain] = mapminmax(train_wine‘);
  7. pstrain.ymin = 0;
  8. pstrain.ymax = 1;
  9. [train_wine,pstrain] = mapminmax(train_wine,pstrain);
  10. [test_wine,pstest] = mapminmax(test_wine‘);
  11. pstest.ymin = 0;
  12. pstest.ymax = 1;
  13. [test_wine,pstest] = mapminmax(test_wine,pstest);
  14. train_wine = train_wine‘;
  15. test_wine = test_wine‘;
  16. [bestacc,bestc,bestg] = SVMcg(train_wine_labels,train_wine,-2,4,-4,4,3,0.5,0.5,0.9);
  17. cmd = [‘-c ‘,num2str(bestc),‘ -g ‘,num2str(bestg)];
  18. model = svmtrain(train_wine_labels,train_wine,cmd);
  19. [pre,acc] = svmpredict(test_wine_labels,test_wine,model);

复制代码

============我写的那个选取SVM中参数c和g的最佳值.的程序的代码  SVMcg.m====================

  1. function [bestacc,bestc,bestg] = SVMcg(train_label,train,cmin,cmax,gmin,gmax,v,cstep,gstep,accstep)
  2. %SVMcg cross validation by faruto
  3. %Email:[email protected] QQ:516667408 http://blog.sina.com.cn/faruto BNU
  4. %last modified 2009.8.23
  5. %Super Moderator @ www.ilovematlab.cn
  6. %% about the parameters of SVMcg
  7. if nargin < 10
  8. accstep = 1.5;
  9. end
  10. if nargin < 8
  11. accstep = 1.5;
  12. cstep = 1;
  13. gstep = 1;
  14. end
  15. if nargin < 7
  16. accstep = 1.5;
  17. v = 3;
  18. cstep = 1;
  19. gstep = 1;
  20. end
  21. if nargin < 6
  22. accstep = 1.5;
  23. v = 3;
  24. cstep = 1;
  25. gstep = 1;
  26. gmax = 5;
  27. end
  28. if nargin < 5
  29. accstep = 1.5;
  30. v = 3;
  31. cstep = 1;
  32. gstep = 1;
  33. gmax = 5;
  34. gmin = -5;
  35. end
  36. if nargin < 4
  37. accstep = 1.5;
  38. v = 3;
  39. cstep = 1;
  40. gstep = 1;
  41. gmax = 5;
  42. gmin = -5;
  43. cmax = 5;
  44. end
  45. if nargin < 3
  46. accstep = 1.5;
  47. v = 3;
  48. cstep = 1;
  49. gstep = 1;
  50. gmax = 5;
  51. gmin = -5;
  52. cmax = 5;
  53. cmin = -5;
  54. end
  55. %% X:c Y:g cg:acc
  56. [X,Y] = meshgrid(cmin:cstep:cmax,gmin:gstep:gmax);
  57. [m,n] = size(X);
  58. cg = zeros(m,n);
  59. %% record acc with different c & g,and find the bestacc with the smallest c
  60. bestc = 0;
  61. bestg = 0;
  62. bestacc = 0;
  63. basenum = 2;
  64. for i = 1:m
  65. for j = 1:n
  66. cmd = [‘-v ‘,num2str(v),‘ -c ‘,num2str( basenum^X(i,j) ),‘ -g ‘,num2str( basenum^Y(i,j) )];
  67. cg(i,j) = svmtrain(train_label, train, cmd);
  68. if cg(i,j) > bestacc
  69. bestacc = cg(i,j);
  70. bestc = basenum^X(i,j);
  71. bestg = basenum^Y(i,j);
  72. end
  73. if ( cg(i,j) == bestacc && bestc > basenum^X(i,j) )
  74. bestacc = cg(i,j);
  75. bestc = basenum^X(i,j);
  76. bestg = basenum^Y(i,j);
  77. end
  78. end
  79. end
  80. %% to draw the acc with different c & g
  81. [C,h] = contour(X,Y,cg,60:accstep:100);
  82. clabel(C,h,‘FontSize‘,10,‘Color‘,‘r‘);
  83. xlabel(‘log2c‘,‘FontSize‘,10);
  84. ylabel(‘log2g‘,‘FontSize‘,10);
  85. grid on;

复制代码

=====================================

这样那个libsvm-matlab工具箱我就有了自己的一个升级版本的了.大家可以把这个SVMcg.m加进去 一起用了...
<ignore_js_op> libsvm-mat-2.89-3[faruto version].rar (76.46 KB, 下载次数: 1853) 
里面有SVMcg.m使用说明.如下:
[bestacc,bestc,bestg] = SVMcg(train_label,train,cmin,cmax,gmin,gmax,v,cstep,gstep,accstep)

train_label:训练集标签.要求与libsvm工具箱中要求一致.
train:训练集.要求与libsvm工具箱中要求一致.
cmin:惩罚参数c的变化范围的最小值(取以2为底的对数后),即 c_min = 2^(cmin).默认为 -5
cmax:惩罚参数c的变化范围的最大值(取以2为底的对数后),即 c_max = 2^(cmax).默认为 5
gmin:参数g的变化范围的最小值(取以2为底的对数后),即 g_min = 2^(gmin).默认为 -5
gmax:参数g的变化范围的最小值(取以2为底的对数后),即 g_min = 2^(gmax).默认为 5

v:cross validation的参数,即给测试集分为几部分进行cross validation.默认为 3
cstep:参数c步进的大小.默认为 1
gstep:参数g步进的大小.默认为 1
accstep:最后显示准确率图时的步进大小. 默认为 1.5
[上面这些参数大家可以更改以期达到最佳效果,也可不改用默认值]
<ignore_js_op>

时间: 2024-10-13 19:52:12

libSVM 参数选择的相关文章

机器学习 libsvm交叉验证与网格搜索(参数选择)

首先说交叉验证. 交叉验证(Cross validation)是一种评估统计分析.机器学习算法对独立于训练数据的数据集的泛化能力(generalize), 能够避免过拟合问题. 交叉验证一般要尽量满足: 1)训练集的比例要足够多,一般大于一半 2)训练集和测试集要均匀抽样 交叉验证主要分成以下几类: 1)Double cross-validation Double cross-validation也称2-fold cross-validation(2-CV),作法是将数据集分成两个相等大小的子集

libsvm交叉验证与网格搜索(参数选择)

首先说交叉验证.交叉验证(Cross validation)是一种评估统计分析.机器学习算法对独立于训练数据的数据集的泛化能力(generalize), 能够避免过拟合问题.交叉验证一般要尽量满足:1)训练集的比例要足够多,一般大于一半2)训练集和测试集要均匀抽样 交叉验证主要分成以下几类: 1)Double cross-validationDouble cross-validation也称2-fold cross-validation(2-CV),作法是将数据集分成两个相等大小的子集,进行两回

桥堆的参数选择以及滤波电容的选择

1.桥堆的参数选择: 2.滤波电容选择:对于整流电压的输出电压大小,大家一定不陌生.很多人会说,输出平均值全波0.9倍,半波0.45倍的交流有效.但是在设计中,我们常常发现一个事实,例如在半波整流后,输出电压得到的不止0.45倍,9V交流整流后可能有11-12V.之前我一直很困惑,是我记错了计算倍数吗?翻了很多书籍,公式当然是没错的.那到底怎么回事? 可能之前我们在学校学这个方面知识点的时候太过注重整流电路,而忽略了脉动比的概念,所以造成我们现在很多人对这一简单的知识不是很清晰.其实这里是由于整

机器学习中的范数规则化 L0、L1与L2范数 核范数与规则项参数选择

http://blog.csdn.net/zouxy09/article/details/24971995 机器学习中的范数规则化之(一)L0.L1与L2范数 [email protected] http://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化.我们先简单的来理解下常用的L0.L1.L2和核范数规则化.最后聊下规则化项参数的选择问题.这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文.知识有限,以下都是我一些浅显

paper 27:机器学习中的范数规则化之(二)核范数与规则项参数选择

机器学习中的范数规则化之(二)核范数与规则项参数选择 [email protected] http://blog.csdn.net/zouxy09 上一篇博文,我们聊到了L0,L1和L2范数,这篇我们絮叨絮叨下核范数和规则项参数选择.知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正.谢谢. 三.核范数 核范数||W||*是指矩阵奇异值的和,英文称呼叫Nuclear Norm.这个相对于上面火热的L1和L2来说,可能大家就会陌生点.那它是干嘛用的呢?霸气登场:约束Low-Ra

机器学习中的范数规则化之(二)核范数与规则项参数选择 非常好,必看

机器学习中的范数规则化之(二)核范数与规则项参数选择 [email protected] http://blog.csdn.net/zouxy09 上一篇博文,我们聊到了L0,L1和L2范数,这篇我们絮叨絮叨下核范数和规则项参数选择.知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正.谢谢. 三.核范数 核范数||W||*是指矩阵奇异值的和,英文称呼叫Nuclear Norm.这个相对于上面火热的L1和L2来说,可能大家就会陌生点.那它是干嘛用的呢?霸气登场:约束Low-Ra

【神经网络学习笔记】LIBSVM参数讲解

支持向量机SVM(Support Vector Machine)作为一种可训练的机器学习方法可以实现模式分类和非线性回归,本文就matlab中的LIBSVM工具箱展开说明. 在matlab中调用LIBSVM工具箱可以方便的使用LIBSVM网络,台湾大学的林智仁教授已经封装好各方法,大家可以在此下载. LIBSVM工具箱的主要函数为svmtrain和svmpredict,调用格式为 model = svmtrain(train_lable,train_data,options); [predict

NX二次开发-UFUN参数选择对话框UF_UI_select_parameters

1 #include <uf.h> 2 #include <uf_ui.h> 3 #include <uf_modl.h> 4 5 6 UF_initialize(); 7 8 //参数选择对话框 9 UF_FEATURE_SIGN sign = UF_NULLSIGN; 10 double dBlockOrig[3] = { 0.0, 0.0, 0.0 }; 11 char* sBlockLengh[3] = { "1", "2"

Libliner 中的-s 参数选择:primal 和dual

LIBLINEAR的优化算法主要分为两大类,即求解原问题(primal problem)和对偶问题(dual problem).求解原问题使用的是TRON的优化算法,对偶问题使用的是Coordinate Descent优化算法.总的来说,两个算法的优化效率都较高,但还是有各自更加擅长的场景.对于样本量不大,但是维度特别高的场景,如文本分类,更适合对偶问题求解,因为由于样本量小,计算出来的Kernel Matrix也不大,后面的优化也比较方便.而如果求解原问题,则求导的过程中要频繁对高维的特征矩阵