1.文件中数据格式
label index1:value1 index2:value2 ...
Label在分类中表示类别标识,在预测中表示对应的目标值
Index表示特征的序号,一般从1开始,依次增大
Value表示每个特征的值
例如:
3 1:0.122000 2:0.792000
3 1:0.144000 2:0.750000
3 1:0.194000 2:0.658000
3 1:0.244000 2:0.540000
3 1:0.328000 2:0.404000
3 1:0.402000 2:0.356000
3 1:0.490000 2:0.384000
3 1:0.548000 2:0.436000
数据文件准备好后,可以用一个python程序检查格式是否正确,这个程序在下载的libsvm文件夹的子文件夹tools下,叫checkdata.py,用法:在windows命令行中先移动到checkdata.py所在文件夹下,输入:checkdata.py 你要检查的文件完整路径(包含文件名)
回车后会提示是否正确。
2.对数据进行归一化。
该过程要用到libsvm软件包中的svm-scale.exe
Svm-scale用法:
用法:svmscale [-l lower] [-u upper] [-y y_lower y_upper] [-s save_filename] [-r restore_filename] filename (缺省值: lower = -1,upper = 1,没有对y进行缩放)
其中, -l:数据下限标记;lower:缩放后数据下限;
-u:数据上限标记;upper:缩放后数据上限;
-y:是否对目标值同时进行缩放;y_lower为下限值,y_upper为上限值;(回归需要对目标进行缩放,因此该参数可以设定为 –y -1 1 )
-s save_filename:表示将缩放的规则保存为文件save_filename;
-r restore_filename:表示将缩放规则文件restore_filename载入后按此缩放;
filename:待缩放的数据文件(要求满足前面所述的格式)。
数据集的缩放结果在此情况下通过DOS窗口输出,当然也可以通过DOS的文件重定向符号“>”将结果另存为指定的文件。该文件中的参数可用于最后面对目标值的反归一化。反归一化的公式为:
(Value-y_lower)*(max-min)/(y_upper - y_lower)+min
其中value为归一化后的值,max,min分别是归一化之前所有目标值的最大值和最小值,其他参数与前面介绍的相同。
注意: 将训练数据集与测试数据集放在同一个文本文件中一起归一化,然后再将归一化结果分成训练集和测试集。
3.训练数据,生成模型。
用法: svmtrain [options] training_set_file [model_file]
其中, options(操作参数):可用的选项即表示的涵义如下所示
-s svm类型:设置SVM 类型,默认值为0,可选类型有(对于回归只能选3或4):
0 -- C- SVC 1 -- n - SVC 2 -- one-class-SVM 3 -- e - SVR 4 -- n - SVR
-t 核函数类型:设置核函数类型,默认值为2,可选类型有:
0 -- 线性核:u‘*v
1 -- 多项式核: (g*u‘*v+ coef 0)deg ree
2 -- RBF 核:e( u v 2) g -
3 -- sigmoid 核:tanh(g*u‘*v+ coef 0)
-d degree:核函数中的degree设置,默认值为3;
-g g :设置核函数中的g ,默认值为1/ k ;
-r coef 0:设置核函数中的coef 0,默认值为0;
-c cost:设置C- SVC、e - SVR、n - SVR中从惩罚系数C,默认值为1;
-n n :设置n - SVC、one-class-SVM 与n - SVR 中参数n ,默认值0.5;
-p e :设置n - SVR的损失函数中的e ,默认值为0.1;
-m cachesize:设置cache内存大小,以MB为单位,默认值为40;
-e e :设置终止准则中的可容忍偏差,默认值为0.001;
-h shrinking:是否使用启发式,可选值为0 或1,默认值为1;
-b 概率估计:是否计算SVC或SVR的概率估计,可选值0 或1,默认0;
-wi weight:对各类样本的惩罚系数C加权,默认值为1;
-v n:n折交叉验证模式。
其中-g选项中的k是指输入数据中的属性数。操作参数 -v 随机地将数据剖分为n 部分并计算交叉检验准确度和均方根误差。以上这些参数设置可以按照SVM 的类型和核函数所支持的参数进行任意组合,如果设置的参数不在函数或SVM 类型中没有也不会产生影响,程序不会接受该参数;如果应有的参数设置不正确,参数将采用默认值。training_set_file是要进行训练的数据集;model_file是训练结束后产生的模型文件,该参数如果不设置将采用默认的文件名,也可以设置成自己惯用的文件名。
另, 实验中所需调整的重要参数是-c 和 –g,-c和-g的调整除了自己根据经验试之外,还可以使用grid.py对这两个参数进行优化。
注意:经过实测,在用于分类时,grid.py能得到较好参数值,但用于回归时得到的参数值效果很差。
该优化过程需要用到Python(2.5),Gnuplot(4.2),grid.py(该文件需要修改路径)。
然后在命令行下面运行:
grid.py -log2c -10,10,1 -log2g -10,10,1 -log2p -10,10,1 -s 3 -t 2 -v 5 -svmtrain E:\libsvm-2.86\windows\svm-train.exe -gnuplot E:\gnuplot\bin\pgnuplot.exe E:\libsvm\libsvm-2.86\windows\train.txt以上三个路径根据实际安装情况进行修改。
-log2c是给出参数c的范围和步长
-log2g是给出参数g的范围和步长
-log2p是给出参数p的范围和步长上面三个参数可以用默认范围和步长
-s选择SVM类型,也是只能选3或者4
-t是选择核函数
-v 5 将训练数据分成5份做交叉验证。默认为5
搜索结束后可以在最后一行看到最优参数。
其中,最后一行的第一个参数即为-c,第二个为-g,第三个为-p,前三个参数可以直接用于模型的训练。
然后,根据搜索得到的参数,重新训练,得到模型。
命令行会出现以下内容:
optimization finished, #iter = 162
nu = 0.431029
obj = -100.877288, rho = 0.424462
nSV = 132, nBSV = 107
Total nSV = 132
其中,#iter为迭代次数,nu 是你选择的核函数类型的参数,obj为SVM文件转换为的二次规划求解得到的最小值,rho为判决函数的偏置项b,nSV 为标准支持向量个数(0<a[i]<c),nBSV为边界上的支持向量个数(a[i]=c),Total nSV为支持向量总个数(对于两类来说,因为只有一个分类模型Total nSV = nSV,但是对于多类,这个是各个分类模型的nSV之和)。
模型文件内容前几行大致如下:
svm_type epsilon_svr//svm类型
kernel_type rbf//核函数类型
gamma 100//训练时参数g的值
nr_class 2 //类别数,此处为两分类问题
total_sv 12//支持向量个数
rho -0.35336//判决函数的偏置项b
SV //以下为各个类的权系数及相应的支持向量
文件中下面是支持向量数据
4.测试
用法:svmpredict [options] test_file model_file output_file options(操作参数): -b probability_estimates:是否需要进行概率估计预测,可选值为0 或者1,默认值为0。 model_file 是由svmtrain 产生的模型文件;
test_file 是要进行预测的数据文件;
output_file 是svmpredict 的输出文件,表示预测的结果值。
输出结果包括均方误差(Mean squared error)和相关系数(Squared correlation coefficient)。
5.实例
<1> 下载Libsvm、Python和Gnuplot。我用的版本分别是:Libsvm(2.8.1),Python(2.4),Gnuplot(3.7.3)。
<2> 修改训练和测试数据的格式:
目标值 第一维特征编号:第一维特征值 第二维特征编号:第二维特征值 …
…
例如:
2.3 1:5.6 2:3.2
表示训练用的特征有两维,第一维是5.6,第二维是3.2,目标值是2.3
注意:训练和测试数据的格式必须相同,都如上所示。测试数据中的目标值是为了计算误差用
检查格式正确性:用checkdata.py,上面已经介绍过
<3>开始处理数据
分别使用Libsvm中的Windows版本的工具svmscale.exe进行训练和测试数据的归一化,svmtrain.exe进行模型训练,svmpredict.exe进行预测
(1)Svm-scale.exe用法:
Svm-scale.exe -y 0 1 -l 0 -u 1 feature.txt feature.scaled
讲目标值和特征值都归一到[-1,1],默认的归一化范围是[-1,1],可以用参数-y ,-l和-u分别调整上界和下届,feature.txt是输入特征文件名
输出的归一化文件名为feature.scaled
然后将feature.scaled中的某些数据剪切到另一文件feature_test.scaled中,用于最后测试。
(2)svm-train.exe训练模型
Svm-train.exe -s 3 -p 0.0001 -t 2 -g 32 -c 0.53125 feature.scaled
训练得到的模型为feature.scaled.model
具体的参数含义可以参考帮助文档。这里-s是选择SVM的类型。对于回归来说,只能选3或者 4,3表示epsilon-support vector regression, 4表示nu-support vector regression。-t是选择核函数,通常选用RBF核函数。-p尽量选个比较小的数字。需要仔细调整的重要参数是-c和-g。除非用 grid.py来搜索最优参数,否则只能自己慢慢试了。
(3)用svm-predict.exe进行预测
Svm-predict.exe feature_test.scaled feature.scaled.model feature_test.predicted
其中feature_test.scaled是归一化后的测试特征文件名,feature.scaled.model是训练好的模型,SVM预测的值在feature_test.predicted中
6.svm-toy.exe的使用
在libsvm-3.19\windows下有个名为svm-toy.exe的,他是用来展示你的数据样式和查看预测分类结果的。
可以在上面任意点击,他会根据点击的位置生成点,”change”可以改变点的颜色,“save”用来保存这些数据到一个文件,也可以用“load”装载经过归一化后的数据文件,在按钮后面输入想设置的参数后,点击”run”就会出现分类或预测结果。利用它,可以直观地看到改变某些参数导致的变化和结果,从而便于找到合适参数。
例如:对于下列数据
0.239 1:0.000
0.351 1:0.033
0.342 1:0.067
0.338 1:0.100
0.350 1:0.133
0.375 1:0.167
0.032 1:0.200
0.192 1:0.233
0.059 1:0.267
0.242 1:0.300
0.113 1:0.333
0.437 1:0.367
0.650 1:0.400
0.796 1:0.433
0.939 1:0.467
0.892 1:0.500
0.874 1:0.533
0.768 1:0.567
0.672 1:0.600
0.411 1:0.633
0.396 1:0.667
0.184 1:0.700
0.000 1:0.733
0.118 1:0.767
0.165 1:0.800
0.293 1:0.833
0.331 1:0.867
0.356 1:0.900
0.317 1:0.933
0.329 1:0.967
0.183 1:1.000