支持向量机(SVM)

╰半橙微兮° 2023-06-13 04:56 139阅读 0赞

支持向量机(SVM)

1 算法简介

支持向量机SVM(Support Vector Machine)从线性可分情况下的最优分类面问题发展而来。如下图所示的一个二分类问题,假设图中空心圆点是数据A,×型的点是数据B,我们需要找一条曲线,将A和B成两类:
fig1

观察可知,图中实线直线是符合要求的曲线之一,这样可以用直线实现的二分类问题,也被称为线性可分的二分类问题。在本问题中,经过实线且垂直于数据点所在平面的平面被称为分类面,实线也被称为分类线。

最优分类面就是要求分类线不但能将AB两类数据点正确分开,且使分类间隔最大(在图中直观体现就是虚线之间的间隔最大)。

SVM解决线性可分的二分类问题的思路是这样的,寻找一个满足分类要求的分类面,并且待分类的数据点距离分类面尽可能的远,也就是寻找一个分类面使它两侧距离数据点的空白区域最大。过两类样本中离分类面最近的点且平行于最优分类面的超平面上的数据样本就叫做支持向量(图中虚线经过的空心圆数据点或×型数据点)。

**注意:**更多关于超平面的知识,请查阅相关书籍。简单的理解,超平面即比所在的空间维度要低一个维度,三维空间里超平面为一个平面,二维空间里的超平面为一条直线,一维空间里超平面为数轴上的一个点。

以上用以处理线性可分的情况的分类器就是最初的SVM,这样的分类器还是一个弱分类器。在现实问题中,还有一些线性不可分的问题。如下图所示的数据点,如果我们想要将红色的数据点和蓝色的数据点分类,是无法用线性分类器实现的:
在这里插入图片描述
这时候,我们就需要某种函数,将数据在由二维平面拓展到高维空间,在空间里寻找一个最优超平面,将两类数据分开,如下图所示,当数据点由二维空间拓展到三维空间时,我们可以通过某种超平面作为分类面,实现分类效果。这样的将数据由二维平面拓展到高维空间的函数,在SVM中被称为核函数:
在这里插入图片描述

回到红蓝数据点二分类问题,假设不局限于直线,我们可以用一个介于红点与蓝点之间的类似圆的曲线将二者分开,如下图:
\[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pBChj777-1573700471789)(./img/fig4.jpg)\]

我们假设这个黄色的曲线就是圆,不妨设其方程为 x 2 + y 2 = 1 x^2+y^2=1 x2+y2=1,核函数的作用是这样的,将 x 2 x^2 x2映射为 X X X, y 2 y^2 y2映射为 Y Y Y,那么超平面变成了 X + Y = 1 X+Y=1 X+Y=1。
那么原空间的线性不可分问题,就变成了新空间的(近似)线性可分问题,此时就可以运用处理(近似)线性可分问题的方法去解决线性不可分数据集的分类问题。

核函数的作用如下图直观所示:
在这里插入图片描述

针对不同数据集,不同的核函数的分类效果可能完全不一样。可选的核函数有这么几种:

  • 线性函数: 形如 K ( x , y ) = x + y K(x,y)=x+y K(x,y)=x+y的线性函数;
  • 多项式函数:形如 K ( x , y ) = [ ( x ⋅ y ) + 1 ] d K(x,y)=[(x·y)+1]^d K(x,y)=[(x⋅y)+1]d的多项式函数;
  • 径向基函数:形如 K ( x , y ) = e − ∣ x − y ∣ 2 d 2 K(x,y)=e^{\frac{-{|x-y|}^2}{d^2}} K(x,y)=ed2−∣x−y∣2的指数函数;
  • Sigmoid函数: f ( x ) = 1 1 + e − x f(x)=\frac{1}{1+e^{-x}} f(x)=1+e−x1

目前对于核函数的选择并没有一个明确的标准,我们需要在实际的数据集中测试各个核函数的分类效果后选择最优的核函数。

2 算法实现

首先导入相关的库函数,在python中,sklearn模块下的svm函数实现了svm的基本功能:

  1. %matplotlib inline
  2. from sklearn import svm
  3. import numpy as np
  4. import matplotlib.pyplot as plt

这里我们首先针对线性可分的二分类问题,随机生成两类数据点,每类数据点内有20个样本:

  1. np.random.seed(0)
  2. # 生成随机的两类数据点,每类中各20个样本点
  3. # x为样本点的横坐标,y为样本点的纵坐标
  4. x = np.r_[np.random.randn(20,2)-[2,2],np.random.randn(20,2)+[2,2]]
  5. y = [0]*20+[1]*20
  6. # 利用plt展示随机生成的两类数据点
  7. plt.figure(figsize=(8,4))
  8. plt.scatter(x[:,0],x[:,1],c=y,cmap=plt.cm.Paired)
  9. plt.axis('tight')
  10. plt.show()

在这里插入图片描述
svm中的模型训练函数通过调用svm.SVC()实现,括号中有以下几种常见的参数:

  • svm.SVC(kernel=‘linear’):核函数为线性函数
  • svm.SVC(kernel=‘poly’, degree=3):核函数为3次多项式函数,如果degree=n,则使用的核函数是n次多项式函数
  • svm.SVC():核函数为径向基函数
  • svm.SVC(kernel=‘sigmoid’):核函数为Sigmoid函数

这里我们观察可知,样本点线性可分,使用线性核函数即可。

  1. # 训练模型,核函数为线性函数,其余参数默认
  2. clf = svm.SVC(kernel='linear')
  3. # 利用训练的模型拟合数据样本点
  4. clf.fit(x,y)

这里需要补充一点,在sklearn拟合的线性模型 h ( w , x ) = w 0 + w 1 x 1 + . . . + w p x p h(w, x)= w_0 + w_1 x_1 + … + w_p x_p h(w,x)=w0+w1x1+…+wpxp中规定 w 0 w_0 w0是clf.intercept_ 也即是截距. w 1 − − w p w_1—w_p w1−−wp 是clf.coef_. 具体到这个平面二分类问题,$h(x, y)= intercept_0 + w_0 x +

  1. w_1 y$
  2. # 获取参数w列表
  3. w = clf.coef_[0]
  4. # a为最优分类线的斜率
  5. a = -w[0]/w[1]
  6. # 绘制SVM分类后的效果
  7. # xx为待绘制的分类线区间,(-5,5)之间x的值
  8. xx = np.linspace(-5,5)
  9. # yy为分类线区间上对应x的y值
  10. # intercept_[0]/w[1]为截距
  11. yy = a*xx-(clf.intercept_[0])/w[1]
  12. # 画出与支持向量点相切的线
  13. # clf.support_vectors_为支持向量点的坐标
  14. # b首先为分类线下方的一个支持向量点
  15. b = clf.support_vectors_[0]
  16. # yy_down为分类线下方的支持向量点的纵坐标
  17. yy_down = a*xx+(b[1]-a*b[0])
  18. # b此时为分类线上方的一个支持向量点
  19. b = clf.support_vectors_[-1]
  20. # yy_up为分类线上方的支持向量点的纵坐标
  21. yy_up = a*xx+(b[1]-a*b[0])
  22. # 最优分类线的w参数
  23. print("W:",w)
  24. # 最优分类线的斜率
  25. print("a:",a)
  26. # 基于svm拟合的模型中,支持向量点的坐标
  27. print("support_vectors_:",clf.support_vectors_)
  28. # 基于svm拟合的模型中,x和y的系数
  29. print("clf.coef_:",clf.coef_)
  30. plt.figure(figsize=(8,4))
  31. plt.plot(xx,yy)
  32. plt.plot(xx,yy_down)
  33. plt.plot(xx,yy_up)
  34. plt.scatter(clf.support_vectors_[:,0],clf.support_vectors_[:,1],s=80)
  35. plt.scatter(x[:,0],x[:,1],c=y,cmap=plt.cm.Paired)
  36. plt.axis('tight') #坐标轴数据显示更明细
  37. plt.show()

在这里插入图片描述
如上图所示,蓝色线为最优分类线,基于线性核函数所拟合的模型中,支持向量点有三个,分别被橙色线穿过两个,绿色线穿过一个。

3 实验练习

对身高体重的数据进行svm分类,要求分别使用线性函数、三次多项式函数、径向基函数和Sigmoid函数作为核函数进行模型训练,并观察分类效果(利用plt绘制样本点,胖的样本点与瘦的样本点用颜色区分,结果绘制出分类曲线):

  1. %matplotlib inline
  2. import numpy as np
  3. import scipy as sp
  4. from sklearn import svm
  5. from sklearn.model_selection import train_test_split
  6. # 注意: 如果sklearn是0.18之前的版本,则执行下面的语句:
  7. # from sklearn.cross_validation import train_test_split
  8. import matplotlib.pyplot as plt

这里我们导入预先设置好的身高体重数据(data.txt):

  1. data = []
  2. labels = []
  3. # 读取身高体重数据集
  4. with open("./Input/data.txt") as ifile:
  5. for line in ifile:
  6. tokens = line.strip().split(' ')
  7. # data列表存储身高体重数据
  8. data.append([float(tk) for tk in tokens[:-1]])
  9. # label列表存储此人被定义为胖还是瘦
  10. labels.append(tokens[-1])
  11. # x: 以array形式存储身高体重构成的坐标
  12. x = np.array(data)
  13. # labels: 将label列表array化
  14. print(labels)
  15. labels = np.array(labels)
  16. y = np.zeros(labels.shape)
  17. # y:存储0,1化的体重标签,值为0说明此人被定义为瘦,值为1说明此人定义为胖
  18. y[labels=='fat']=1
  19. print(y)
  20. x_train, x_test, y_train, y_test = train_test_split(x, y, test_size = 0.0)
  21. # 建立画布(可以不用关心具体的实现过程)
  22. h = .02
  23. x_min, x_max = x_train[:, 0].min() - 0.1, x_train[:, 0].max() + 0.1
  24. y_min, y_max = x_train[:, 1].min() - 1, x_train[:, 1].max() + 1
  25. xx, yy = np.meshgrid(np.arange(x_min, x_max, h),
  26. np.arange(y_min, y_max, h))

练习1:调用svm中SVC模块

下面的代码中初始设定的SVC都是空值,根据前面的介绍,当SVC都是空值时,默认用径向基函数进行svm训练,执行下面的代码,观察径向基函数的分类效果。

练习2:利用不同的核函数进行训练

请根据注释在SVC括号内填入参数,使得分别实现用线性函数、1次多项式函数、径向基函数及Sigmoid函数对数据集进行拟合。

练习3:参数调整

调整多项式函数中的多项式次数(degree),观察并评估四个核函数在怎样的参数下会有最好的分类效果(注:所谓的分类效果最好,即尽量实现在上方棕色区域内全为棕色点,在下方蓝色区域内全为蓝色点)

  1. # 绘图名称
  2. titles = ['LinearSVC (linear kernel)',
  3. 'SVC with polynomial kernel',
  4. 'SVC with RBF kernel',
  5. 'SVC with Sigmoid kernel']
  6. # 建立模型并拟合数据
  7. # 核函数为线性函数
  8. clf_linear = svm.SVC(kernel='linear',C=30,gamma='auto').fit(x, y)
  9. # 核函数为多项式函数
  10. clf_poly = svm.SVC(kernel='poly', degree=2,gamma=90).fit(x, y)
  11. # 核函数为径向基函数
  12. clf_rbf = svm.SVC(gamma=0.03,C=1050).fit(x, y)
  13. # 核函数为Sigmoid函数
  14. clf_sigmoid = svm.SVC(kernel='sigmoid',gamma=0.0000003,C=10000000000000000).fit(x, y)
  15. for i, clf in enumerate((clf_linear, clf_poly, clf_rbf, clf_sigmoid)):
  16. answer = clf.predict(np.c_[xx.ravel(), yy.ravel()])
  17. plt.subplot(2, 2, i + 1)
  18. plt.subplots_adjust(wspace=0.4, hspace=0.4)
  19. # 将数据点绘制在坐标图上
  20. z = answer.reshape(xx.shape)
  21. plt.contourf(xx, yy, z, cmap=plt.cm.Paired, alpha=0.8)
  22. plt.scatter(x_train[:, 0], x_train[:, 1], c=y_train, cmap=plt.cm.Paired)
  23. plt.xlabel('Height(m)')
  24. plt.ylabel('Weight(kg)')
  25. plt.xlim(xx.min(), xx.max())
  26. plt.ylim(yy.min(), yy.max())
  27. plt.xticks(())
  28. plt.yticks(())
  29. plt.title(titles[i])
  30. plt.show()

在这里插入图片描述

发表评论

表情:
评论列表 (有 0 条评论,139人围观)

还没有评论,来说两句吧...

相关阅读

    相关 SVM支持向量

    线性分类问题 > 对于一个二维线性可分的样本,往往分割开这些样本的直线有许多条,这些直线的样本内误差皆为零,但这些直线都一样好吗,这不尽然 ![avatar][] 对

    相关 支持向量SVM

    一、简介 SVM被有的人认为是目前最好的现成(现成是指分类器不加修改即可直接使用)的算法之一,这意味着在数据上应用基本形式的SVM分类器就可以得到低错误率的结果。SVM能

    相关 svm 支持向量

    通俗解释: 超级通俗的解释: 支持向量机是用来解决分类问题的。 先考虑最简单的情况,豌豆和米粒,用晒子很快可以分开,小颗粒漏下去,大颗粒保留。