Support Vector Machine 支持向量机内容? SVM 的理论基础?线性判别函数和判别面?最优分类面?支持向量机 SVM 的理论基础?传统的统计模式识别方法只有在样本趋向无穷大时, 其性能才有理论的保证。统计学习理论( STL )研究有限样本情况下的机器学习问题。 SVM 的理论基础就是统计学习理论。?传统的统计模式识别方法在进行机器学习时,强调经验风险最小化。而单纯的经验风险最小化会产生“过学习问题”,其推广能力较差。?推广能力是指: 将学习机器(即预测函数,或称学习函数、学习模型)对未来输出进行正确预测的能力。 SVM 的理论基础?“过学习问题”:某些情况下,当训练误差过小反而会导致推广能力的下降。例如:对一组训练样本(x,y),x 分布在实数范围内, y取值在[0,1]之间。无论这些样本是由什么模型产生的,我们总可以用 y=sin(w *x)去拟合,使得训练误差为 0. SVM 的理论基础?根据统计学习理论,学习机器的实际风险由经验风险值和置信范围值两部分组成。而基于经验风险最小化准则的学习方法只强调了训练样本的经验风险最小误差,没有最小化置信范围值,因此其推广能力较差。? Vapnik 与1995 年提出的支持向量机( Support Vector Machine, SVM )以训练误差作为优化问题的约束条件,以置信范围值最小化作为优化目标,即 SVM 是一种基于结构风险最小化准则的学习方法,其推广能力明显优于一些传统的学习方法。 SVM 的理论基础?由于 SVM 的求解最后转化成二次规划问题的求解,因此 SVM 的解是全局唯一的最优解?SVM 在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势,?一个线性判别函数( discriminant function) 是指由x的各个分量的线性组合而成的函数?两类情况: 对于两类问题的决策规则为?如果 g(x )>=0 ,则判定 x属于 C 1, ?如果 g(x )<0 ,则判定 x属于 C 2 ( ) g x w x b ? ??线性判别函数和判别面?方程 g(x)=0 定义了一个判定面,它把归类于C 1的点与归类于C 2 的点分开来。?当 g(x) 是线性函数时,这个平面被称为“超平面”( hyperplane )。?当x 1和x 2都在判定面上时, ?这表明 w和超平面上任意向量正交, ?并称 w为超平面的法向量。超平面 1 2 1 2 ( ) 0 w x b w x b w x x ? ????? ??或线性判别函数和判别面判别函数 g(x )是特征空间中某点 x到超平面的距离的一种代数度量. 2 || || ( ) , || || ( ) ( ) || || ( 0, || || ) || || || || ( ) || || ppp p p w x x r ww x x r g x w x b w g x w x b w w x r b ww w x b w r w x b w w w w r w g x rw ? ?? ? ???? ??? ???? ???? ???????将代入中我们有线性判别函数和判别面广义线性判别函数在一维空间中,没有任何一个线性函数能解决下述划分问题(黑红各代表一类数据),可见线性判别函数有一定的局限性。
模式识别8-支持向量机(SVM)课件 来自淘豆网m.daumloan.com转载请标明出处.