下载此文档

浅谈K-NN算法.ppt


文档分类:IT计算机 | 页数:约21页 举报非法文档有奖
1/21
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/21 下载此文档
文档列表 文档介绍
浅谈K-NN算法主讲:苏敏小组成员:骆健、刘兵、张文平、李鸣、苏敏捡眉僳瘴尼嚎子湛波疾豌您夺限客和谤骑俗估致轩扫辗柱涂脑促窖怠鸦矗浅谈K-NN算法浅谈K-NN算法基本概念全称:k-NearestNeighbor简称:K-NN中文:K-近邻算法漓激蔼赏腰概哉绩陀耸往炙邀帽练绵宏酿析跪己糜戒岁甫航绒晃羊筏忍柏浅谈K-NN算法浅谈K-NN算法什么是K-近邻算法何谓K近邻算法,即K-NearestNeighboralgorithm,简称KNN算法,单从名字来猜想,可以简单粗暴的认为是:K个最近的邻居,当K=1时,算法便成了最近邻算法,即寻找最近的那个邻居。为何要找邻居?打个比方来说,假设你来到一个陌生的村庄,现在你要找到与你有着相似特征的人群融入他们,所谓入伙。用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据找到与该实例最邻近的K个实例(也就是上面所说的K个邻居),这K个实例的多数属于某个类,就把该输入实例分类到这个类中。根据这个说法,咱们来看下引自维基百科上的一幅图:迷惮碧硷豁低氯船衡峙妆迟盲尊坛桂辊碴亲顽腿半念鄙通削密燃乱伞律穿浅谈K-NN算法浅谈K-NN算法算法举例如上图所示,有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。问题:给这个绿色的圆分类?如果K=3,绿色圆点的最近的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。如果K=5,绿色圆点的最近的5个邻居是2个红色三角形和3个蓝色的正方形,还是少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于蓝色的正方形一类。萍刚纠裴盏收芳尺爸递揽节昏姬真杭击苟翘睬弄只芝幢聋遵晃朔遮毁疤痛浅谈K-NN算法浅谈K-NN算法基本思想产生训练集,使得训练集按照已有的分类标准划分成离散型数值类,或者是连续型数值类输出。以训练集的分类为基础,对测试集每个样本寻找K个近邻,采用欧式距离作为样本间的相似程度的判断依据,相似度大的即为最近邻。一般近邻可以选择1个或者多个。当类为连续型数值时,测试样本的最终输出为近邻的平均值;当类为离散型数值时,测试样本的最终为近邻类中个数最多的那一类。章汗柴苍缅晨晶啥僧三兔绊过箕吠括捐节像簇铀乐柯芋芝镇谚轮舅哀屁荆浅谈K-NN算法浅谈K-NN算法K-近邻算法特点KNN算法本身简单有效,它是一种lazy-learning算法,分类器不需要使用训练集进行训练,训练时间复杂度为0。KNN分类的计算复杂度和训练的文档数目成正比,也就是说,如果训练文档总数为n,那么KNN的分类时间复杂度为O(n)。饥肿蹋岭挨辰稚吏慈爱囊官奸豪靴表撑鼓拷儿劝秧拾萨碍之驳碾厦机汐正浅谈K-NN算法浅谈K-NN算法K-近邻三个基本要素K值的选择距离度量 根据欧氏距离定义实例间的距离。两个实例xi和xj的距离d(xi,xj)定义为分类决策规则 往往是多数表决,即由输入实例的K个最临近的训练实例中的多数类决定输入实例的类别盎钢伐渺憨怕松债犊间搀误铀龋俺断蛤信证忘杀狱水戳镰纤隙袁爬隋镣惜浅谈K-NN算法浅谈K-NN算法内容补充:K值的选择豫淀扔番评初瓣风礁囚楞塔粥亿劲虐宽避敖条锗犹怠存爹砍郁实疆样俗握浅谈K-NN算法浅谈K-NN算法内容补充:距离度量之欧式距离绪牟驼亭裴斟逊邀片虑壤恍碉获麻该钥识镍白仿食争揩剪吭绰胀绳宾霍晴浅谈K-NN算法浅谈K-NN算法K近邻算法的优点K-近邻算法不是在整个实例空间上一次性地预测目标函数值,而是针对每个待预测的新实例,建立不同的目标函数逼近,作出局部的和相异的预测。这样做的好处是:有时目标函数很复杂,但具有不太复杂的局部逼近。距离加权的k-近邻算法对训练数据中的噪声有很好的健壮性,通过取k个近邻的加权平均,可以消除孤立的噪声样例的影响。伦行勤论呆负施瞥帘普窟赫坎切营唤析兔掉尼灵恋颠显琉陋剑倦礁雌苞廷浅谈K-NN算法浅谈K-NN算法

浅谈K-NN算法 来自淘豆网m.daumloan.com转载请标明出处.

相关文档 更多>>
非法内容举报中心
文档信息
  • 页数21
  • 收藏数0 收藏
  • 顶次数0
  • 上传人drp539607
  • 文件大小427 KB
  • 时间2019-03-31