下载此文档

种机器学习算法介绍学习教案.pptx


文档分类:IT计算机 | 页数:约67页 举报非法文档有奖
1/67
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/67 下载此文档
文档列表 文档介绍
会计学
1
种机器(jī qì)学习算法介绍
第一页,共67页。
监督(jiāndū)式学习
工作机制
这个算法由一个目标变量或结果变量(或因变量)组成。
此变量由已知的一系列预示变量(自变量)预测而来。
利用这一系列变量,我们(wǒ men)生成一个将输入值映射到期望输出值的函数。
这个训练过程会一直持续,直到模型在训练数据上获得期望的精确度。
例子
线性回归,决策树,SVM,K – 近邻算法,逻辑回归 等
第2页/共68页
第二页,共67页。
非监督(jiāndū)式学习
工作机制(jīzhì)
没有任何目标变量或结果变量要预测或估计。
用在不同的组内聚类分析。

例子
关联算法, K – 均值算法
第3页/共68页
第三页,共67页。
强化(qiánghuà)学习
工作机制
训练机器进行决策。
机器被放在一个能让它通过反复试错来训练自己(zìjǐ)的环境中。
机器从过去的经验中进行学习,并且尝试利用了解最透彻的知识作出精确的判断。
例子
马尔可夫决策过程
第4页/共68页
第四页,共67页。
十大机器学习(xuéxí)算法
1、线性回归
2、逻辑(luó jí)回归
3、决策树
4、SVM
5、朴素贝叶斯
6、k-Means算法
7、kNN算法
8、Apriori算法
9、最大期望算法(EM)
10、PageRank
第5页/共68页
第五页,共67页。
监督(jiāndū)式学习与非监督(jiāndū)式学习的差别
监督式学习方法,要求:
事先明确知道各个类别的信息
所有待分类项都有一个类别与之对应
如果不能满足(mǎnzú)上述两个条件(例如有海量数据),则需适用聚类算法,即非监督式学习。
监督式学习
非监督式学习
线性回归
逻辑回归
决策树
朴素贝叶斯
SVM
KNN
K-means
Apriori
EM
PageRank
第6页/共68页
第六页,共67页。
线性回归(huíguī)
适用场景
根据连续变量估计实际数值(房价、呼叫次数、总销售额等)。
原理
可通过拟合最佳直线(zhíxiàn)来建立自变量和因变量的关系。拟合结果是条直线(zhíxiàn) Y= a *X + b:其中Y是因变量,a是斜率,x是自变量,b是截距
最佳直线(zhíxiàn)叫做回归线。系数 a 和 b 通过最小二乘法获得。
Python代码
from sklearn import linear_model
x_train=input_variables_values_training_datasets
y_train=target_variables_values_training_datasets
x_test=input_variables_values_test_datasets
linear = ()
(x_train, y_train)
(x_train, y_train)
第7页/共68页
第七页,共67页。
线性回归(huíguī)
针对线性回归容易出现欠拟合的问题,采取局部加权线性回归。
在该算法中,赋予预测点附近每一个点以一定的权值,(kěyǐ)实现对临近点的精确拟合同时忽略那些距离较远的点的贡献,即近点的权值大,远点的权值小,k为波长参数,控制了权值随距离下降的速度,越大下降的越快。
第8页/共68页
第八页,共67页。
线性回归(huíguī)
针对数据的特征比样本点多的问题(wèntí):
一、岭回归
二、前向逐步回归
第9页/共68页
第九页,共67页。
逻辑(luó jí)回归
适用场景
该算法可根据已知的一系列因变量估计离散(lísàn)数值的出现概率。
原理
这是一个分类算法而不是一个回归算法。
从数学上看,在结果中,几率的对数使用的是预测变量
的线性组合模型。
ln(p/(1-p)) = b0+b1*X1+b2*X2+b3*X3....+bk*Xk
分布函数:

式中, 位置参数, 为形状参数
#Import Library
from import Log

种机器学习算法介绍学习教案 来自淘豆网m.daumloan.com转载请标明出处.

非法内容举报中心
文档信息
  • 页数67
  • 收藏数0 收藏
  • 顶次数0
  • 上传人wz_198613
  • 文件大小1.25 MB
  • 时间2021-11-23