数据挖掘十大算法详解

文章详细介绍了数据挖掘的十大算法,包括决策树C4.5、K-均值聚类、SVM、Apriori算法、EM算法、PageRank、Adaboost算法、K近邻算法、朴素贝叶斯分类器和CART。还提供了相关学习资源和图解。

type
status
date
slug
summary
tags
category
icon
password
文章出处

目录

数据挖掘学习笔记--决策树C4.5
数据挖掘十大算法--K-均值聚类算法
SVM
数据挖掘十大算法--Apriori算法
数据挖掘十大算法----EM算法(最大期望算法)
PageRank
数据挖掘算法学习(八)Adaboost算法
数据挖掘十大算法--K近邻算法
朴素贝叶斯分类器
数据挖掘十大经典算法--CART: 分类与回归树
 

图解十大机器学习算法

图解十大经典的机器学习算法是怎么样的?_深蓝学院的博客-CSDN博客_经典机器学习
弱人工智能近几年取得了重大突破,悄然间已经成为每个人生活中必不可少的一部分。以我们的智能手机为例,看看到底蕴藏着多少人工智能的神奇魔术。 下图是一部典型的iPhone手机上安装的一些常见应用程序,可能很多人都猜不到,人工智能技术已经是手机上很多应用程序的核心驱动力。 图1 iPhone手机上的相关应用 苹果Siri、百度度秘、微软小冰等智能助理类应用,正试图颠覆你和手机交流的根本方式,将手机变成聪明的小秘书;新闻类应用依赖于智能推荐技术,向你推送最适合你的内容;美图秀秀自动对招聘、视频完成智能化的艺术创作;购物类应用采用智能物流技术帮助企业高效、安全地分发货物,提升买家的满意度;滴滴出行,帮助司机师傅选择路线,在不久的将来,自动驾驶技术将重新定义智慧出行。这一切的发生,主要归功于一种实现人工智能的方法--机器学习。 传统的机器学习算法包括决策树、聚类、贝叶斯分类、支持向量机、EM、Adaboost等等。这篇文章将对常用算法做常识性的介绍,没有代码,也没有复杂的理论推导,就是图解一下,知道这些算法是什么,它们是怎么应用的。 决策树 根据一些 feature(特征) 进行分类,每个节点提一个问题,通过判断,将数据分为两类,再继续提问。这些问题是根据已有数据学习出来的,再投入新数据的时候,就可以根据这棵树上的问题,将数据划分到合适的叶子上。 图2 决策树原理示意图 随机森林 在源数据中随机选取数据,组成几个子集: 图3-1 随机森林原理示意图 S矩阵是源数据,有1-N条数据,A、B、C 是feature,最后一列C是类别: 由S随机生成M个子矩阵: 这M个子集得到 M 个决策树:将新数据投入到这M个树中,得到M个分类结果,计数看预测成哪一类的数目最多,就将此类别作为最后的预测结果。 图3-2 随机森林效果展示图 逻辑回归 当预测目标是概率这样的,值域需要满足大于等于0,小于等于1的,这个时候单纯的线性模型是做不到的,因为在定义域不在某个范围之内时,值域也超出了规定区间。 图4-1 线性模型图 所以此时需要这样的形状的模型会比较好: 图4-2 那么怎么得到这样的模型呢? 这个模型需要满足两个条件 "大于等于0","小于等于1" 。大于等于0 的模型可以选择绝对值,平方值,这里用指数函数,一定大于0;小于等于1 用除法,分子是自己,分母是自身加上1,那一定是小于1的了。 图4-3 再做一下变形,就得到了 logistic regressions 模型: 图4-4 通过源数据计算可以得到相应的系数了: 图4-5 最后得到 logistic 的图形: 图4-6 LR模型曲线图 支持向量机 要将两类分开,想要得到一个超平面,最优的超平面是到两类的 margin 达到最大,margin就是超平面与离它最近一点的距离,如下图,Z2>Z1,所以绿色的超平面比较好。 图5 分类问题示意图 将这个超平面表示成一个线性方程,在线上方的一类,都大于等于1,另一类小于等于-1: 点到面的距离根据图中的公式计算: 所以得到total margin的表达式如下,目标是最大化这个margin,就需要最小化分母,于是变成了一个优化问题: 举个例子,三个点,找到最优的超平面,定义了 weight vector=(2,3)-(1,1): 得到weight vector为(a,2a),将两个点代入方程,代入(2,3)另其值=1,代入(1,1)另其值=-1,求解出 a 和 截矩 w0 的值,进而得到超平面的表达式。 a求出来后,代入(a,2a)得到的就是support vector,a和w0代入超平面的方程就是support vector machine。 朴素贝叶斯 举个在 NLP 的应用:给一段文字,返回情感分类,这段文字的态度是positive,还是negative: 图6-1 问题案例 为了解决这个问题,可以只看其中的一些单词: 这段文字,将仅由一些单词和它们的计数代表: 原始问题是:给你一句话,它属于哪一类 ?通过bayes rules变成一个比较简单容易求得的问题: 问题变成,这一类中这句话出现的概率是多少,当然,别忘了公式里的另外两个概率。例子:单词"love"在positive的情况下出现的概率是 0.1,在negative的情况下出现的概率是0.001。 图6-2 NB算法结果展示图 K近邻算法 给一个新的数据时,离它最近的 k 个点中,哪个类别多,这个数据就属于哪一类。 例子:要区分"猫"和"狗",通过"claws"和"sound"两个feature来判断的话,圆形和三角形是已知分类的了,那么这个"star"代表的是哪一类呢? ...
图解十大经典的机器学习算法是怎么样的?_深蓝学院的博客-CSDN博客_经典机器学习
 
Loading...