统计学习及监督学习概论
统计学习
^60b03a
^a3796f
^c23427
统计学习用于对数据的预测和分析,特别是对未知新数据的预测和分析
^cff7ef
统计学习的方法是基于数据构建概率统计模型从而对数据进行预测和分析
统计学习方法概括如下:从给定的、有限的、用于学习的训练数据集合出发,假设数据是独立同分布产生的;并且假设要学习的模型属于某个函数集合,称为*假设空间 * ;应用某个评价准则,从假设空间中选取一个最优模型,使它对已知的的训练数据及未知的测试数据在给定的评价准则下有最优的预测;最优模型的选取由算法实现
统计学习方法包括模型的假设空间**(模型)、模型选择的准则(策略)、模型学习方法(算法)**
实现统计学习方法的步骤:
- 得到一个有限的训练数据集合
- 确定包含所有可能模型的假设空间,即学习模型的集合
- 确定模型选择的准则,即学习的策略
- 实现求解最优模型的算法,即学习的算法
- 通过学习方法选择最优模型
- 利用学习的最优模型对新数据进行预测或分析
统计学习的分类
基本分类
无监督学习的本质是学习数据中的统计规律或潜在结构
模型 可表示为函数
强化学习是指智能系统在与环境的连续互动中学习最优行为策略的机器学习问题。,假设智能系统与环境的互动是基于马尔可夫决策过程,智能系统能观测到的是与环境互动得到的数据序列。
强化学习的本质是学习最优的序贯决策
按模型分类
按算法分类
批量学习是指一次性接受所有的数据,学习模型,之后进行预测
按技巧分类
贝叶斯学习,又称为贝叶斯推理,是统计学、机器学习中重要的方法。其主要想法是,在概率模型的学习和推理中,利用贝叶斯定理,计算在给定数据条件下模型的条件概率,即后验概率,并应用这个原理进行模型的估计,以及对数据的预测。将模型、未观测要素及其参数用变量表示,使用模型的先验分布是贝叶斯学习的特点。朴素贝叶斯、潜在狄利克雷分配属于贝叶斯学习。
假设随机变量
$P(\theta |D) = \frac {P(\theta )P(D|\theta )}{P(D)} $
其中
模型估计时,估计整个后验概率分布
预测时,计算数据对后验概率分布的期望值:
$P(x|D) = \int P(x|\theta ,D)P(\theta |D) d\theta $
这里的
统计学习方法三要素
方法 = 模型 + 策略 + 算法
模型
在监督学习过程中,模型就是所要学习的条件概率分布或决策函数
策略
策略的目的是按照什么样的准则学习或选择最优模型。损失函数 和 风险函数,损失函数用来度量模型一次预测的好坏,风险函数用来度量平均意义下模型预测的好坏。
算法
算法是指学习模型的具体计算方法。统计学习基于训练数据集,根据学习策略,从假设空间中选取最优模型,最后需要考虑用什么样的计算方法求解最优模型
统计学习问题归结为最优化问题,统计学习的算法成为求解最优化问题的算法。那如何保证找到全局最优解,并使求解过程高效就成为了一个很重要的问题。