爱因斯坦的Z—score模型公式计算:A二x十y十Z再把字母加完,和键盘一样,建意深入思考为什么?

在一个项目中我们通过设计和訓练得到了一个model,该model的泛化可能很好也可能不尽如人意,其背后的决定因素是什么呢或者说我们可以从哪些方面去改进从而使下次得箌的model更加令人满意呢?

”偏差-方差分解(bias-variance decomposition)“是解释学习算法泛化能力性能的一种重要工具偏差-方差分解试图对学习算法的期望泛化错誤率进行拆解。

假设测试样本为xyd 为 x 在数据集中的标记(注意,有可能出现噪声使得 yd != y即所谓的打标样本不纯),y 为 x 的真实标记f(x;D)為在训练集 D 上训练得到的模型 f 在 x 上的预测输出。

以回归任务为例学习算法的期望预测为:

即,泛化误差可分解为:偏差、方差、噪声之囷

0x1:方差:模型的预测稳定性 - 数据扰动对模型的影响

使用样本数相同,但是不同批次的训练集产生的预测方差为:

预测方差度量了同样夶小的训练集的变动所导致的学习性能的变化即刻画了数据扰动所造成的影响。

笔者插入:上式中其实也蕴含了结构风险Z—score模型公式计算的内涵即结构风险越小,模型抗扰动的能力就越强

一个具备良好泛化能力的模型应该有较小的扰动方差。这和算法模型采取的”归納偏好策略“有关一个典型的例子就是SVM的支持向量最大距离策略,这种策略保证了在相同的支持向量候选集(即候选假设空间)中选擇距离支持向量相对距离最远的那个超分界面。同时这也符合”奥卡姆剃刀原则“若有多个假设与观察一致,则选最简单的那个

那么茬实际操作中,有几种策略和方法可以降低模型的方差:

1. 控制训练轮数、提前停止训练、学习率逐渐减小渐进逼近等策略;
2. 使用例如决策樹里的剪枝策略控制模型复杂度;
3. 使用正则化等手段,控制模型复杂度;
4. 使用Dropout手段控制模型复杂度;

0x2:噪声:模型在当前任务能达到嘚期望泛化误差的下届 - 数据决定算法的上界,算法只是在逼近这个上界

如果我们的打标样本中存在噪声即错误标记,则噪声Z—score模型公式計算为:

很显然如果一个训练集中全部都是噪声(即所有样本都标记错误了),则模型的预测期望为0噪声表达了在当前任务上”任何“学习算法(和具体算法无关)所能得到的期望泛化误差的下界,即刻画了学习问题本身的难度

毫无疑问,在开始机器学习的模型开发の前一件非常重要的事情就是”样本打标提纯“,这件事非常重要甚至某种程度上来说比特征工程、模型选择、模型调参等环节都重偠。但有时候会遭到开发者的忽略拿到样本后就急匆匆开始项目,笔者自己在项目中也吃过类似的亏需要牢记一句话:数据决定算法嘚上界,算法只是在逼近这个上界

0x3:偏差:考察模型本身拟合能力

期望输出与真实标记的差别称为偏差(bias),即:

它体现了模型的拟合能力这其实也就是经验风险的计算Z—score模型公式计算。

偏差-方差分解说明泛化性能是由学习算法的能力、数据的充分性以及学习任务本身的难度共同决定的。给定一个学习任务为了取得好的泛化性能,则需使偏差较小即能够充分拟合数据,并且使方差较小即使得数據扰动产生的影响小。

一般来说偏差与方差是有冲突的,这称为”偏差-方差窘境“下图中,给定学习任务假定我们能控制学习算法嘚训练程度,则在不同训练程度下偏差-方差的取值曲线如下:

在训练不足时,学习器的拟合能力不够强训练数据的扰动不足以使学习器产生显著变化,此时偏差主导了泛化错误率;

随着训练程度的加深学习器的拟合能力逐渐增强,训练数据发生的扰动渐渐能被学习器學到方差逐渐主导了泛化错误率;

在训练程度充足后,学习器的拟合能力已非常强训练数据发生的轻微扰动都会导致学习器发生显著變化,若训练数据自身的、非全局的普遍特性被学习器学到了则将发生过拟合。

0x5:经验误差与泛化能力之间的矛盾

在整个偏差-方差Z—score模型公式计算中提高训练样本的数量N是我们无法控制的,在实际项目中高质量的打标样本是比较困难获取的,即使可以获取也要付出比較高的成本我们能做的就是在现有的样本集上,得到一个相对最好的模型 另一方面,打标样本的提纯是我们可以做的但是人工的成夲往往巨大,能否做到100%的提纯也是一个挑战

抛开这两个因素不谈,我们本文重点讨论一下模型预测方差和模型拟合偏差的问题也就是經验误差和泛化能力之间的平衡,即兼顾overfitting和underfitting的方法如何让我们的模型尽可能靠近上图中那个”交汇点“。

这里多谈一点可能有读者会囿疑问,上图中的交汇点为什么不在横轴上呢即为什么取值不能为零?即找到一个完美的解决方案即没有方差也没有偏差。

关于这一點可以这样理解:机器学习面临的问题通常是 NP 难甚至更难,而有效的学习算法必然是在多项式时间内运行完成(假设搜索空间过于庞大)若可彻底避免过拟合,则通过经验误差最小化就能获得最优解这就意味着我们构造性地证明了”P=NP“,因此主要相信”P != NP“,过拟合囷欠拟合就不可完全调和

综上所述,在一个项目中针对算法部分我们需要做的最重要的工作就是防住过拟合,同时让模型尽量去拟合訓练样本我们接下来的内容会围绕过拟合这个话题以及如何避免过拟合展开讨论。

一般地我们把学习器的实际预测输出与样本的真实輸出之间的差异称为“误差(error)”,学习器在训练集上的误差称为“训练误差”或“经验误差”在未来的新样本上的误差称为“泛化误差”。显然我们希望得到泛化误差小的学习器。

然而我们事先不可能知道新样本是什么样的(即我们不可能知道事物的完整全貌),峩们实际能做的是努力使经验误差最小化但遗憾的是,经验最小化的学习器未必就是泛化误差小的学习器。

我们实际希望的是在新样夲上能表现得很好的学习器为了达到这个目的,应该从训练样本中尽可能学出适用于所有潜在样本的“普遍规律”这样才能在遇到新樣本时做出正确的判别。 

然后当学习器把训练样本学得“太好”了的时候,很可能已经把训练样本自身的一些特点(甚至可能是噪音)當做了所有样本都会具有的一般性质这样就会导致泛化性能下降。这种现象在机器学习中称为“过拟合(overfitting)”与过拟合相对的是”欠擬合(underfitting)“,这是指对训练样本的一般性质尚未学号

给定学习算法 A,它所考虑的所有可能概念的集合称为假设空间用符号 H 表示。对于假设空间中的任一概念我们用符号 h 表示,由于并不能确定它是否真是目标概念因此称为“假设”(hypothesis)

在机器学习中,不管是常规的线性模式还是像深度学习这样的复合线性模型,几乎都可以看到损失函数后面会添加一个额外项

常用的额外项一般有两种,一般英文称莋?1-norm?2-norm中文称作L1正则化L2正则化,或者L1范数L2范数

L1正则化和L2正则化可以看做是损失函数的惩罚项

所谓『惩罚』是指对损失函数中嘚某些参数做一些限制具体是什么限制,我们接下来会详细讨论

对于线性回归模型,使用L1正则化的模型叫做Lasso回归使用L2正则化的模型叫做Ridge回归(岭回归)

线性回归模型中,Lasso回归的损失函数如下:

即为L1正则化项||w||1 是指权值向量 w 中各个元素的绝对值之和

一般都会在正则囮项之前添加一个系数Python中用 α 表示,一些文章也用 表示这个系数需要用户指定。

首先先抛出笔者的一个观点:从贝叶斯的角度来看,正则化等价于对模型参数引入先验分布

正则化参数等价于对参数引入 先验分布,使得 模型复杂度 变小(缩小解空间)对于噪声以及 outliers 嘚鲁棒性增强(泛化能力)。

整个最优化问题从贝叶斯观点来看是一种贝叶斯最大后验估计(MAP)

其中正则化项对应后验估计中的先验信息损失函数对应后验估计中的似然函数

两者的乘积即对应贝叶斯最大后验估计的形式

0x1:不包含正则化的原始线性回归

从概率分布的角喥来看,线性回归对应的概率分布为:

笔者认为经验风险/结构化风险更多地是一种指导理论,在实际的算法中更多的是以L1/L2惩罚、引入先验分布、结构dropout、提前剪枝等操作来实现该目的。

0x1:决策树中的正则化

关于决策树的剪枝相关的讨论读者可以参阅relevant link中的文章,这里就不贅述了

我要回帖

更多关于 Z—score模型公式计算 的文章

 

随机推荐