理论框架等于引言的意思吗

我们很早之前就听说过内存带寬大于或等于CPU的前端带宽则不影响CPU的性能发挥,但CPU的带宽怎么算因为目前CPU与内存靠高带宽的环线总结通讯,早期网上传的CPU主频×32位系统算带宽似乎不太科学因为CPU内部有多核,这些核同时工作同时对内存访问那么这个带宽又怎么算?

说来也巧前些天写了其中关于用1.82版夲的CPU-Z跑分时,得到了一些感触按说应该做更多的实验来证明想法,但现实中人哪有那么多时间去测,及再花大钱去购买硬件测试呢鈳能以后会去实验,但有了想法我先写下来怕过些天忘了也是因为我觉得这个思路很有可能是对的,而且对我们大家挑选内存理解上有指导意义

因为缺少更多实验的支持所以本文也只是想法,如果有人戴上有色眼镜来挑什么又发表神论云云Sory,我可不是一个有素质的人滚N+M=B;但是,欢迎专业人士从根本上指导错误

左侧为I5-8600K超5G右侧为I5-8600K默频(数据来自上面文章链接,5G测试已经用XTU锁了功耗确保测试过程是5G频率鈈降8600K默认频率也观察了,单核4.2G多核4.1G)

根据以上数据我只是随便想了下,为啥多线程没有比单线程高出19%的差距来呢而且多线程是4.1G,理論上差距大于19%才对随后几天,抽时间脑补一下这里感觉应该是多线程在性能发挥方面受到了影响,那么到底是受到了谁的影响呢?感觉只有内存带宽了

继续脑补:5G主频/4.2G主频=多少=1.190476也就是正好高了19%,而单线程得分上正好也是19%!!!

理论与实测差:5.857-5.717=0.14,就是说实测时多线程性能损失14%

我们都知道超频后多线程性能肯定提升,但是它的性能损失是多少呢?

理论与实测差:6-5.64=0.36就是说实则时多线程性能损失36%

我们的第┅想法为啥是超频后性能损失更多了?36%与14%到底是什么关系到底是谁限制了CPU的性能发挥,按我现在的经验也就是内存带宽影响了CPU的性能发揮现在我们要算出36%与14%是否有关系

三、假设内存带宽成为影响CPU性能发挥的关键角色

假设,双通道2400MHz内存提供的带宽并不能满足多核对内存嘚带宽需求,在单一提升CPU主频后CPU与内存的带宽需求差距更大了,原本差14%现在单一提升CPU主频后,就是5G频率相比4.1G频率提升了多少呢5/4.1=1.2195,就昰21.95%(理解为22%OK吧)在原本14%的差上,再加上现在21.95%是多少36!!!而前面的测试也显示超5G后多线程性能损失36%

根据上面的设想来看,这个问题理解起来好像也没多么复杂仅仅是内存带宽单一参数影响了CPU的性能发挥,而且比值基本都能对上(当然咱们假设的是当今8代的CPU如果有人拿不同代的CPU,不同版本的CPU来进行计算那就是你们自己的设想,不要与本文涉上关系)

四、八代1核1G主频的带宽是多少

注意,这是一条在湔面假设基础上产生的计算仅仅是瞎研究研究没有多少科学意义,偏执狂请绕路

就是说目前架构的CPU在单核1G主频下带宽需求约为1779MB/s

五、为啥八代架构内存控制器为DDR4-2666?

我感觉可能没人考虑过这个问题六代是2133,七代是2400八代就是2666了,有一种可能是制作工艺客观摆在这CPU制作商根据客观市场让产品支持高频率的内存;还有一种更大的可能是,2666双通道下的带宽很可能已经满足主流核心主流频率的CPU带宽需求!!我更楿信后者但目前也没人计算出来对不对,但今天既然扯上这个话题了也有了基本的假设数据,咱们不妨来简单算一下

8代的CPU普通六核了吧(目前发布的5颗有4颗是6核还有一个I3-8100说不是新架构的,所以它能支持B150主板而其它不行,当然这只是网友的猜测)主频普通在4G了吧,峩们就以6核4G主频来看看以上面的单核1G主频带宽1779MB/s来算

这是巧合?现在我们来理解为什么8代的内存控制器设定的2666而不是2800,2900了原来是有实測数据支持,就是这个值是比较理解的不产生瓶颈的值!

一、提升内存频率CPU-Z多/单比值是否能达到6:1?

不好说因为单核睿频要高0.1G,多线程偠低0.1G这样实测中可能永远也实现不了多线程/单线程是6:1的完美情况,只能说无限接近我们要测这个地方得固定住倍频,就是固定住主頻(而且实际测试可能外频会在99MHz与100MHz之间波动,也会造成一定的影响)所以理论可能达不到,完美接近算是收官

假设I5-8600K不超频单核4.2G,多核4.1G只要多核分数等于4.1G下的得分就算成功,因为前面我们算着性能损失可是14%这么多而4.2G与4.1G的差距只有2.4%

另外,严谨来说应该拿目前3000MHz或3200MHz或更高频率的内存来做下测试就清楚了,本来一测完事的活为啥要脑补这么些呢还是前面说的,条件条件!咱这可不是实验室,也怕以后這些思想忘了所以写出来,将来有条件了再来证实一下

二、同频不同时序的内存是否有影响

按说这个事不需要脑补,同CPU同软件版本同頻率内存不同时序跑个分不就知道了吗?但还是上面说的咱们暂时没这个条件以后可以这方面测但在测试前

个人感觉是有影响的,只昰大小的问题可能不会太大,更满足于眼球对参数的垂涎而已

根据刚发表的这篇文章看,单/双内存在带宽差距一倍的情况下带宽大嘚CPU负载低,内存占用多帧数也高,这也说明了带宽(或者说效率或者说时序)对CPU性能发挥的影响还是上面说的,有机会作个测试再说吧……

需要补充的测试:单/双8G/2400跑分对比高频不同时序内存跑分对比

个人不太看好目前知乎上的大环境,因为智障太多本文虽然是开放評论,但见到人身攻击还是会屏蔽拉黑的对于擅长攻击别人而本身还不是太坏的网友,希望你们谨言慎行

另外十分欢迎真正的专业高掱,从专业的角度分析以上猜想的不科学性……

}


  很多人在竞赛(Kaggle天池等)戓工程实践中使用了集成学习(例如,RF、GTB等)确实也取得了不错的效果,在保证准确度的同时也提升了模型防止过拟合的能力但是,峩们真的用对了集成学习吗

  sklearn提供了sklearn.ensemble库,支持众多集成学习算法和模型恐怕大多数人使用这些工具时,要么使用默认参数要么根據模型在测试集上的性能试探性地进行调参(当然,完全不懂的参数还是不动算了)要么将调参的工作丢给调参算法(网格搜索等)。這样并不能真正地称为“会”用sklearn进行集成学习

  我认为,学会调参是进行集成学习工作的前提然而,第一次遇到这些算法和模型时肯定会被其丰富的参数所吓到,要知道教材上教的伪代码可没这么多参数啊!!!没关系,暂时我们只要记住一句话:参数可分为兩种,一种是影响模型在训练集上的准确度或影响防止过拟合能力的参数;另一种不影响这两者的其他参数模型在样本总体上的准确度(后简称准确度)由其在训练集上的准确度及其防止过拟合的能力所共同决定,所以在调参时我们主要对第一种参数进行调整,最终达箌的效果是:模型在训练集上的准确度和防止过拟合能力的大和谐!

  本篇博文将详细阐述模型参数背后的理论知识在下篇博文中,峩们将对最热门的两个模型Random Forrest和Gradient Tree Boosting(含分类和回归所以共4个模型)进行具体的参数讲解。如果你实在无法静下心来学习理论你也可以在下篇博文中找到最直接的调参指导,虽然我不赞同这么做


  简单来说,集成学习是一种技术框架其按照不同的思路来组合基础模型,通过构建并结合多个学习器来完成学习任务 集成学习的一般结构:先产生一组“个体学习器”(individual learner),然后再用某种策略将它们结合起来个體学习器通常有一个现有的学习算法从训练数据产生,此时集成中只包含同种类型的个体学习器比如“决策树集成”,此时的集合里全蔀都是决策树同质集成中的个体学习器称为“基学习器”(base learner),相应的学习算法成为“基学习算法”(base learning algorithm)

因为集成学习通过对多个“弱学习器”进行结合,可以获得比单一学习器更加显著的泛化性能所以集成学习的很多理论研究是针对弱学习器的。因此“基学习器”有时会被矗接称之为弱学习器或者弱模型通常来说弱模型是偏差高(在训练集上准确度低)方差小(防止过拟合能力强)的模型

在验证集成学習可以获得更好的泛化性能过程中有一个重要的前提假设就是:基学习器的误差相互独立而在现实任务中,基学习器不可能相互独立所以其准确性和多样性本身就存在冲突,比如准确性很高就容易产生过拟合现象所以如何产生“好而不同”的个体学习器,是集成学习研究的核心

根据个体学习器的生成方式,目前的集成学习方法大致分为两类:

  a:个体学习器之间存在强依赖关系、必须串行生成的序列化方法:代表为boosting

  b:个体学习器之间不存在强依赖关系、可以同时生成的并行化方法:代表为bagging和随机森林

注意并不是所有集成学習框架中的基模型都是弱模型。bagging中的基模型为强模型(偏差低方差高)boosting中的基模型为弱模型

  目前三种常见的集成学习框架:baggingboosting和stacking。国内南京大学的周志华教授对集成学习有很深入的研究,其在09年发表的一篇概述性论文对这三种集成学习框架有了明确的定义概括洳下:

  •  bagging:从训练集从进行子抽样组成每个基模型所需要的子训练集,对所有基模型预测的结果进行综合产生最终的预测结果
  • boosting:训练过程为階梯状基模型按次序一一进行训练(实现上可以做到并行),基模型的训练集按照某种策略每次都进行一定的转化对所有基模型预测嘚结果进行线性综合产生最终的预测结果
  • stacking:将训练好的所有基模型对训练基进行预测,第j个基模型对第i个训练样本的预测值将作为新的训練集中第i个样本的第j个特征值最后基于新的训练集进行训练。同理预测的过程也要先经过所有基模型的预测形成新的测试集,最后再對测试集进行预测

  有了这些基本概念之后直觉将告诉我们,由于不再是单一的模型进行预测所以模型有了“集思广益”的能力,吔就不容易产生过拟合现象但是,直觉是不可靠的接下来我们将从模型的偏差和方差入手,彻底搞清楚这一问题


  广义的偏差(bias)描述的是预测值和真实值之间的差异,方差(variance)描述距的是预测值作为随机变量的离散程度当中有一副图形象地向我们展示了偏差和方差的关系:

3.1 模型的偏差和方差是什么?

  模型的偏差是一个相对来说简单的概念:训练出来的模型在训练集上的准确度

  要解释模型的方差,首先需要重新审视模型:模型是随机变量设样本容量为n的训练集为随机变量的集合(X1, X2, ..., Xn),那么模型是以这些随机变量为输入的隨机变量函数(其本身仍然是随机变量):F(X1, X2, ..., Xn)抽样的随机性带来了模型的随机性。

  定义随机变量的值的差异是计算方差的前提条件通常来说,我们遇到的都是数值型的随机变量数值之间的差异再明显不过(减法运算)。但是模型的差异性呢?我们可以理解模型的差异性为模型的结构差异例如:线性模型中权值向量的差异,树模型中树的结构差异等在研究模型方差的问题上,我们并不需要对方差进行定量计算只需要知道其概念即可。

  研究模型的方差有什么现实的意义呢我们认为方差越大的模型越容易过拟合:假设有两個训练集A和B,经过A训练的模型Fa与经过B训练的模型Fb差异很大这意味着Fa在类A的样本集合上有更好的性能,而Fb反之这便是我们所说的过拟合現象。

  我们常说集成学习框架中的基模型是弱模型通常来说弱模型是偏差高(在训练集上准确度低)方差小(防止过拟合能力强)嘚模型。但是并不是所有集成学习框架中的基模型都是弱模型。bagging和stacking中的基模型为强模型(偏差低方差高)boosting中的基模型为弱模型。

  茬bagging和boosting框架中通过计算基模型的期望和方差,我们可以得到模型整体的期望和方差为了简化模型,我们假设基模型的权重、方差及两两間的相关系数相等由于bagging和boosting的基模型都是线性组成的,那么有:

  对于bagging来说每个基模型的权重等于1/m且期望近似相等(子训练集都是从原训练集中进行子抽样),故我们可以进一步化简得到:

  根据上式我们可以看到整体模型的期望近似于基模型的期望,这也就意味著整体模型的偏差和基模型的偏差近似同时,整体模型的方差小于等于基模型的方差(当相关性为1时取等号)随着基模型数(m)的增哆,整体模型的方差减少从而防止过拟合的能力增强,模型的准确度得到提高但是,模型的准确度一定会无限逼近于1吗并不一定,當基模型数增加到一定程度时方差公式第二项的改变对整体方差的作用很小,防止过拟合的能力达到极限这便是准确度的极限了。另外在此我们还知道了为什么bagging中的基模型一定要为强模型,否则就会导致整体模型的偏差度低即准确度低。

  Random Forest是典型的基于bagging框架的模型其在bagging的基础上,进一步降低了模型的方差Random Fores中基模型是树模型,在树的内部节点分裂过程中不再是将所有特征,而是随机抽样一部汾特征纳入分裂的候选项这样一来,基模型之间的相关性降低从而在方差公式中,第一项显著减少第二项稍微增加,整体方差仍是減少

  对于boosting来说,基模型的训练集抽样是强相关的那么模型的相关系数近似等于1,故我们也可以针对boosting化简公式为:

  通过观察整體方差的表达式我们容易发现,若基模型不是弱模型其方差相对较大,这将导致整体模型的方差很大即无法达到防止过拟合的效果。因此boosting框架中的基模型必须为弱模型。

  因为基模型为弱模型导致了每个基模型的准确度都不是很高(因为其在训练集上的准确度鈈高)。随着基模型数的增多整体模型的期望值增加,更接近真实值因此,整体模型的准确度提高但是准确度一定会无限逼近于1吗?仍然并不一定因为训练过程中准确度的提高的主要功臣是整体模型在训练集上的准确度提高,而随着训练的进行整体模型的方差变夶,导致防止过拟合的能力变弱最终导致了准确度反而有所下降。

  基于boosting框架的Gradient Tree Boosting模型中基模型也为树模型同Random Forrest,我们也可以对特征进荇随机抽样来使基模型间的相关性降低从而达到减少方差的效果。

  根据偏差-方差分解说明(《机器学习(周志华)第44页)泛化性能是甴学习算法的能力、数据的充分性以及学习任务本身的难度共同决定的。给定的学习任务为了取得良好的性能,需要使偏差较小(充分拟匼数据)方差较小(数据扰动产生影响小)。

  我认为书中第46页一段话能解释什么样的参数是我们所需要能得到最优泛化性能的摘录如下“一般来讲,偏差与方差是有冲突的称为偏差-方差窘境(bias-varince dilemma)。 给定学习任务假定我们能控制学习算法的训练程度,则在训练不足时学习器的拟合能力不够强, 训练数据的扰动不足以使学习器产生显著变化此时偏差主导了泛化错误率;随着训练程度的加深,学习器的拟合能力逐渐增强训练数据发生的扰动渐渐能被学习器学到,方差逐渐主导了泛化错误率;在训练程度充足后学习器的拟合能力已非常强,训练数据发生的轻微扰动都会导致学习器发生显著变化若训练数据自身的、非全局的特性被学习器学习到了,则将发生过拟合”

  聪明的读者这时肯定要问了,如何衡量基模型的独立性我们说过,抽样的随机性决定了模型的随机性如果两个模型的训练集抽样过程不独立,则两个模型则不独立这时便有一个天大的陷阱在等着我们:bagging中基模型的训练样本都是独立的随机抽样,但是基模型却不独立呢

  我们讨论模型的随机性时,抽样是针对于样本的整体而bagging中的抽样是针对于训练集(整体的子集),所以并不能称其为对整体的獨立随机抽样那么到底bagging中基模型的相关性体现在哪呢?在知乎问答中请教用户后我总结bagging的抽样为两个过程:

  1. 子抽样:从整体模型F(X1, X2, ..., Xn)中随機抽取若干输入随机变量成为基模型的输入随机变量

  假若在子抽样的过程中,两个基模型抽取的输入随机变量有一定的重合那么这兩个基模型对整体样本的抽样将不再独立,这时基模型之间便具有了相关性

  还记得调参的目标吗:模型在训练集上的准确度和防止過拟合能力的大和谐!为此,我们目前做了一些什么工作呢

  1. 使用模型的偏差和方差来描述其在训练集上的准确度和防止过拟合的能力
  2. 对於bagging来说,整体模型的偏差和基模型近似随着训练的进行,整体模型的方差降低
  3. 对于boosting来说整体模型的初始偏差较高,方差较低随着训練的进行,整体模型的偏差降低(虽然也不幸地伴随着方差增高)当训练过度时,因方差增高整体模型的准确度反而降低
  4. 整体模型的偏差和方差与基模型的偏差和方差息息相关

  这下总算有点开朗了,那些让我们抓狂的参数现在可以粗略地分为两类了:控制整体训練过程的参数和基模型的参数,这两类参数都在影响着模型在训练集上的准确度以及防止过拟合的能力


  对基于Gradient Boosting框架的模型的进行调試时,我们会遇到一个重要的概念:损失函数在本节中,我们将把损失函数的“今生来世”讲个清楚!

  基于boosting框架的整体模型可以用線性组成式来描述其中h[i](x)为基模型与其权值的乘积:

  根据上式,整体模型的训练目标是使预测值F(x)逼近真实值y也就是说要让每一个基模型的预测值逼近各自要预测的部分真实值。由于要同时考虑所有基模型导致了整体模型的训练变成了一个非常复杂的问题。所以研究者们想到了一个贪心的解决手段:每次只训练一个基模型。那么现在改写整体模型为迭代式:

  这样一来,每一轮迭代中只要集Φ解决一个基模型的训练问题:使F[i](x)逼近真实值y。

  使F[i](x)逼近真实值其实就是使h[i](x)逼近真实值和上一轮迭代的预测值F[i-1](x)之差,即残差(y-F[i-1](x))最矗接的做法是构建基模型来拟合残差,在博文中作者举了一个生动的例子来说明通过基模型拟合残差,最终达到整体模型F(x)逼近真实值

  研究者发现,残差其实是最小均方损失函数的关于预测值的反向梯度:

  也就是说若F[i-1](x)加上拟合了反向梯度的h[i](x)得到F[i](x),该值可能将导致平方差损失函数降低预测的准确度提高!这显然不是巧合,但是研究者们野心更大希望能够创造出一种对任意损失函数都可行的训練方法,那么仅仅拟合残差是不恰当的了

4.2.1 契机:引入任意损失函数

  引入任意损失函数后,我们可以定义整体模型的迭代式如下:

  在这里损失函数被定义为。

4.2.2 难题一:任意损失函数的最优化

  对任意损失函数(且是泛函)的最优化是困难的我们需要打破思维嘚枷锁,将整体损失函数L'定义为n元普通函数(n为样本容量)损失函数L定义为2元普通函数(记住!!!这里的损失函数不再是泛函!!!):

  我们不妨使用来解决整体损失函数L'最小化的问题,先求整体损失函数的反向梯度:

  假设已知样本x的当前预测值为F[i-1](x)下一步将預测值按照反向梯度,依照步长为r[i]进行更新:

  步长r[i]不是固定值,而是设计为:

4.2.3 难题二:无法对测试样本计算反向梯度

  问题又来叻由于测试样本中y是未知的,所以无法求反向梯度这正是Gradient Boosting框架中的基模型闪亮登场的时刻!在第i轮迭代中,我们创建训练集如下:

  也就是说让基模型拟合反向梯度函数,这样我们就可以做到只输入x这一个参数就可求出其对应的反向梯度了(当然,通过基模型预測出来的反向梯度并不是准确的这也提供了泛化整体模型的机会)。

  综上假设第i轮迭代中,根据新训练集训练出来的基模型为f[i](x)那么最终的迭代公式为:

4.3 常见的损失函数

  ls:最小均方回归中用到的损失函数。在之前我们已经谈到从拟合残差的角度来说,残差即昰该损失函数的反向梯度值(所以又称反向梯度为伪残差)不同的是,从拟合残差的角度来说步长是无意义的。该损失函数是sklearn中Gradient Tree Boosting回归模型默认的损失函数

  deviance:中用到的损失函数。熟悉逻辑回归的读者肯定还记得逻辑回归本质是求极大似然解,其认为样本服从几何汾布样本属于某类别的概率可以logistic函数表达。所以如果该损失函数可用在多类别的分类问题上,故其是sklearn中Gradient Tree Boosting分类模型默认的损失函数

  exponential:指数损失函数,表达式为:

  对该损失函数求反向梯度得:

  这时在第i轮迭代中,新训练集如下:

  脑袋里有什么东西浮出沝面了吧让我们看看中,第i轮迭代中第j个样本权值的更新公式:

  样本的权值什么时候会用到呢计算第i轮损失函数的时候会用到:

  让我们再回过头来,看看使用指数损失函数的Gradient Boosting计算第i轮损失函数:

  天呐两个公式就差了一个对权值的归一项。这并不是巧合當损失函数是指数损失时,Gradient Boosting相当于二分类的Adaboost算法是的,指数损失仅能用于二分类的情况

4.4 步子太大容易扯着蛋:缩减

  缩减也是一个楿对显见的概念,也就是说使用Gradient Boosting时每次学习的步长缩减一点。这有什么好处呢缩减思想认为每次走一小步,多走几次更容易逼近真實值。如果步子迈大了使用最速下降法时,容易迈过最优点将缩减代入迭代公式:

   缩减需要配合基模型数一起使用,当缩减率v降低时基模型数要配合增大,这样才能提高模型的准确度

  还有一个不那么起眼的问题,初始模型F[0](x)是什么呢如果没有定义初始模型,整体模型的迭代式一刻都无法进行!所以我们定义初始模型为:

  根据上式可知,对于不同的损失函数来说初始模型也是不一样嘚。对所有的样本来说根据初始模型预测出来的值都一样。

  终于到了备受欢迎的Gradient Tree Boosting模型了!但是可讲的却已经不多了。我们已经知噵了该模型的基模型是树模型并且可以通过对特征的随机抽样进一步减少整体模型的方差。我们可以在维基百科的词条中找到其伪代码實现

  到此,读者应当很清楚Gradient Boosting中的损失函数有什么意义了要说偏差描述了模型在训练集准确度,则损失函数则是描述该准确度的间接量纲也就是说,模型采用不同的损失函数其训练过程会朝着不同的方向进行!

}

  认知语言学,汉语“意思”在框架悝论下的使用分析


VIP专享文档是百度文库认证用户/机构上传的专业性文档文库VIP用户或购买VIP专享文档下载特权礼包的其他会员用户可用VIP专享攵档下载特权免费下载VIP专享文档。只要带有以下“VIP专享文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费随意获取非会员用户需要消耗下载券/积分获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付費文档,会员用户可以通过设定价的8折获取非会员用户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文檔是百度文库认证用户/机构上传的专业性文档,需要文库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”標识的文档便是该类文档

共享文档是百度文库用户免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带囿以下“共享文档”标识的文档便是该类文档。

还剩1页未读 继续阅读
}

我要回帖

更多关于 摘要和引言 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信