随机误差不独立 怎么求极大似然估计法量

 上传我的文档
 下载
 收藏
资料分享,共同学习,共同进步!
 下载此文档
正在努力加载中...
最优估计理论
下载积分:350
内容提示:最优估计理论
文档格式:PPT|
浏览次数:355|
上传日期: 19:04:53|
文档星级:
全文阅读已结束,如果下载本文需要使用
 350 积分
下载此文档
该用户还上传了这些文档
最优估计理论
官方公共微信算术平均数:简单背后有乾坤 | 说人话的统计学 协和八
在上一集中,我们讨论了 对数据进行探索性分析的重要性,以及一些最常用的探索性分析的方法和工具。
其中我们提到,对于 连续型数据而言,我们需要掌握的一项重要信息是它的“ 集中趋势”。也就是说,对某个我们感兴趣的变量,如果我们想用一个数来表示整个数据集里各个个体的平均水平,这个数该是多少?上一集中我们讲过, 算术平均数和 中位数是两种常见的概括集中趋势的方法。它们不仅能揭示数据大略的样子,还是我们走近数据背后本质规律的第一步。
今天,我们就来仔细研究一下 算术平均数,聊聊关于它的那些你不知道的事儿。
如果要在浩如烟海的统计学里找一个最为人熟知的概念,恐怕这个头衔只能落到 算术平均数的头上。它的定义是那么的简单:
假设我们对某个量进行了n次观测,把测量到的数值分别记为 X1, X2,…, Xn,那么要得到算术平均数
,只需把X1到Xn加起来,再除以数据的个数n。用数学符号来表示就是:
不论有没有正式学过统计学, 用算术平均数来估计数据背后的总体规律都是几乎每个人的自觉反应:你开了一个煎饼摊儿,想看看自己生意做得怎样,可能你会首先算算平均每天卖掉多少张饼;你是环保局长,想知道你的城市空气质量有没有在变坏,你会把今年PM2.5的平均值跟往年的比一比;你是陈奕迅的经纪人,要给他策划下次演唱会的曲目,也许你会看看哪几首歌在各大网站的平均点击率最高。
算术平均数显得 自然而然、顺理成章,又是如此 公平、民主——每个数据都均等地贡献了自己的一份,既不多也不少。
而更重要的是,算术平均数也没有辜负人们对它这种来自直觉的信任。千百年来,算术平均数可以称得上是 身经百战、久经考验了——人们用它来认识世界、指导决策,甚至预测未发生的情况,都得到了很好的效果。这从实践上说明,算术平均数具有优良的性质, 的确能够反映事物的本质。
可是为什么呢?
用算术平均数来估计总体的平均水平,感觉好像挺对的,用起来效果也不错,但这都不是真正有理有据的证明。作为科学新青年的我们,今天就来刨根问底一下。
重复测量取平均值
让我们来回想高中物理课,如果你要用游标卡尺测量一个物体的长度,怎样做能使测量更准确?姑且让我们假设,16岁的你没把心思全花在偷瞄那些年你追过的女生(们)上,你也许还记得,那时用的就是多次测量取平均值的方法。为什么? 老师说,这样做可以减少误差,而咱们下面的讨论就是从 误差讲起的。
如果我们戴上 频率主义者的帽子,我们会认为,要测量的物体有一个真实、唯一(但我们并不知道)的长度,我们将其记为 μ。我们对物体的长度进行 n次测量,得到了数据 X1, X2, …, Xn,需要根据这n个数据作出一个对μ的估计。 既然我们希望知道真实值μ,现在我们的任务就是,怎样的估计才会尽可能接近它?
我们试着从 误差的角度来想一想这个事儿。所谓 误差,就是测量值和真实值的差异。用 e1, e2, …, en来表示每个测量值的误差,那么就有
需要注意的是, 这里我们所说的误差,并不是由于尺子本身不准、测量方法不正确(比如总是往一边歪着脑袋读数之类)等原因所导致的(这些原因导致的误差被称为“ 系统误差”),更不是由于人为疏忽而产生的。它是 纯粹由于随机因素而产生的、无法消除的测量值与真值的偏差,因此被称为“ 随机误差”。
极大似然估计
别忘了,我们的任务是要通过 X1, X2, …, Xn来估计 μ,这个跟误差有什么关系呢?我们可以这样想,我们手上有 n个数据,根据上面误差的定义,就相应有了 n个误差。当然,μ是个未知数,因而这n个误差分别是多大我们现在也不知道。假设我们挑了一个数
作为对 真值μ的估计,我们就能据此算出误差的估计值:
如果随机误差 e1, e2,…, en服从某种已知的规律,那么我们观察到这些误差的概率
就是一个关于
的函数。不同的
会使这个概率取到不一样的值,但是 会有一个
最大。也就是说,在所有对 μ的估计中,我们实际观测到的数据在这个
成立的条件下出现的概率最大。由于概率更大的事情总是更可能发生, 因此我们就把这个
作为对真值的最佳估计。
我们不妨来看看一个稍微有些极端的例子。假设我们对某物体的长度进行了五次测量,分别得到11.14cm, 11.20cm, 11.15cm, 11.17cm, 11.16cm。
一个人说,这个物体的真实长度是11.16cm;
另外一个说,不对,我觉得应该是11.22cm。
你会更愿意相信哪个人?
如果第一个人是对的,那么每次测量的误差就会是-0.02cm, 0.04cm, -0.01cm, 0.01cm, 1cm;
如果第二个人是对的,每次测量的误差就变成了-0.08cm, -0.03cm, -0.07cm, -0.05cm, -0.06cm。
你一定会觉得第一个人更靠谱儿——按照第二个人的说法,既然没有系统误差,那怎么可能每次测出来都比真实长度少呢?实在太难以置信了。
这种推理方式是 频率主义统计学一种重要的思想,称为“ 极大似然估计”(maximum likelihood estimation, MLE)。说到底,其实它和我们在第一集《你真的懂p值吗?》里讲过的“反证法”是一回事。对 真值μ的不同估计可以看成是不同的假说,而在这些假说的基础上,我们实际得到的数据出现的 概率P(数据|假说)(即似然函数likelihood)就不同,由此我们选出那个能使P(数据|假说)最大的估计值
(一般记为
)作为我们最愿意相信的一个。我们以后还会看到极大似然估计在其他问题中的应用。
聪明的你应该也会意识到,这里我们并没有采用 贝叶斯统计学的思路。也就是说,我们并不讨论不同的估计值
为真的可能性大小。 在极大似然估计中,我们之所以选择了
,并不是因为它在所有的
中成立的可能性最大(在频率主义的框架中这是不可知的),而 是在它成立的前提下观测到手上数据的可能性最大。
随机误差的性质
我们弄清楚了这一点,现在要做的就是要找出 随机误差e1, e2, …, en 有什么样的性质,从而写出 似然函数
既然它是一个关于
的函数,那么剩下的无非就是求出这个函数取到最大值时
是多少而已。如果我们得到了
,我们就可以看看它和算术平均数有什么差别,甚至说算术平均数会不会就是
首先,既然随机误差是我们无法控制的,那么任意两个不同的测量值的随机误差ei和ej应该彼此没有关联,即相互独立。也就是说,ei有多大并不能影响ej可能取得哪个数值。因此, 我们可以把似然函数拆开,变成每个随机误差出现概率的乘积:
也就是说,我们只需要研究单个随机误差取不同数值的可能性
就足够了。
其次,既然是 随机误差,那么它应该在零点两侧的可能性是相同的。也就是说,如果重复测量很多次,取值为正和取值为负的误差个数会大致相当。这一点之所以成立,是随机误差定义本身的要求——如果误差的方向是可以预测的,那么误差中一定会包含系统误差的成分,因而我们总是能够把可预测的这部分消除掉(如采用更精确的仪器、更有经验的实验人员,甚至是直接把可预测的那部分误差从测量值中减掉),从而剩下在零点两侧对称的部分。更进一步说,对于绝对值相同的误差,取值为正和取值为负的可能性应该是一样的。
最后,绝对值小的随机误差出现的可能性应该比绝对值大的随机误差出现的可能性要来得大。这一点也不难理解。随机误差的绝对值实际上就是测量值与真值的偏差程度,在没有系统误差的情况下,测量值总归不会和真值差得太远,相差越大,可能性就越低。
然而,以上这些都只是非常粗略的描述。在概率论里,一个连续变量取不同数值的可能性大小需要用 概率密度函数(probability density function, pdf)来表示。我们可以把概率密度函数想象成上一集我们讲过的 频率直方图的抽象化。频率直方图描述的是一个变量的若干个具体观测值的分布情况,而概率密度函数表示的是一个变量在理论上的分布情况。
比如说,有一天我们完全掌握了长颈鹿脖子长度的生长规律和影响因素,那么我们就可以得到 长颈鹿脖子长度的概率密度函数:
与频率直方图相似,概率密度函数的曲线下方在某一区间内的面积代表了变量在这一区间内取值的概率。从上图我们可以得知,长颈鹿脖子长度在3到4英尺之间的概率是0.15。不难想到,概率密度函数本身的取值只能为非负数(不然会出现无法解释的负概率),而且整个曲线下方的总面积(即积分)为1(因为无论怎样的分布,变量取值落在负无穷到正无穷之间的概率必然是1)。
误差分布的真面目
那么,随机误差的概率密度函数应该长什么样子?
我们对随机误差的性质有一些初步的认识,但是拥有这些性质的概率密度函数有无数个。比如说,下面的三个概率密度函数都符合 我们说过的标准(正负对称,绝对值越大可能性越小):
肿么办呢?
两三百年前,一大波数学家和天文学家(因为误差对当时以观测为主的天文学研究十分重要)前仆后继地投入到了对误差分布的研究中,这个队伍中,有许多如雷贯耳的名字:伽利略、辛普森、拉格朗日、拉普拉斯……可是他们都没得到什么大进展,也许是因为这个问题实在有些纠结——随机误差看不见摸不着,也说不清楚来源到底是什么,仅仅依靠模糊的认识,加上一些难以证明正确与否的数学假设,实在很难往前再迈进一步。
这时,我们的主角出场了——他就是大名鼎鼎的 德国数学家高斯:
高斯思考这个问题的方法十分独特(甚至有那么点儿鸡贼),充分体现了他天才的直觉。他想,既然大伙儿琢磨了半天误差分布都没搞出什么来,我也别按他们的套路去碰壁了。反正算术平均数都被人类用了千百年,没准儿它就是对真值的极大似然估计呢?干脆我来看看,什么样的误差分布
能让算术平均数
成为极大似然估计
也就是说,高斯把这个问题整个儿颠倒了过来。之前我们想的是,先找到误差的概率密度函数,然后根据误差分布推出对真值的极大似然估计;结果高斯反其道而行之,他直接去猜测上帝的意图,假设算术平均数恰好就是极大似然估计,然后反过来寻找怎样的误差分布能使这一假设成立。
这个问题被高斯玩儿了这么个小花招之后,一下子简单多了。高斯证明了在所有的概率密度函数中,能满足上述要求的只有一个(详细证明不难,可见参考文献2的第14、15页),它就是
如果上面这条式子没有让你认出它是谁的话,我们再来看看它长什么样子:
不错,高斯推出来的正是著名的 正态分布(normal distribution, 也称高斯分布)!也就是说,如果我们对某个量进行重复测量的随机误差服从以0为中心的正态分布,那么算术平均数就是对真值的最大似然估计,从而千百年来人们对算术平均数的直觉是正确的。
我猜你一定会说,慢着慢着,高斯这样不是循环论证吗?他一上来就假设了算术平均值是最大似然估计,然后弄出正态分布这么个玩意儿,接着又说算术平均数的优越性,这脑洞是不是开得有点大?
说得好,可是怎样能够打破这个怪圈呢?
让我们下一集见分晓。
参考文献:
1. 陈希孺. (2002). 数理统计学简史. 湖南教育出版社.
2. 靳志辉:《正态分布的前世今生》http://www.med.mcgill.ca/epidemiology/hanley/bios601/Mean-Quantile/intro-normal-distribution-2.pdf
如果您觉得我们的推荐内容对您还有点儿用,可以尝试长按上图二维码打赏我们!^_^
7月原创好文回顾,请点击阅读:
朝阳35处|个人不良资产如何有效处置?大数据帮你搞定三件大事
朝阳35处|请珍惜你身边的“婷婷”
互金时代大数据在贷后管理中的应用
骗子也玩大数据?来自数据分析师的揭秘
大数据征信如何提升金融机构风控能力
下围棋算什么,如果人工智能下一个要挑战的是周杰伦
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
今日搜狐热点君,已阅读到文档的结尾了呢~~
第二讲 估计方法 第二讲 估计方法 第二讲 估计方法 第二讲 估计方法
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
第二讲 估计方法
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer-4.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口拒绝访问 |
| 百度云加速
请打开cookies.
此网站 () 的管理员禁止了您的访问。原因是您的访问包含了非浏览器特征(3a0c2d-ua98).
重新安装浏览器,或使用别的浏览器}

我要回帖

更多关于 似然估计 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信