指数分布的性质中,P后面的是什么除法的运算性质?

扫二维码下载作业帮
3亿+用户的选择
下载作业帮安装包
扫二维码下载作业帮
3亿+用户的选择
计算参数为2的指数分布的概率 p(-1
爱刷wwDV14M
扫二维码下载作业帮
3亿+用户的选择
使用函数 expcdfP = EXPCDF(X,MU) returns the cdf of the exponential distribution withlocation parameter MU,evaluated at the values in X.此题为 expcdf(1,2)
光打expcdf(1, 2)就行了吧
为您推荐:
其他类似问题
扫描下载二维码扫二维码下载作业帮
3亿+用户的选择
下载作业帮安装包
扫二维码下载作业帮
3亿+用户的选择
概率论与数理统计P代表什么指数分布是什么如图 &
frset011EF
扫二维码下载作业帮
3亿+用户的选择
为您推荐:
其他类似问题
扫描下载二维码泊松分布与指数分布的理解 - CSDN博客
泊松分布与指数分布的理解
说到泊松分布,最好是明白:泊松分布是二项分布n很大而p很小时的一种极限形式。
二项分布:已知某件事情发生的概率是p,那么做n次试验,事情发生的次数就服从二项分布。
泊松分布式某段连续的时间内事情发生的次数。事情发生的时间是可以忽略的。关注的是事件的发生。泊松分布是离散的变量。
这段时间是确定大小的,不是说某两件事件(不知何时发生)的间隔。
把连续的时间分割层无数小份,那么每个小份之间都是相互独立的。在每个很小的时间区间内,事情可能发生也可能不发生,因此这就是一个p很小的二项分布。连续的时间分成无数小份,也就意味着n很大,即:泊松分布是二项分布的一种极限形式。
此外,二项分布是最简单的发生于不发生的分布,那么与此关系密切的泊松分布自然在生活中很常见也可以理解了。
泊松分布中的lambda意义就是:一个时间段内时间平均发生的次数。
指数分布是两件事情发生的平均间隔时间,时间是连续变量。
看一道例子:
一机器在任何长为t的时间内出故障的次数是N(t)服从参数为lambda(意义为平均发生的次数)的泊松分布。
1)求两次相邻故障之间的时间间隔T的分布。
解释:由上面的知识可知,这个将服从指数分布。下面是具体计算。
FT(t&0)=P{T&=t}=1-P{T&t}=1-P{N(t)=0}=1-(λt)00!e-λt=1-e-λt,t&0
FT(t≤0)=0
所以得到的分布就是一个指数分布:
FT(t)={1-e-λt,0,t&0t≤0
2)在设备无故障工作8小时的情况下,再无故障工作8小时的概率。
解释:有了上面的分布再计算这个就很简单了。
P(t≥8+8|t≥8)=P(t≥16,t≥8)P(t≥8)=1-P(t&16)1-P(t&8)=1-FT(16)1-FT(8)=e-8λ=P(t≥8)
由此可见无记忆性。
本文已收录于以下专栏:
相关文章推荐
1、泊松分布
由法国数学家西莫恩·德尼·泊松(Siméon-Denis Poisson)在1838年时发表;
若X服从参数为的泊松分布,记为X~P(),
泊松分布的概率分布函数:
本文主要介绍泊松分布,和泊松分布的若干性质
原文出处:
/blog/2015/06/poisson-distribution.html
泊松分布和指数分布:10分钟教程
...
大学时,我一直觉得统计学很难,还差点挂科。工作以后才发现,难的不是统计学,而是我们的教材写得不好。比起高等数学,统计概念其实容易理解多了。
我举一个例子,什么是泊松分...
泊松分布知识总结及例子
指数分布是概率论中的一个比较常见的分布,本章节主要的目的就是列举指数分布的相关性质,同时举出例子说明这些性质的应用。
我举一个例子,什么是泊松分布和指数分布?恐怕大多数人都说不清楚。
我可以在10分钟内,让你毫不费力地理解这两个概念。
一、泊松分布
日常生活中,大量事件是有固定频率的。
某医院平均每小时出生3个...
正态分布,泊松分布,指数分布的c/c++代码
在做实验的时候,需要产生符合某种分布的随机数。
这里总结一下正态分布,泊松分布和指数分布的算法和对应c/c++代码。
# 参照算法和代码可以转换成对应的...
他的最新文章
讲师:宋宝华
讲师:何宇健
您举报文章:
举报原因:
原文地址:
原因补充:
(最多只允许输入30个字)《估计量的性质》
OLS估计量的性质的推导证明(一些补充)1、 线性:(1)证明斜率系数估计量β是Y的线性函数。xyx(Y-Y)xYYxβ===-xxxx =(由于∑x=∑(X-X)=∑X-nX=0)xYx==∑kY, 其中k=xxΛiiiiiiii2i2i2i2iiiiiii2iiii2Λ注意: i(∑k=∑xi2)(由于对确定量Xi而言xi是定值)∑2xi1=·xi(前已证∑xi=0)=0,故∑ki=02∑xixixi2又∑kixi=∑( xi)=∑=122xixi故∑kiXi=∑ki(xi+X)=∑kixi+X ∑ki(前已证∑kixi=1,∑ki=0)=1+0=1,故∑kiXi=1记得∑ki=0与∑kiXi=1,对后面的证明会有用。Λ(2) 证明截距系数估计量α是Y的线性函数。11α=Y-βX=∑(-kiX)Yi=∑wiYi,其中wi=-kiXnnΛΛ11注意:  (-kiX)=n-∑kiX=1-X ki∑wi=∑∑nn(前已证∑ki=0)=1;11wiXi=(-kiX)Xi= ∑Xi-X kiXi(前已证∑kiXi=1)∑∑n∑n1= Xi-X=0;∑n注意∑wi=1, ∑wiXi=0,对后面的证明有用。2、无偏:(1)  是ββ的无偏估计量。β=∑kYii=(iα+βXi+εi)=α∑k∑ki+β∑kiXi+∑kiεiΛΛ(前已证∑kiXi=1,∑ki=0)=β+∑kiεi由于E(∑kiεi)=E(k1ε1+k2ε2+...+knεn)=E(k1ε1)+E(k2ε2)+...+E(knεn)         =k1E(ε1)+k2E(ε2)+...+knE(εn)(注意假设E(εi)=0)=0  所以对等式 =ββ+∑kiεi两边取期望有,E(β)=β+E(∑kiεi)=βΛΛ(2)  是αα的无偏估计量,即E(α)=α证明方法同上,参考课件。注意利用∑wi=1, ∑wiXi=0 课件上有错误:α=α+∑kiεi应改为α=α+∑wiεiΛΛΛΛ3、有效性:证明思路:先计算β的方差Var(β),再证明对任一线性无偏估计量β,(即β满足ΛΛΛ*Λ*β=∑cYii 且E(β)=β ),均满足Var(β)≥Var(β)。对α的有效性证明思路同β。对α,β的最小方差性证明上课件已经说的比较清楚,也没有错误。这里仅仅对α,β的计算作一些说明。ΛΛΛΛΛ*Λ*Λ*ΛΛΛ(1) 计算β与α的方差。Var(β)(注意前面证明无偏性的时候已证β=β+∑kiεi)   =Var(β+∑kiεi)(注意到β为常数)=Var(∑kiεi)=Var(k1ε1+k2ε2+...+knεn)(注意到随机变量εi独立)   =Var(k1ε1)+Var(k2ε2)+...Var(knεn)=k12Var(ε1)+...kn2Var(εn)   (注意到随机变量εi方差相同,为σ2)=σ2∑ki222xixixi22注意到ki=,故ki=,ki==∑22222(xi)(xi)xiΛΛΛΛ1xi2所以Var(β)=ΛΛσ2xi21Var(α)=(前几步思路同上,见课件)=σ∑wi=σ∑(-kiX)2n21222=σ∑(2-kiX+kiX)(这里课件上有错误,请注意)nn2222121  =σ(2 n-X∑ki+X∑ki)(注意前已证∑ki=0,∑ki=)2nnxi2221Xσ2Xi2=σ(+)=2nxinxi222Xi=nxi222(xi+X)nxi2=xi2+2Xxi+nXnxi221X=+nxi224、关于α,β的协方差计算:课本的证明方法略显复杂:在证明前先注意两个公式:若X,Y,Z,W是随机变量,a,b,c,d是常数,则有cov(X+a,Y+b)=cov(X,Y),cov(aX+bY,cW+dZ)=accov(X,W)+adcov(X,Z)+bccov(Y,W)+bdcov(Y,Z)并注意两个对随机变量εi的假设:对i≠j,有cov(εi,εj)=0;对i=j,cov(εi,εj)=cov(εi,εi)=Var(εi)=σ2故 cov(α,β)=cov(α+∑wiεi,β+∑kiεi)(注意到α,β为常数) =cov(∑wiεi,∑kjεj)=cov[(w1ε1+w2ε2+...wnεn),(k1ε1+k2ε2+...knεn)]i=1j=1nnΛΛΛΛ(由于对i≠j,有cov(εi,εj)=0,所以只需考虑i=j的情况) =cov(w1ε1,k1ε1)+cov(w2ε2,k2ε2)+...cov(wnεn,knεn)  =w1k1cov(ε1,ε1)+w2k2cov(ε2,ε2)+....+wnkncov(εn,εn)  (注意到有同方差假设,cov(εi,εi)=Var(εi)=σ2)1σ2  =σ∑wkii=σ(-Xki)ki=∑ni=1i=1n2n2nnni=1i=1nn∑k-σi2i=1X∑ki2i=1(注意到前面已证∑ki=0,∑ki2=12xi∑i=1n<//articLe/.htmlp>)=-σ2X∑xi=1ni2一种比较简单的算法如下:由于α=Y-βX,所以E(α)=Y-E(β)X,α-E(α)=-X[β-E(β)]故  cov(α,β)=E{[α-E(α)][β-E(β)]}=-XE[β-E(β)]2   =-X·Var(β)(在证明β的有效性时已求得Var(β)=-X2=-2xiΛΛΛΛΛΛΛΛΛΛΛΛΛΛΛΛΛΛΛσ2xi2)5、证明σ=sΛΛ22e=ΛΛi2n-2(课件上误作Λn-2e)iei=Yi-Yi=(α-α)+(β-β)Xi+εiei=(α-α)+(β-β)Xi+εi+2Xi(α-α)(β-β)222Λ22ΛΛ-2εi(α-α)-2εi(β-β)Xi(课件上此处有误,请注意)由于前面已算得: α-α=∑wiεi, β-β=∑kiεi又因为  E(α-α)=Var(α),E(β-β)=Var(β),E(εi2)=σ2     E(α-α)(β-β)=cov(α,β)当i≠j,εi,εj独立 故E(εiεj)=E(εi) E(εj)=0所以   E[εi(α-α)]=E[εi(w1ε1+w2ε2+...+wiεi+...wnεn)      =wiE(εi2)=wiσ2同理可算得: E[εi(β-β)]=kiσ2故 E(ei)=Var(α)+XiVar(β)+σ+2Xicov(α,β)-2E[εi(α-α)]-2XiE[εi(β-β)]22ΛΛΛΛΛ2ΛΛ2ΛΛΛΛΛΛΛΛΛ2ΛΛΛΛ=两边求和得σ2X2inxi2+Xi2σ2i2x+σ-2Xi2σ2Xi2x2-2wiσ2-2Xikiσ2E(∑ei)=n2σ2X2inxi2ii22σ2X22+Xi+nσ- Xi-2σwi-2σkiXi∑∑∑∑22xixi2σ2=xX=2σ22x-XX+(n-4)σx(X+x)-XX      =2σ+(n-4)σxnX+2Xx+x-XX=2σ+(n-4)σxnX+x-X nX=2σ+(n-4)σ=(n-2)σxe)=σ,即σ=s=e为σ的无偏估计.故 E(i2iσ2X2+σ2X2ii2σ2X22+nσ- Xi-2σ-2σ∑xi2222i2i2i2i222ii2i2i222i222i2i22Λ22i22n-2n-2
第三节 最小二乘估计量的性质三大性质:线性特性、无偏性和最小偏差性 一、 线性特性的含义线性特性是指参数估计值β^1和β^2分别是观测值Yt或者是扰动项μt的线性组合,或者叫线性函数,也可以称之为可以用Yt或者是μt来表示。 1、β^2的线性特征证明 (1)由β^2的计算公式可得:^=β2∑xy∑xt2ttt2t=∑x(Y-Y)=∑xY-Y∑x∑x∑xtttt22ttt=∑xY∑xt=∑? ?xt∑x2t?Y??t?需要指出的是,这里用到了因为xt不全为零,可设bt=xt∑x2t,从而,bt不全为零,故β^2=∑btYt。这说明β^2是Yt的线性组合。 (2)因为Yt^=β2=β1=β2tt=β1+β2Xt+μt,所以有t∑bY=∑b(β+βX+μ)∑b+β∑bX+∑bμ+∑bμt12tt2tttttt这说明β^2是μt的线性组合。 需要指出的是,这里用到了∑bt=∑bXt∑xt∑∑xt2x∑=∑xt2=0以及tt=2xt∑txtX2Xt=∑2t?xx+Xtt2∑xt?+X2t()????=∑x2tt+∑x2t∑x2t=∑x∑xt∑x∑x+0∑x=12、β^1的线性特征证明 (1)因为β^1=Y^=Y-β^X=1β12=n^X-β2-X,所以有∑Yt(∑bY)tt∑?1-Xbt?n??Yt?1n-Xb这里,令a=,则有β^1=∑aYt这说明β^1是Yt的线性组合。 (2)因为回归模型为Yt^=β1=β1ttt12t=β1+β2Xt+μtt,所以∑aY=∑a(β+βX+μ) ∑a+β∑aX+∑aμt2tttt?因为∑at=∑? -Xbt?=∑n??11n-X∑bt=1。而∑atXt=∑?1-Xbt?n1?X=?tn?∑Xt-X∑bXttX-X=0所以,β^1=β1+∑atμt 这说明β^1是μt的线性组合。 至此,参数的线性特性证明完毕。问题参数估计值线性特性的深层次含义是什么?要根据被解释变量、随机扰动项和的随机性来理解。 二、 无偏性的含义所谓无偏性是指估计值的均值等于真实值。在这里,无偏性是指参数估计值β^1和β^2的期望值分别等于总体参数β1和β2。其数学上要求是^=β和Eβ^=β。 Eβ1122()()证明:根据参数估计值的线性特征,我们推导出:^=β+β∑atμt,所以有: 11∑aμ)=E(β)+E(∑aμ)=E(β)+∑E(aμ)=E(β)+∑(E(a)?E(μ))tt1tt1tt1tt^=E(β+Eβ11()=E(β1)相似地,β^2=β2+∑btμttt,所以有2tt∑bμ)=E(β)+E(∑bμ)=E(β)+∑E(bμ)=E(β)+∑(E(b)?E(μ))2tt2tt^=E(β+Eβ22()=E(β2)三、 最优性(有的书本上直接称之为最小方差性)的含义 最优性是指用最小二乘法得到的参数估计值β^1和β^2估计中得到的方差最小。根据上述的定义,我们可以任意假设β^*2是用其他方法得到的总体参数^ β2因为β^*2具有线性特性,我们可以得到:^=β2*∑cYtt=∑c(βt1+β2Xt+μt),^*=EEβ2=t1()(∑cY)t2ttt=Et(∑c(βtt1+β2Xt+μt))∑cE(β+βX+μ)=∑cβ+∑cE(βX)+∑cE(μ)=β∑c+∑cβE(X)+0=β∑c+β∑cXt12tt1tt2t1t2tt又因为β^*2是用其他方法得到的总体参数β^2^*=β Eβ22()所以由上述两个结果,可以得到:β1∑ct+β2∑ctXt=β2上述式子要成立,必须同时满足两个条件,即∑ct=0和∑ctXt=1现在求β^*2的方差:^*=var(varβcY-E∑ctYt)=E?2?∑tt=E?∑ctYt-E?=E?∑ctYt-?2()(∑ctYt)??2(∑ctYt)?=E?∑ctYt-(∑ctE(Yt))????222∑^?=E?^?ctYcY-Yt?t?∑tt?2()2=E??∑ctμt??=E(c1μ1+c2μ2+???+ctμt)=E??=((c1μ1)2t2+(c2μ2)+???+(ctμt)22)+((cμcμ1122+c1μ1c3μ3+???)+(c2μ2c3μ3+c2μ2c4μ4+???)+???)??∑cE(μt2)+∑∑cμE(μμ)tsts因为根据假设条件(常数方差和非自相关,即var(μt)=E(μt-E(μt))=E(μt22)=σ和2ucov(μt,μs)=E[(μt-E(μt))(μs-E(μs))]=E[(μt-0)(μs-0)]=E(μtμs)=0所以,有222^*=σ2varβc=σc-b+b??()2u∑tu∑?ttt?()=σ2u∑(ct-bt)+σ2-bt)??2u∑b2t+2σ2u∑??b(ctt*β^2方差的最后一项为∑??b(ctt-bt)??=xt?-???t∑bc-∑btt2t=∑∑∑∑?ct ?1xt1xt1xt222∑x2t∑? ?xt∑x2t????2=(∑cxt-1)=(∑ctXt-X-1)()=(∑cXtt-X∑ct-1)=0这是因为∑ct=0和∑ctXt=12因此,有var(β^*2)=σu2∑(ct-bt)很明显,当ct=bt+σu2∑b2t时,β^*2方差最小,此时,最小值为var(β^*2)=σu2∑bt2。^ =β2而在此时,有β^*2=∑ctYt=∑btYt即两个估计值相等。因为β^*2的最小方差等于β^2的方差,即var(β^*2)≥var(β^2),因此,我们说,^在所有线性无偏估计中的方差最小,且最小方差为: β2^=σvarβ2()2u∑b2t=σu22∑xt同理,我们可以证明,β^1在所有线性无偏估计中的方差最小,且参数估计值的方差为:^=varβ1()σu2(∑X)2t2n∑xt。由此,说明,最小二乘估计具有BLUE(best linear unbiased estimation)性质。从而在统计学和计量经济学中得到广泛应用。第四节 系数的显著性检验一、 系数估计值的特性:1、根据系数估计值的线性特性,我们知道系数估计值是Yt和μt的线性组合。又因为Yt和μt都服从正态分布,所以,我们可以自然得到两点:一是系数估计值是随机变量(这里是在数学上再次予以证明);二是系数估计值服从正态分布。从而,可以用随机变量的一些数字特征来表示。通常,我们采用的是均值与方差。 系数估计值的均值是多少呢?根据系数估计值的无偏性,我们知道,E(β^1)=β1,E(β^2)=β2。这说明系数估计值和β^1^β2这两个随机变量的数学期望(均值)分别等于总体参数(实际值)。系数估计值的方差又是多少呢?根据系数估计值的最小方差性的证明,我们得到了其方差,即有^=varβ1()σu2(∑X)2t2tn∑x,^=σvarβ2()2u∑b2t=σu22∑x。t1^和β^这至此,我们可以用随机变量的数学期望和方差来刻画β2^服从均值为β、方差为两个随机变量的分布,即有:β11σu2(∑X)2t2n∑xt的正态分布;而β^2服从均值为β2、方差为σu2∑x2t的分布。用数学的语言222?σu(∑Xt)??σu?^^?和β2 N β2,可以描述为:β1 N β1,。 22? ? ?n∑xt∑xt????可以明显看出的是,在系数的描述中,方差中含有随机扰动项的方差,其他我们可以得到。随机扰动项是总体回归模型中的误差项,无法得到,只能对其估计。 二、 随机误差项方差的估计 因为总体回归模型为:Yt=β1+β2Xt+μt而样本回归模型为:Yt^+β^X+e =β12ttt从形式上看,样本回归模型中的残差e可以看作随机扰动项进一步,残差et的方差可以作为随机扰动项μtμt的估计值。方差σ的估计值。2u的样本回归模型为:Yt^+β^X+e =β12tt^+β^X =β12t样本回归直线为:Y^t样本回归模型的左右两边减去样本回归直线的左右两边,可得:^=e,把这个式子重新安排一下,可以得到: Yt-Ytt^=Y-Y-Y^-Yet=Yt-Yttt()()tt现在,重点要求的是e的两个部分,即(Y^部分知道之后,才能求e的方差。t-Y)和(Yt-Y)。这两对样本回归模型Y有:t^+β^X+e两边分别对=β12ttt求和,再除以n,^+β^X+eYt=β12tt=>=>=>∑Y11t=∑β^+∑β^12Xt+∑et∑n∑nYt=Yt=11∑n∑n^+β11∑n^X+β2t1e∑n1tt^+β^?1β12∑nXt+e∑n^+β^X+1=>Y=β12n∑et由前边的正规方程组,我们曾经知道,点(X,Y)在样本回归直线上,用数学的语言来讲,就有:Y^+β^X^=βYt12t^+β^XY=β12^+β^X=β12,因此,有,进而,有^X-X^-Y=βYt2t()=β^x2t对总体回归模型Y有:Yt=β1+β2Xt+μt=>=>=>t=β1+β2Xt+μt两边分别对t求和,再除以n,∑Y1n1nt=∑β111+∑ββ1+2Xt+∑μt∑Yt=∑Yt=∑n∑n1∑nβ2Xt+11μ∑n1ttβ1+β2?1n∑nμ=1Xt+∑μtμ∑n=>Y=β1+β2X+∑μt--n--→Y=β1+β2X+μ所以,由Yt=β1+β2Xt+μtY=β1+β2X+μ,可得,Yt-Y=β2Xt-X+μt-μ=β2xt+μt-μ()()()将两部分结合起来,现在,我们可以得到:^=Y-Y-Y^-Yet=Yt-Yttt^x^-Y=βYt2tYt-Y=β2xt+μt-μ()())(可以得到:e=(βt2^x+μ-μ-β2tt)((从这个式子我们可以看出),什么呢?)至此,已经将残差与扰动项联系起来了。 由此,我们可以得到:∑e=2t=∑((2^x+μ-μβ2-β2tt)())22∑((^xβ2-β2t))∑(+xt+22μt-μ)+∑2(β22^x?μ-μ-β2tt)()^=β2-β2()∑∑(μt-μ)^+2β2-β2()∑x(μtt-μ)进一步,有:E(∑et=2)=E((^β2-β2)∑2xt+2∑(2μt-μ)2^+2β2-β2^-β2()∑x(μtttt-μ))∑x2t^Eβ2-β2()2+E(∑(μ-μ))+2E((βt2)∑x(μ-μ))在这三项当中,有:^Eβ2-β2()2^-β=Eβ22()2^-Eβ^=Eβ22(())22^=σu=varβ22∑xt()σu22所以,第一项为∑x2t^Eβ2-β2()=∑x2t?∑x2t=σu2第二项为:EE(∑(μ-μ))=E(∑μ2t2t+∑μ2-∑2μE(μt???tμ)(2(∑2uμt2)+E(∑μ-2μ∑μt=1?μt?-2n?2t22)∑2)+Enμ-2μ∑μt)=nσ??1+E n?n?∑∑tμt?∑μt?2?12=nσu+E?n?12=nσu-E?n=nσu-=nσu-=nσu-=nσu-=nσu-222222(∑μ)(∑-??2n(∑μ)???μt)?221n1n1n11nE(∑μt)E(μ1+μ2+???+μt)E(μ1+μ2+???+μt)22222E?(μ1+μ2+???+μt)+(μ1μ2+μ1μ3+???)+(μ2μ3+μ2μ4???)+?????n?E2(∑μ)-nE(∑∑(μμ))2tts1=nσu-σu-=(n-1)σu21n∑∑E(μμ)ts第三项为:2E((β2^-β2)∑x(μtt-μ)))=2E?(∑btμt)∑xtμt-μ???=2E?(∑btμt)?((∑xμ-∑xμ)??ttt=2E?(∑btμt)(∑xtμt)-(∑btμt)?(∑xμ)??t=2E?(∑btμt)(∑xtμt)?-2E?(∑btμt)μ∑xt?????=2E??(b1μ1+???btμt)(x1μ1+???xtμt)??-2E()(∑bμ)E(μ∑x)ttt22=2E?(b1x1μ1+???+btxtμt)+(b1μ1x2μ2+???+b1μ1xtμt)+????-2∑E(btμt)Eμ∑xt??()=2E∑btxtμt+2E=2∑btxtE(μt=2∑btxtσμ2222(∑∑bxμμ)-2∑(bE(μ))E(μ∑x)tststtttsts)+2∑∑bxE(μμ)-0=2σμ∑btxt=2σμ2故有E(∑e)=σ2t2μ+(n-1)σμ-2σμ=(n-2)σμ222,也就是说σμ=21(n-2)E(∑et22)?∑et2?=E(n-2)????2222如令S2=(n-2)∑e,则意味着ES=σ。这说明S是σ的无偏估()μμt计量。前面,我们已经求得222?σu(∑Xt)??σu?^^^?和β2 N β2,β1 N β1,β。在?122 ? ?n∑xtx∑t????2μ和β^的方差中都含2有未知量σ。这里,我们证明了S是σ的无偏估计量,因此,22μ可以用S2=(n-2)∑e作为σ的估计值,这样,代入得到β^和β^的μ2t212方差的估计值分别为:S2^β=S1∑X和Sβn∑x2t22t2^=2S2∑xt2S=,Sβ^=1Sβ^=2分别称为回归模型的标准差、参数^和β^的标准差。 估计值β12知道了估计值的方差估计值,就可以对参数进行显著性检验,也可以估计总体参数的置信区间。 二 参数估计的显著性检验以上一节家庭消费支出和收入之间的关系的例子来说明,通过选取样本,我们得到了总体参数β和β的估计值分12别为β^和β^。通过这个估计值,我们知道了家庭消费支出和12收入的具体数量关系。现在,需要知道的是,通过样本得到的估计值能够正确地反映总体参数吗?这需要通过假设检验来做出判断。 1、 关于假设检验假设检验指利用样本得到的信息来判断总体是否具有某种制定的特征。例如:某药品生产线上规定,每片药片的净重是400毫克,标准差是4毫克。今连续检查20片药片,平均药片重量为395.4毫克。问药片的重量是否已经偏离了额定净重值?假设:对总体分布特征的假设假设检验:根据样本信息来判断总体分布是否具有指定的特征,这个过程叫假设检验。就家庭消费支出而言,我们关注的是家庭消费支出与收入之间是否真的存在回归关系,也就是说我们关注总体参数β1和β2是否不等于零。因此,我们这里的假设是对总体参数的假设,我们这里的检验是对总体参数的假设检验,我们要运用的假设检验的工具是用样本工具得到的与β^和β^有关的12检验的工具。这就是用样本信息来推断总体。1、 对总体均值的假设检验因为我们关注的是解释变量和被解释变量之间的关系是否真实存在,因此,我们需要检验的是总体均值是否为零。对总体均值的假设检验可分三种情况:(1) 总体服从正态分布,总体方差已知,样本大小无限制 (2) 总体总体分布未知,总体方差未知,大样本 (3) 总体服从正态分布,总体方差未知,小样本我们这里符合的是总体服从正态分布,总体方差未知,小样本。2、 用什么来检验?(检验工具,统计量) 我们已经知道,参数估计值满足:222?σu(∑Xt)??σu?^^^?和β2 N β2,β^1和ββ1 N β1,,要尽可能利用关于?222 ? ?n∑xtx∑t????的信息。将β^和β^由正态分布转化为标准正态分布统计量:12Z=^ N(0,1)和Z=^1N(0,1)在这两个统计量中,var(β^)和var(β^)我们都不知道,原因在于2σ2u未知。但我们前边已经证明S2=(n-2)∑e是σ的无偏估计量。t2u2因此,对于大样本情况,我们可以用S2=(n-2)∑e代替σ,进而t2u2求得var(β^)和var(β^)以及S12^β1=Sβ^=2。这样,Z为:Z≈=^ N(0,1)和Z=^ N(0,1)可以进一步转化^-ββ11Sβ^1N(0,1)和Z≈^-ββ22Sβ^2N(0,1)。从而可以利用这两个统计量对总体参数β和β进行检验。(什12么含义)就是说,我们可以对比如β2=α进行检验。如何检验呢?就是考察我们算出来的统计量Z=^=^是否服从正态分布。对于一元线性回归模型而言,我们关心的是解释变量能否解释被解释变量,在数学上这表现为β立。因此,我们可以进行下假设: 零假设 H备择假设 H2≠0是否成:β2=0 :β2≠1在零假设条件下,Z≈^=^服从标准正态分布,我们用这个统计量进行检验。在一般情况下,样本容量不满足大样本条件,这时要用t统计量,所做的检验称之为t分布检验。这时t统计量为:t=^-=^-=^,其服从自由度为(n-2)的t分布。关于t分布t分布的含义是随机变量落入一定区域的概率。给定显著性水平α和自由度(n-2),则t落入区间(-t内的概率为:P{-tt落在(-tαα2α2(n-2),tα2(n-2))(n-2)<t<tα(n-2)}=1-α,也可以写作:α2(n-2),tα2(n-2))区域之外的概率为αP{t>tα(n-2)}=αP{t<-tα2(n-2)}=,此式子等价于。见下图。P{t/articLe/.html>tα2(n-2)}=和α2-tα (n-2) 0 tα (n-2)很显然,如果计算出来的这时t统计量为:t=<tα2(n-2)(即t统计量小于临界值),则可以认为原假设成立,即β2=0。=反之,如果计算出来的这时t统计量为:t则可以认为备择假设成立,即β≠0。>tα(n-2),2因此,我们通常的希望是t统计量值大于临界值。t统计量值我们可以根据样本计算出来,而临界值可以通过查表得到。问题:t值与P值的关系是什么?相应地,我们可以对总体参数值β进行检验。过程为:1零假设为:H:β1=01备择假设为: H计算统计量t=^:β2≠0α查t分布表,得出临界值t若t(n-2)。。>tα2(n-2),则拒绝零假设,接受备择假设,即认为β2≠0三、 总体参数的置信区间 1、β的置信区间1由P{-t得:α2(n-2)<t<tα2(n-2)}=1-α,将t=^-ββ11Sβ^1代入概率公式,可??^-ββ??11P?-tα2(n-2)<<tα2(n-2)?=1-αSβ^???1?{^-t=>P{-β^-t=>P{β11^-βP-tα2(n-2)Sβ^<β^11α2β1α2^(n-2)Sβ^<-β1<-β111α^+t(n-2)Sβ^<β1<β1α2}=1-α+t(n-2)S}=1-α(n-2)S}=1-α1α^β1^β1用概率表述为:总体参数β1^在区间?β(?1^+t(n-2)S?-tα(n-2)Sβ^,β^1α2β11?1)()内的概率为1-α。)包含总体参数^统计表述:区间?β(?^+t(n-2)S?-tα(n-2)Sβ^,β^1α2β11?)(β1的概率为1-α。1通常说,总体参数β的1-α置信区间为:^-t(n-2)S,β^+t(n-2)S??β^^1α1α2ββ11??2()() )2、相似地,总体参数β的1-α置信区间为:^-t(n-2)S^+t(n-2)S?β?,β^^2α22αββ22??()(由这两个区间,可以推断总体回归线所处的区域。 四、决定系数(可决系数)评价回归直线对观察值拟合的好坏,拟合优度是一个重要的指标。显然,若观测点离回归直线近,则拟合程度好,反之,则拟合程度差。测量拟合优度的统计量是可决系数(决定系数)现由一个恒等式开始。^-Y)+(Y-Y^) Yt-Y=(Yttt这个式子把解释变量的总偏差Y或者叫可解释偏差(Y^tt-Y分解成两部分:回归偏差^)两部分之和。 -Y)和残差(Yt-Yt可解释偏差是由样本回归直线决定的,残差则是随机的。显然,由样本回归直线解释的部分越大,则残差越小,样本回归直线与样本值的拟合优度就越好。而要从总体上反映样本回归方程对所有样本点的拟合的好坏,必须求和,考虑到正负抵消的问题,可以求平方和。 总离差平方和:TSS=∑(Y 回归平方和:ESS=∑( 残差平方和:RSS=∑(t-Y2)2^-YYt^Yt-Y) )2现在推导三者之间的关系:^-Y)+(Y-Y^)Y-Y=(Ytttt=>===∑(Yt-Y)∑=2^-Y)+(Y-Y^)??(Ytt??t2∑^-Y)2+(Y-Y^)2+2(Y^-Y)(Y-Y^)??(Ytttttt??^-YYt^-YYt∑(∑()+∑()+∑(22^Yt-Y^Yt-Y))2+2∑(Y^t-Y)(Yt-Y^t)2这里有:^-Y)(Y-Y^)2∑(Yttt^+β^X-Ye=2∑β12tt^^=2βe+2βeXt-2Y∑et1∑t2∑t=(0会议正规方程组)()所以有∑(Yt-Y)=∑(2^-YYt)+∑(2^Yt-Y)。即:2总离差平方和=回归平方和+残差平方和。用公式表示为:TSS=ESS+RSS,ESS表示可以由解释变量说明的偏差部分,RSS表示可以由残差说明的偏差部分。 显然,ESS在TSS中所占的比例越大,RSS所占的比例越小,则参数估计值的显著性越强,样本回归直线与样本观测值拟合得越好。因此,可以用ESS在TSS中所占的比例说明回归直线与样本观测值的拟合程度。也即总离差中可以由回归方程说明的部分。可决系数或拟合优度可以定义为:R=2ESSTSS=∑()∑(Y-Y)^-YYtt22可决系数的取值范围为:RR22?[0,1]变化的含义是什么?四、 相关分析1、 回归分析和相关分析的区别 回归分析:性质、变量要求相关分析:相关关系,不是因果关系。变量要求不同 2、 相关分析的分类:线性相关:直观上讲,样本点集中分布在一条直线附近。直线斜率为正,为正相关。直线斜率为负,则为负相关。 非线性相关:样本点分布在一条曲线周围。 3、 相关程度的度量一般用相关系数表示X和Y的相关程度。 总体相关系数定义为ρXY=covX,Y。总体相关系数的取值范围:总体相关系数与样本相关系数之间的关系。 样本相关系数一般用r来表示,且定义:XYrXY=covX,YEX-XY-Y∑xtytxy这里有:xt=X-Xyt=Y-Y4、 相关分析与回归分析的关系这里特指在一元线性回归分析和简单相关分析中的关系。这里可决系数与相关系数有如下关系:rXY=R22,即r=±5、 计量回归分析的规范表达第五节 预测和预测区间关于预测预测对两种样本数据的作用。对于时间序列数据的估计的目的是预测。对截面数据估计的目的是为了推测未知数据。预测是计量经济学的一项主要任务。 一、 预测的点估计 首先回顾四个方程式 总体回归模型:Yt=β1+β2Xt+μtt1总体回归直线:E(Y)=β样本回归模型:Yt+β2Xt^+β^X+e =β01tt^+β^X =β01t样本回归直线:Y^t对于样本外的符合假定条件的一点X而言,代入总体回归模型和总体回归直线,我们可以得到:Y0=β1+β2X0+μ0和E(Y0)=β1+β2X0然而,由于β和β我们并不知道,因此,无从获得Y和12E(Y0)。但是,利用样本回归直线,我们可以得到Y的估计值Y^,即Y^^+β^X=β12,求期望有:12^+β^X^=EβEY012=β1+X2()^+Eβ()=E(β)(^^=β+βX=E(Y)E(β)12X)这说明Y^是 E(Y)的无偏估计量。同时,E(Y^)=E(Y)=Y^不是Y^≠Y,这说明Y-μ0,故EY0000()的无偏估计量。 由Y0=β1+β2X0+μ0^+β^X^=βY0120可得:^+β^X?^=E?(β+βX+μ)-βEY0-Y??^+β-β^X+μ?=E?β1-β12200??^+XEβ-β^+E(μ)=Eβ1-β10220=0()()()()()()这说明在多次观察中,(Y^-Y0)平均值趋于零,从而以Y^作为Y的估计中心是合理的。 二、预测的区间估计 1、E(Y)的置信区间2、Y的置信区间先求E(Y)的置信区间因为E(Y)=β1+β2X0,所以E(Y0)服从正态分布。求其置信区间的关键是求其与Y^的偏差的方差。^=E?E(Y)-Y^-EE(Y)-Y^?varE(Y0)-Y00000??()()()2其中,E(E(Y)-Y^)=E(Y)-E(Y^)=0(Y^是E(Y)的无偏估计量)所以,varE(Y0)-Y^0=EE(Y0)-Y^0()(),进一步可以写为2^=EE(Y)-Y^varE(Y0)-Y000^=varY0()()2^-Y^=EEY00(())2^-EY^=EY00(())2()进而,^=EE(Y)-Y^varE(Y0)-Y000()()2^+β^X?=E?(β1+β2X0)-β120??()2^-β+β^-βX?=Eβ^-β=E?β1122011??()()2()22^-β+X0Eβ22()2^-β+2X0E?β1?1()(β^2-β2??)上式子中的第一项为:^-βEβ11()2^-Eβ^=Eβ11(())2^==varβ1()σu2(∑X)2t2tn∑x上式子中的第二项为:^-βX0Eβ222()2^-Eβ^=X0Eβ222(())2^==X0varβ22()X0σu22∑xt22^-ββ上式子中的第三项为:2X0E?1?1()(^-β?=-2X0Xσuβ222?x)∑t将上述三项相加得到^=σ2(1+varE(Y0)-Y0un()(X-Xxt2)2u2∑)2因为上式中,总体方差σ可以用S来代替。从而可以得到^的方差估计值为: E(Y0)-Y0∧∧^=VarY^=S(VarE(Y0)-Y002()()1n+(X-X2t)2∑x)所以,根据E(Y)-Y^的分布,给定显著性水平α,使用t统计量,则有即有?^-tP Yα?? P -tα ?2(n-2)<^EY-Y??<tα2(n-2)?=1-α???。n-22(<E(Y)<Y^+t0αn-2=1-α(这说明,E(Y)的1-α置信区间为:?^-tY?0α?2(n-2)Y^+t0α2(n-2)2、Y的置信区间 相似地,我们可以得到Y^的方差估计值为 -Y0^==S(1+VarY0-Y02∧()1n+(X-X2t)2∑x)从而Y的1-α置信区间为:?^?Y0-tα?2(n-2)Y^+t0α2(n-2)10.案例:用回归模型预测木材剩余物伊春林区位于黑龙江省东北部。全区有森林面积218.9732万公顷,木材蓄积量为2.324602亿m3。森林覆盖率为62.5%,是我国主要的木材工业基地之一。1999年伊春林区木材采伐量为532万m。按此速度44年之后,1999年的蓄积量将被采伐一空。所以目前亟待调整木材采伐规划与方式,保护森林生态环境。为缓解森林资源危机,并解决部分职工就业问题,除了做好木材的深加工外,还要充分利用木材剩余物生产林业产品,如纸浆、纸袋、纸板等。因此预测林区的年木材剩余物是安排木材剩余物加工生产的一个关键环节。下面,利用一元线性回归模型预测林区每年的木材剩余物。显然引起木材剩余物变化的关键因素是年木材采伐量。给出伊春林区16个林业局1999年木材剩余物和年木材采伐量数据如表2.1。散点图见图2.14。观测点近似服从线性关系。建立一元线性回归模型如下:yt = β0 + β1 xt + ut表2.1 年剩余物yt和年木材采伐量xt数据林业局名 乌伊岭 东风 新青 红星 五营 上甘岭 友好 翠峦 乌马河 美溪年木材剩余物y(万m3) 年木材采伐量x(万m3) tt26.1323.49 21.97 11.53 7.18 6.80 18.43 11.69 6.80 9.6961.4 48.3 51.8 35.9 17.8 17.0 55.0 32.7 17.0 27.33大丰 南岔 带岭 朗乡 桃山 双丰 合计30Y257.99 12.15 6.80 17.20 9.50 5.52 202.87 21.5 35.5 17.0 50.0 30.0 13.8 532.00201510X510203040506070图2.14 年剩余物yt和年木材采伐量xt散点图图2.15 Eviews输出结果Eviews估计结果见图2.15。建立Eviews数据文件的方法见附录1。在已建立Eviews数据文件的基础上,进行OLS估计的操作步骤如下:打开工作文件,从主菜单上点击Quick键,选Estimate Equation 功能。在出现的对话框中输入y c x。点击Ok键。立即会得到如图2.15所示的结果。下面分析Eviews输出结果。先看图2.15的最上部分。被解释变量是yt。估计方法是最小二乘法。本次估计用了16对样本观测值。输出格式的中间部分给出5列。第1列给出截距项(C)和解释变量xt。第2列给出第1列相应项的回归参数估计值(β^0和β^1)。第3列给出相应回归参数估计值的样本标准差(s(β^0), s(β^1))。第4列给出相应t值。第5列给出t统计量取值大于用样本计算的t值(绝对值)的概率值。以t = 12.11266为例,相应概率0.0000表示统计量t取值(绝对值)大于12.1的概率是一个比万分之一还小的数。换句话说,若给定检验水平为0.05,则临界值为t0.05 (14) = 2.15。t = 12.1>2.15落在了H0的拒绝域,所以结论是β1不为零。输出格式的最下部分给出了评价估计的回归函数的若干个统计量的值。依纵向顺序,这些统计量依次是可决系数R2、调整的可决系数R2(第3章介绍)、回归函数的标准差(s.e.,即均方误差的算术根σ^)、残差平方和、对数极大似然函数值(第10章介绍)、DW统计量的值(第6章介绍)、被解释变量的平均数()、被解释变量的标准差(s(yt))、赤池(Akaike)信息准则(是一个选择变量最优滞后期的统计量)、施瓦茨(Schwatz)准则(是一个选择变量最优滞后期的统计量)、F统计量(第3章介绍)的值以及F统计量取值大于该值的概率。根据EViews输出结果(图2.15),写出OLS估计式如下:^t= -0.7629 + 0.4043 xt y(2.64)2(-0.6) (12.1) R = 0.91, s. e. = 2.042^t(16-2)。其中括号内数字是相应t统计量的值。s.e.是回归函数的标准误差,即σ^=∑uR2是可决系数。R 2 = 0.91说明上式的拟合情况较好。yt变差的91%由变量xt解释。检验回归系数显著性的原假设和备择假设是(给定α = 0.05)H0:β1 = 0; H1:β1 ≠ 0图2.16 残差图因为t = 12.1 > t0.05 (14) = 2.15,所以检验结果是拒绝β1 = 0,即认为年木材剩余物和年木材采伐量之间存在回归关系。上述模型的经济解释是,对于伊春林区每采伐1 m3木材,将平均产生0.4 m3的剩余物。^t,图2.16给出相应的残差图。Actual表示yt的实际观测值,Fitted表示yt的拟合值y^t。Residual表示残差u残差图中的两条虚线与中心线的距离表示残差的一个标准差,即s.e.。通过残差图可以看到,大部分残差值都落在了正、负一个标准差之内。
高斯—马尔可夫定理: 若一元线性模型满足计量经济基本假设则参数的最小二乘估计OLS是最小方差的线性无偏估计。BLUE 最小二乘法估计量OLS的性质高斯—马尔可夫定理的初步证明 1线性性0?0?3和1?0?3都是iy的线性函数 证明ininjjinjjniiiyxxxxxxyxx?3 令njjiixxxxk12 则有 iniiyk11?0?3 且有0ik1iixkniiixxk1221 从而1?0?3是iy的线性函数 同理0?0?3xy1?0?3iiiiniiykxnykxyn111 令iikxnw1则有iiyw0?0?3即0?0?3也是iy的线性函数。 另有1iw0iixw 2. 无偏性0?0?3和1?0?3都是0、1的无偏估计量 即有?0?300E 11?0?3E 证明先证11?0?3E iiiiniiuxkyk 又0ik1iixkiiiiiniikuxkykiiiiukxk1 iiuk1iiiiiuEkxkkE 因为: 0ik1iixk 同理利用1iw和0iixw可证得?0?300E 3. 最优性或最小方差性在所有的线性无偏估计中0?0?3和1?0?3分别是0、1的方差最小的有效估计量 证明 若1是原值1的一个线性无偏估/articLe/.html计方差条件不限且记iiyc1∵线性估计再根据无偏估计的特性有10iiixcc。 再记iiiykcP11?0?31则有11?0?3P?0?32?0?3?0?32?0?3?0?3?0?3?0?PCovDPDPCovCovPPCovPPCovCovD 如果能证明0?0?31PCov则利用方差不小于0的性质判定?0?3?0?3111DDPDD1?0?3即为所有无偏的线性估计中方差最小的。∵uiiiuiiiiiiiikkckkcykykcCovPCov 又∵njjiixxxxk12 且有0ik1iixkniiixxk1221 所以njjnjjniniiiiiiixxxxxcxckkc0?0?31PCov 有?0?3?0?3111DDPDD命题得证。 此处利用了10iiixcc。
第三章估计理论什么是“估计”?通俗解释:对事物做大致的判断专业解释:通过一定的技术手段获得关于被估计事件、参数、过程的相关信息,再对这些信息进行加工、处理获得结果的过程。3.1引言3.1 引言根据研究对象的不同估计分为二种参量估计:被估计的对象是随机变量或非随机的未知量 波形估计:被估计的对象是随机过程或非随机的未知过程 信号参量估计理论与信号参量估计相关的理论最佳估计一定准则下的“最好”估计应用领域通信系统、雷达系统、语音、图像处理、自动控制3.1.2
估计量的性质质假设得到N 个观测样本数据为:x [n ]=θ+w [n ]n =0,1, …, N -1式中,θ为待估计参量,w [n ]是观测噪声。, 获估计的任务就是利用观测样本数据x [n ]构造估计量θ后,通常需要对θ 的质量进行评价, 这就需要研得估计量θ究估计量的主要性质。也是一个随机变量,具有均值和方差等统计估计量θ特征,可以利用其统计特征对估计量的性质进行评价。评价指标包括:无偏性、一致性、充分性和有效性。1、无偏性θ无偏估计渐进无偏估计非随机参量随机参量^) =θE (θN →∞^) =E (θ) E (θN →∞^) =θlim E (θ^) =E (θ) lim E (θ是一个有偏估计如果上式不满足,则θb (θ) =E (θ) -θ为估计量的偏定义估计量的无偏性保证估计量分布在参量真值附近,是衡量估计量性能优劣的重要指标。然而,一个估计量是无偏的不能确保就是好的估计量,它仅能保证估值的均值近似真值。2、一致性可以通过增加观测样本数据来减少估计量的估计误差,具有这种性质的估计称为一致估计。简单一致性:均方一致性:N →∞^-θ|<δ) =1lim P (|θ^-θ) 2]=0lim E [(θo定义估计误差ε=θ-θ,对无偏估计,误差的方差为22 2Var (ε) =E (ε) -b (θ) =E (ε)在同时满足无偏性、均方一致性的条件下,随着观测样本数的增加,估计误差的方差将减小并趋于零。N →∞3、充分性设待估计参量的估计量为T ^θ(x ) ,x =[x [0]x [1]... x [N -1]]为N 维观测矢量。如果概率密度函数p (x |θ) 可以分解成如下形式^(x ) |θ) h (x ) p (x |θ) =p (θ^θ式中h (x ) ≥0,且与θ无关。则称(x ) 是一个充分统计量。充分统计量的意义在于:它体现了包含在观测样本数据x 中有关参量θ的/articLe/.html全部有用信息,再没有其他估计量能够提供更多关于观测样本数据x 中有关θ的有用信息了。4、有效性对于无偏估计量,如果估计量的方差越小,则它偏离待估计参量就越小,即它取其均值附近数值的概率就越大,该估计量就越好。因此,希望估计量的方差尽可能地小。克拉美罗下限为估计误差的方差确定了一个下限,不可能获得比它还小的方差。对于方差达到克拉美罗下界的无偏估计,称为有效估计。因此,具有无偏性且方差达到克拉美‐罗下限的估计量是有效估计量。3.2
最小方差无偏估计3.2.1
均方误差最小准则和最小方差无偏准则在寻求最优估计量中,首先需要确定的是最优准则。一个很自然的准则就是均方误差(mean square error, MSE),它的定义为2 ^mse (θ) =E [(θ-θ) ]遗憾的是采用该准则将产生一个不可实现的估计量。因为这个估计量不能单独表示为样本数据的函数。为说明这个问题,均方误差MSE重新写为) =E ?(θ -E (θ )) +(E (θ ) -θ) ?mse (θ??2{2} ) +?E (θ ) -θ?+2[E (θ ) -θ]E [θ -E (θ )]=var(θ??) +b 2(θ) =var(θ上式看出MSE是由方差和偏差构成。321
均方误差最小准则和最小方差无偏准则3.2.1最小方差无偏估计量的存在性现在我们自然提出这样一个问题:对于所有θ是否存在最小方差无偏估计。即使最小方差无偏估计(MVU)存在,我们也有可能找不到它。在后面的几章里,我们将讨论几种可能的方法,它们是:1、确定Cramer-Rao下限(CRLB),检验估计量是否满足它。2、基于充分统计量的MVU 。3、限制估计量不仅是无偏的而且是线性的,找出MVU。
2004年8月安庆师范学院学报(自然科学版)JournalofAnqingTeachersCollege(NaturalScience)Agu.2004第10卷第3期ΞΞΞΞΞ.10NO.3Vol估计量无偏性的证明唐燕玉1,姚 晟2(1安庆师范学院学报编辑部, 安徽安庆 2460112安徽大学计算机科学与技术学院 安徽合肥 230039)摘 要:目前在点估计的理论和实用中,无偏性占据很重要的地位,对与同一参数的不同的点估计量,无偏δ的期望。性是对估计量最基本的要求,无偏估计量的证明,关键在于求出未知参数Η的估计Η关键词:期望;方差;无偏估计量;极大似然估计量中图分类号:O212  文献标识码:A  文章编号:04)03-0053-04由于未知参数Η的估计量是一个随机变量,ΗΗ相吻合。一般有误差。正确理论,;确理论,,由于这些随机因素的作用是微弱的,,所以该理论是可取的,而且随机性误差可以认为服从正态分)δ布,其均值为0,E(Η-Η=0。这时可理解为大量重复抽样而得到的多个估计值Η与Η之差正负相消δ了,且称Η为Η的无偏估计量。一般有δδ(),Η定义:设Η=ΗΦ∈(}的未知参数Η的一个估计量,若对一1,Φ2,…,Φn)为母体Φ的概率函数{f(x;Ηδ(δ(切Η∈(,关系式 EΗ[Η,成立。则称ΗΦ1,Φ2,…,Φn)]=ΗΦ1,Φ2,…,Φn)为Η的无偏估计量,否则称为有偏估计量。任何估计量不是无偏估计量,就是有偏估计量。δδ在经济科学技术中,EΗ-Η称为以Η作为Η的估计的系统误差,无偏估计的实际意义就是无系统误差(即系统误差等于零)。在目前点估计的理论和实用中,无偏性在参数估计理论中占有重要地位,因为它只涉及一阶矩,处理方便,估计量的无偏性是估计量的一个优良性质,对于总体的未知参数可以有许多方法来求得其点估计量,对于同一参数的不同的点估计量,无偏性是评价估计量的最主要标准之一,由定义可知,无偏δδ估计量的证明关键在于求出未知参数Η的估计量Η的期望。无偏估计量的证明方法也就是估计量Η的期望求法。下面就是介绍证明无偏估计量的三种方法:1.如果不涉及总体具体分布,利用期望的性质求之。n例1 设总体X的数学期望Λ与方差Ρ2存在,X1,X2,…,Xn是X的样本,证明:(1)Y=的无偏估计量,其中Ci=1,Ci>0;(2)S2(样本方差)是Ρ2的无偏估计量;(3)B2=i=1n2Ρ的无偏估计量。∑CXi=1iii是Λ∑n∑(X-i=1n?X)2不是ΞΞΞΞΞΞ收稿日期:基金项目:安庆师范学院重点课程建设项目(20064),安庆师范学院重点科研项目(2003ylz02)。作者简介:唐燕玉(1951-),女,安徽枞阳人,安庆师范学院数学系副教授。?54?nniii=1i安庆师范学院学报(自然科学版)n2004年证明:(1)EY=2∑CEX=∑Ci=1nnΛ=Λ∑C=i=1i.Λn(2)ES=E[n-1?)2]=(Xi-X∑i=1E(n-1∑X-i=12i?22(n-1)=Ρ2nX)=(n-1)Ρ22?)2]=2,故2(3)因B2=(Xi-X[SEB2=E(S)=ES=Ρ≠Ρ2.nn-1i=1nnnn所以B2不是Ρ2的无偏估计量。∑注意:(1)由于用B2估计方差Ρ2时,有系统误差,常用样本方差S2估计总体方差Ρ2。不过当n很大时,S2与B2相差不大,应用上也就不加区别.因此称B2是方差的渐近无偏估计量。δδδ定义:若Η的一个估计Η不一定无偏的,但当n→∞时,EΗ→Η.则称Η为Η的渐近无偏估计量。(2)B2是Ρ2的极大似然估计,由此可知极大似然估计不一定都是无偏估计。例2 设总体X的数学期望为Λ,方差为Ρ2,(X1,X2,…,Xn)和(Y1,Y2,…,Ym)分别来自X的样本,证明 S2=[n+m-2?)2+∑(Xi-Xi=1nnm∑(Y-i=1in?22Y)]是Ρ的无偏估计量。m证明:令S1=n-1E[n-1n?)2, 2=∑(Xi-XSi=1[m-1∑(Y-i=1i?222Y)],由例1知ES1=Ρ,即m?)2]=2, [?2?222(Xi-X∑ΡE∑(Xi-X)]=(n-1)Ρ。同理E[∑(Yi-Y)]=(m-1)Ρi=1i=1i=1nm2?)2+?2]=(Xi-X(Yi-Y所以ES=EE[i=1i=1n+m-2-2?[(n-1)2+()2.Y)2]}=n+m-2∑∑)2]+[∑(-XiEYii=i=1nm例3 设X1,2,证明k阶样本原点矩Ak=n阶原点矩Λk=。nn∑Xi=1nki是总体kkkkkkk证明:因为X1,X2,…,Xn与X同分布,故Xk1,X2,…,Xn也与X同分布,所以EX1=EX2=…=EXnk(=EX=Λ?nEXk。XkXkk,于是EAk=E(i)=i)=i=EXi=Λk,即Ak是Λk的无偏估计量ni=1ni=1n?=上例结论不论总体X服从什么分布都成立,特别只要X的数学期望存在,XA1总是总体X的数k∑∑学期望Λ1=EX的无偏估计量。此外,还应注意结论是对原点距而言。2.涉及总体分布,则先求估计量的密度函数(或分布律),再证之。例4 试证明均匀分布f(x)=,  0<x≤ΗΗ中未知参数Η的极大似然估计量不是无偏的。0,   其它δδ证明:未知参数Η的极大似然估计为Η=X(n),为要证明估计量Η=X(n)不是Η的无偏估计,需求E[X(n)],为此应先求出X(n)的概率密度。因X(n)是随机样本X1,X2,…,Xn的最大值,而X1,X2,…,Xn独立同分布,X(n)的分布函数为δ()FΗx=Fx(n)(x)=[F(x)]n,其中F(x)为总体X的分布函数,由X概率密度知0, x≤0F(x)=,00nnxn-1 Η,0<x≤Η因而FΗ(x)=fx(n)(x)=[Fδ于是EΗ=^Η(x)]={[F(x)]}=nFΗ′n′n-1(x)F(x)=nF′n-1(x)f(x)=0, 其它δ≠Η,所以Η不是Η的无偏估计量。dx=-∞0n+1Η例5 假设随机变量X在区间[0,Η]上服从均匀分布,其中端点Η是未知参数,设X1,X2,…,Xn是来自X的简单随机样本。X(n)=max(X1,X2,…,Xn)是最大观测值。试证明X(n)是Η的有偏估计量,∫+∞δ(x)dx=xfΗn-1n而(n+1)X(n) 。n是Η的无偏估计量第3期唐燕玉,姚 晟:估计量无偏性的证明,   0<x≤ΗΗ0,   其它0, x≤0?55?证明:由题设X的概率密度函数为f(x)=而X的分布函数为F(x)=,0Η0 , x<0X(n)的分布函数为FX(n)(x)=[F(x)]n则FX(n)(x)=[F(x)]n=′(x)=Fx(n)(x)=nxn Η,0≤x≤Η1 , x>Η于是fnxn-1X(n)Η 0<x≤Ηn0, 其它EX(n)=∫Xf-∞∞X(n)(x)dx=Ηn-1Ηndx=≠Ηn+1故X(n)不是Η的无偏估计量用(n+1) n乘X(n),将其无偏化,所得到的估计量就是无偏的。事实上,这时有E[Xn(n)]=E[Xn(n)]=?=ΗΗnn+1注意:并非一切有偏估计都可修正为无偏的。3.利用常见的期望证之。n-1例6 设总体X~N(Λ,Ρ),X1,X2,…,X222Xi)为Ρ的无偏估计。,C,使C∑(Xi=1i+1-解法一 i12-~(0,Ρ) 1,2,…,n-1),故(Xin-1i+1(-X/articLe/.htmli)i+12Ρ)~N(0,1) (i=1,2Ρ)]2}=(n-1)n-12,,n-1),∑[i=1(X)i+1-Xi(2Ρ)]2~X2(n-1),故E{n-1∑[(Xi=1(-Xi)而由E[C∑(Xi=1n-1i+1-Xi)2]=Ρ2 得到2CΡ2E∑[(Xi=1i+1(-Xi)2Ρ)]2=Ρ2于是 2CΡ2(n-1)=Ρ2,故 C=1 [2(n-1)]2解法二 因X~N(Λ,Ρ),  (i=1,2,…,n).故Xi于是E(X2i+1i+12-X~N(0,2Ρ)。ii+1-Xi)=0,D(Xn-1i+1i+1i+1-Xi)=2Ρ2。因而E(Xi+1i+1-Xi)2=D(X-Xi)+[E(Xi+1-Xi)]2=2Ρ2Ρ=CE[∑(Xi=1-Xi)2]=C(n-1)E(Xi+1n-1-Xi)2=2(n-1)CΡ2,故C=1 [2(n-1)]解法三 由Xn-1-Xi=(X2-Λ)-(Xi-Λ)得到Ρ=C[∑E(Xi=12n-1i+1-Xi)]=C{-Λ)2-2(X∑E[(Xi=1i+1i+1-Λ)-(Xi-Λ)]2}=C{=C{=C{∑E[(Xi=1n-1i+1-Λ)(Xi-Λ)+(Xi-Λ)2]}-Λ)(Xi-Λ)+E(Xi-Λ)2]}n-1∑[E(Xi=1n-1i+1-Λ)2-2E(Xi+1i+1∑DXi=1i+1-2E(X-Λ)E(Xi-Λ)+DX1]}=C[∑(Ρ-2i=10+Ρ2)]=2C(n-1)Ρ2故 C=1 [2(n-1)]上例解法三推演步骤甚多,但其使用的手法很重要的。这个手法就是遇有随机变量之差的平方时,常将这个变形为Xi+1-Xi=(Xi+1-Λ)-(Xi-Λ),从而将差的平方(Xi+1-Xi)2与方差的定义联系起来。δδ)δ2(δ)2δ2例7 设Η是参数Η的无偏估计,而且有D(Η=Η不是Η的无偏估计。>0。试证明:Ηδ2δδ22222)≠Η证明一:欲证Η不是Η的无偏估计,只须证明E(Η。 (这里Η为随机变量,Η为参数)δδδδ2)2=Η因(Η为Η的平方,自然想到用随机变量平方的期望公式。注意到EΗ=Η,得到δ)2δ)2δ(δ)2δ2δδ2)δ2)δ2(δ)222=E(Η=DΗ+EΗ=DΗ+Η,又因DΗ>0,故E(Η>Η.即E(Η≠Η。因而Η=Η不是E(Η?56?2的无偏估计。Η安庆师范学院学报(自然科学版)2004年δ证明二:由EΗ=Η,得到δδδδδ2δδ)2δδ2)δ)2δ2)2222)=E(Η)2=E(Η)=E(Η  DΗ=E(Η-EΗ-Η-2Η+Η-2Η+E(Η-2Η+Η=E(Η=E(Η-ΗEΗ2Ηδδ2)δ222因DΗ>0,故E(Η>Η。所以Η不是Η的无偏估计。上例说明,无偏估计不一定具有极大似然估计所具有的那种不变性。例8 设总体X服从参数为1 Η的指数分布,概率密度为)=fx(x;Ηe-x Η, x>00,  其它其中参数Η>0为未知,又设X1,X2,…,Xn是来自X的样本,试证明:X和nZ=n[min(X1,X2,…,Xn)]都是Η的无偏估计量。2)=证明:(1)因X服从参数为Κ=1 ,DX=Η,当n充分大,X~N(Λ,Ρ2 Η的指数分布,EX=ΗΗ2,Η N(EX,(DX) n)=N(Ηn)故EX=Η,即X是Η的无偏估计量。(2)为求E(nz),只需求出EZ,因z=min(X1,X2,…,Xn),且X1,X2,…,Xn相互独立,同分布即得Η1-e-x ,x>0;代入Fz(x)的表达式中得到Fz(x)=0,       其它Fz(x)=1-e-x Η,x>0;因而zΚ=n Η   0,分布,故EZ=Η n,即nz也是Η的无偏估计量由上例可知,Xi都是Η的无偏估计,因EXi=Η(i=1,2,…,n献[1] 毛纲源.[M].华中理工大学出版社,1999.[2] 章昕.概率统计习题集[M].科学技术文献出版社,2000.[3] 陈希孺,等.数理统计学教程[M].上海科学技术出版社,1988.[4] 滕素珍,姜炳蔚,等.数理统计[M].大连理工大学出版社,1966.[5] 姚仲明.F分布及其渐性质[J].安庆师范学院学报,-3.TheIdentificationofProvingUnbiasedEstimators12TANGYan2yu,YAOSheng(1TheEditorialDept.ofAnqingTeacher’sCollege,Anqing246011,C2ComputerDept.ofAnhuiUniversity,Hefei230039,China).BeingAbstract:Intheoryandpractice,theunbiasedestimatoroccupiesanimportantstatesdifferentfromthesameparameter,theunbiasedestimatoristhebasicneeding.Foridentificationofestimator,thekeyliesinunknownexpectationofestimationofparameter.Keywords:maximumlikelihoodestimator
第二节 估计量的评价标准^max{X} ^=2,θ设总体X服从[0,θ]上的均匀分布,由上节例7可知θLi矩1≤i≤n都是θ的估计,这两个估计哪一个好?下面我们首先讨论衡量估计量好坏的标准问题.1.无偏性定义7.2 若估计量(X1,X2,…,Xn)的数学期望等于未知参数θ,即:^)=θ, (7.6) E(θ则称θ^为θ的无偏估计量(Non-deviation estimator).估计量θ^的值不一定就是θ的真值,因为它是一个随机变量,若θ^是θ的无偏估计,则尽管θ^的值随样本值的不同而变化,但平均来说它会等于θ的真值.1n例7.9 设X1,X2,…,Xn为总体X的一个样本,E(X)=μ,则样本平均数=∑Xini=1是μ的无偏估计量.证 因为E(X)=μ,所以E(Xi)=μ,i=1,2,…,n,于是?1n?1nE()=E ∑Xi?=∑E(Xi)=μ. ?ni=1?ni=1所以是μ的无偏估计量.例7.10 设有总体X,E(X)=μ,D(X)=σ2,(X1,X2,…,Xn)为从该总体中抽1n得的一个样本,样本方差S及二阶样本中心矩B2=∑(Xi-)是否为总体方差σ2的无ni=12偏估计?解 因为E(S2)=σ2,所以S2是σ2的一个无偏估计,这也是我们称S2为样本方差的理由.由于n-12S, nn-1n-12E(S2)=σ, 那么 E(B2)=nnB2=所以B2不是σ2的一个无偏估计.还需指出:一般说来无偏估计量的函数并不是未知参数相应函数的无偏估计量.例如,当X~N(μ,σ2)时,是μ的无偏估计量,但不是μ2的无偏估计量,事实上: 2E()=D()+??E()??=22σ2n+μ2≠μ2. 12.有效性^与θ^,即E(θ^)=E(θ^)=θ,那么在θ^,对于未知参数θ,如果有两个无偏估计量θ12121^中谁更好呢?此时我们自然希望对θ的平均偏差E(θ^-θ)2越小越好,即一个好的估计θ2量应该有尽可能小的方差,这就是有效性.^和θ^都是/articLe/.html未知参数θ的无偏估计,若对任意的参数θ,有 定义7.3 设θ12^)≤D(θ^)D(θ12, (7.7)^比θ^有效. 则称θ12^比θ^有效,则虽然θ^还不是θ的真值,但θ^在θ附近取值的密集程度较θ^高,如果θ12112^估计θ精度要高些. 即用θ11n例如,对正态总体N(μ,σ),=∑Xi,Xi和都是E(X)=μ的无偏估计ni=12量,但σ2D(X)=≤D(Xi)=σ2, n故较个别观测值Xi有效.实际当中也是如此,比如要估计某个班学生的平均成绩,可用两种方法进行估计,一种是在该班任意抽一个同学,就以该同学的成绩作为全班的平均成绩;另一种方法是在该班抽取n位同学,以这n个同学的平均成绩作为全班的平均成绩,显然第二种方法比第一种方法好.3.一致性无偏性、有效性都是在样本容量n一定的条件下进行讨论的,然而(X1,X2,…,Xn)不仅与样本值有关,而且与样本容量n有关,不妨记为n,很自然,我们希望n越大时,n对θ的估计应该越精确.定义7.4 如果n依概率收敛于θ,即?ε>0,有^-θ<ε=1,,limPθ(7.8) nn→∞{}^是θ的一致估计量(Uniform estimator). 则称θn由辛钦大数定律可以证明:样本平均数是总体均值μ的一致估计量,样本的方差及二阶样本中心矩B2都是总体方差σ2的一致估计量. S22
估计量优良性的若干判别准则作者 李晓辉 指导老师 胡学平摘要 未知参数的估计通常有很多种,一个好的估计量应该在多次观测中,其观测值围绕被估计参数的真值摆动.为正确评价估计量,要建立判别估计量好坏的标准.本文主要总结估计量优良性的若干判别准则,如无偏性、有效性、一致性等。通过本文的研究,进一步了解了估计量优良性的一些判别准则,为今后学习打下了基础。关键词 无偏性 一致性 有效性 一致最小方差无偏估计 均方误差1 引言对于估计量优良性的研究,国内外更多的是将其依托于一个具体的实验或具体的实际问题中去进行比较研究,如在1982年《数学杂志》中,刘学圃写了一篇名为《一类平稳时间序列谱密估计量的优良性质》文章,又如在《统计与信息论坛》中,写了一篇《系统样本差估计量的优良性》,所以说对其的研究更多的是依据于是研究中,通过其试验来体现一个估计量的优良性.当然,单纯对于优良性的研究国内有一篇很是经典的文章—王力宾的《对估计量优劣性评价标准的研究》,他在此文中比较详细地介绍了若干判别准则,大致上分为两类:一类是小样本估计量优良性的若干判别准则,另一类是大样本估计量优良性的判别准则。他也同样在文中详细地叙述了两类之间的联系.其实,一直以来,我国的统计工作者,一直都是把无偏性,有效性,一致性看作是评价估计量优良性的三大标准,但对于其实用性并未进行过较为系统的研究.评价一个估计量的好坏,不能仅仅依据一次试验的结果,而必须由多次试验的结果来衡量.这是因为估计量是样本的函数,是随机变量。由不同的观测结果,就会求得不同的参数估计值.因此一个好的估计,应在多次试验中体现出优良性.对于一个特定的应用,选择好的估计量与许多因素有关系,最基本的考虑因素就是选择一个好的数据模型,它的复杂性应该足以描述数据的基本特征,但是与此同时要简单的足以允许估计量是最佳的且易于实现.举个简单的例子,对于信号的处理问题,选择一个合适的估计量要从易于现实的最佳估计量开始.如果这种寻找没有效果,那么就应该考察准最佳估计量.对于同一参数,用不同的估计法得到的点估计量不一定相同,那么用哪一种估计法好呢?并且,人们总是希望估计量能代替真实参数.为正确评价估计量,要建立判别估计量好坏的标准.根据不同的要求,评价估计量可以有各种各样的标准.所以,对于一个估计量的优良性进行判别显得尤为重要.对于估计量优良性若干判别准则的研究,为了以后我们进一步的学习和工作都奠定了良好的基础.2 判别优良性的准则 2.1 估计量的无偏性 2.1.1无偏估计量的定义及定理^=T(ξ,ξ, ,ξ)是未知参数θ的一个估计量,若 定义 设θ12n^=θ, Eθ?θ∈Θ()^=T(ξ,ξ, ,ξ)为θ的无偏估计量. 则称θ12n在这里我们要接触一个新的名词:统计量,到底什么是统计量,下面我们来简单介绍一下统计量的定义.统计量 是统计理论中用来对数据进行分析、检验的变量。宏观量是大量微观量的统计平均值,具有统计平均的意义,对于单个微观粒子,宏观量是没有意义的.相对于微观量的统计平均性质的宏观量也叫统计量.需要指出的是,描写宏观世界的物理量例如速度、动能等实际上也可以说是宏观量,但宏观量并不都具有统计平均的性质,因而宏观量并不都是统计量.定理1 设总体X的均值为μ,方差为σ2,X1,X2, ,Xn为来自该总体的简单随机样本.1nX=∑Xini=11n2S=∑(Xi-)n-1i=1则2E()=μ, ES2=σ2即样本均值和样本方差是μ和σ的无偏估计.2()证明σ2E()=μ2, Var()=n?1n2?ES=E ()X-? ∑in-1i=1??()22n?1?E ∑(Xi-)? =?n-1 ?i=1?n1?n2?=E?∑Xi-2∑Xi+nX2?n-1?i=1i=1?1?n2?=E?∑Xi-nX2?n-1?i=1?1nn2=E(X)-X2 ∑in-1i=1n-11nn2()() =[]VarX+EX-VarX+EX∑iin-1i=1n-1=){}{)[)]}2nn?122?σ2+μ2- σ+μ? n-1n-1?n?()=σ22.1.2 无偏估计量的举例说明例1 设X1,X2, ,Xn为抽自均值为μ的总体X的样本,考虑μ的估计量.^1=X1, 解 μ因为^1)=E(X1)=μ, E(μ^1是无偏估计 所以μ^2=μ因为X1+X2, 2?X+X2?^2)=E 1E(μ?,2??^2是无偏估计 所以μ^3=μ因为X1+X2+ +Xn-1+Xn(假设n≥4),n?X+X2+ +Xn-1+Xn?^3)=E 1E(μ?=μ,n??^3是无偏估计 所以μ^4=2X1, μ因为^4)=E(2X1)=2μ, E(μ^4不是无偏估计 所以μ^5=μ因为X1+X2, 3?X+X2?2^5)=E 1E(μ?=μ,3??3^5不是无偏估计. 所以μ例2 设总体ξ~U[0,θ],求未知参数θ(>0)的无偏估计量.解 设(ξ1,ξ2, ,ξn)为取自总体的样本.由替换原则有E(ξ)=,而已知E(ξ)=θ2,故得θ的矩估计量为2n^θ=2ξ=∑ξi,ni=1由于^=E(2)=2E()=2E(ξ)=2?θ=θEθ, 2()^=2是θ的无偏估计量. 故θ2.2 估计量的有效性 2.2.1有效估计量的定义^=θ(X,X, ,X) , ^=θ(X,X, ,X) 都是总体参数θ 的无偏定义 设θθn^<Dθ^ ,则称θ^1比θ^2更有效. 估计量,且Dθ122.2.2关于有效估计量的举例说明例3 已知总体的数学期望μ和方差D都存在,X1,X2,X3是总体的样本.()()111111g=X+X+X3X1+X2+X3,2 设 g1=12236333(1)证明g1和g2都是μ的无偏估计.(2)试判断g1和g2哪一个更有效. 解 (1) E(g1)=E=11??1X1+X2+X3?33??3111E(X1)+E(X2)+E(X3) 333111=μ+μ+μ333=μ11??1E(g2)=E X1+X2+X3?36??2111E(X1)+E(X2)+E(X3) 236111=μ+μ+μ236=μ=所以g1和g2都是μ的无偏估计.(2) D(g1)=D =11??1X1+X2+X3?33??3111D(X1)+D(X2)+D(X3) 9991=σ2311??1D(g2)=D X1+X2+X3?36??2111D(X1)+D(X2)+D(X3) σ =σ+σ+493672=σ18=因为D(g1)<D(g2) ,所以g1较g2更有效.^=2是θ的无偏估计量. 例 4 设总体ξ~U[0,θ],在例2中已经证明θ的矩估计量θ1^=(1)证明θ2n+1ξ(n)是θ的无偏估计量; n^与θ^的有效 (2)比较θ12解 (1) 在我们已经学习的知识中我们很容易算得1E(ξ(n))=θ,n+1由此立得n+1?^=E?Eθξ(n)?=θ, 2n??^=所以θ2n+1θ是θ的无偏估计量. n()^,θ^的方差,有: (2)计算θ122214θθ^=D(2)=4D()=4?D(ξ)=?=Dθ; 1nn123n()n+1??n+1?22^=D?Dθξ(n)?= ?Eξ(n)-[E(ξ(n))] 2?n??n??n+1?= ?n??2()2{()}?θ2nxn-1?n?2?θ?? ??0x?ndx-θn+1??????θ2θ2=≤nn+23n^较θ^为有效. 所以θ122.3 估计量的一致性2.3.1一致估计量的定义^=θ(X,X, ,X)是总体参数θ的估计量. 若对于任意的定义 设 θ12n^-θ)≥ε)=0,^依概率收敛于θ, 即对于任意正数ε,有limP(θθ∈R , 当n→∞时, θn→∞^是总体参数θ的一致估计量. 则称θ2.3.2一致估计量的举例说明例5 设总体X服从参数为θ的指数分布,证明X 是θ的一致估计量. 证明 由总体X服从参数为θ的指数分布可知:而x?1-θ?ef(x;θ)=?θ?0?x>0,x≤0E(=E(X)=θD(X)θ2D()==nnlnf(x,θ)=-lnθ-xθ2????1x?(x-θ)()lnfx,θ??θ?=?-θ+θ2?=θ4?????(X-θ)2?=E?? 4?θ?11???2E?lnf(X,θ)?=4E(X-θ)=4D(X)θθ??θ?=221θ21???nE?lnf(X,θ)???θ?2θ2=D( /articLe/.html =n又由辛钦大数定律可知:}=limlimPX-μn→∞n→∞?1n?P?∑Xi-μ?=1 ?ni=1?所以X是θ 的一致估计量.2.4 一致最小方差无偏估计2.4.1致最小方差无偏估计的定义及定理定义 设g(θ) 为可估参数,如果T(X) 是g(θ) 的无偏估计,且对Ug 中任一个估计?(X),有Var(T(θ))≤Varθ(?(X)) ?θ ∈Θ则称为T(X)为g(θ) 的一致最小方差无偏估计(Uniformly Minimum Variance Unbiased Estimate) ,简记为UMVUE .引理 1 设S(X)是分布族{f(X,θ),θ∈Θ}的充分统计量,?(X)是g(X)的无偏估计,令T(X)=E(?(XS(X)) ,则T(X) 也是g(θ)的无偏估计,Varθ(T(X))≤Varθ(?(X)) ?θ∈Θ.引理 2 设S(X)是分布族{f(X,θ), θ∈Θ}的完备统计量,g(θ)为可估参数,则g(θ) 的UMVUE存在,它是S(X)的函数且在几乎处处意义下是唯一的.<∞,则T(X)为g(θ)的 UMVUE定理2 设T(X)是g(θ)的无偏估计,Varθ(T(X))的充要条件是对任一θ的无偏估计?(X) ,若Var(?(X))<∞,则有Covθ(?(X),T(X))=0.证明令U={φ(X):E0(?(X))=g(X),Var ?(X)<+∞, ?θ∈Θ}U0={?(X):E0(?(X))=0,Var ?(X)<+∞, ? θ∈Θ }T(X)是g(θ) 的UMVUE,任取?(X)∈U0及λ∈R ,则?'(X)=λ?(X)+T(X) ∈U,且有Varθ(T(θ))≤Varθ(λ?(X)+T(X)),即λVarθ(?(X))+2λCov(?(X),T(X))≥0,由λ∈R的任意性知Covθ(?(X),T(X))=0, ?θ∈Θ,反之,设?(X)∈U0都有Covθ(?(X),T(X))=0, ?θ∈Θ,要证T(X) 是g(θ) 的 UMVUE,若?'(X)∈U,则有T(X)-?'(X)∈U0.由假设条件得Covθ(T(X)-?'(X),T(X))=0Eθ((T(X)-?'(X))T(X))=0EθT2(X)-Eθ(T(X))?'(X)=0由许瓦兹不等式得()(E(T(X)))=(E(T(X)?'(X)))222θ≤EθT2(X)Eθ(?'(X))2()()从而EθT2(X)≤Eθ(?'(X))2()()又因为Eθ(T(X))=Eθ(?'(X))=g(θ)所以Var(T(X))≤Var(?'(X))由(?'(X))∈U(之任意性可知,T(X)是g(θ) 的 UMVUE.2.5 均方误差准则2.5.1均方误差准则的定义^,定义 假如有两个估计θ^1和θ这时两个估计中哪一个估计的均方误差小,我们就把哪一2个估计看作比较优,这种判定估计量的准则叫均方误差准则.2.5.2关于均方误差准则的举例说明例6 设X1,X2, ,Xn为抽自均值为μ的总体,考虑μ的如下两个估计^=Xμ1n^-i=μXj ∑n-1j=1j≠i^-i表示去掉第i个样本式后,对其余n-1个样本所求的样本均值. 这里μ我们看到:显然两个估计都是μ的无偏估计.再计算其方差:之前我们证明过σ2Var(X)=n?1?^-i)= ?Var(μ?n-1?2nσ2Var(Xj)=∑n-1j=1j≠i^-i的方差小,因而X比μ^-i更优. 我们看到X比μ这表明,当我们用样本均值去估计总体均值时,使用全体样本总比不使用全体样本要好.结 束 语常见的估计量优良性的判别准则也就此论文中所提到的五中常用方法:一致性,有效性,无偏性,均方误差准则,一致最小方差无偏估计,其它的判别方法虽然也有不少,但是在我们日常的生活学习中并不常见,所以在此就不用再做过多的详细介绍.虽然这些常见的判别方法被我们所学习和使用,但是都只是在理论上具有可行性,但是在实际生活学习和使用中,并没有人对这些常见的判别方法给出实用性的充分证明,所以,现在很多的数学工作者,正在对这些常见方法的可行性进行较为系统严密的论证中.参考文献[1]魏宗舒. 概率论与数理统计[M]. 高等教育出版社,2008. [2]戴朝寿. 概率论简明教程[M]. 高等教育出版社,2008.[3]中山大学数学组. 概率论与数理统计[M]. 高等教育出版社,2009.[4]西北工业大学. 概率论与数理统计[M]. 西北工业大学出版社,2004. [5]茆诗松. 高等数理统计[M]. 高等教育出版社,2005.[6]Jan kmenta, Elernents of Economitrics[M], Macmiuan Pubilish co.Inc,1971.Estimated the amount of the fine of the criterion Author:Li Xiaohui Supervisor:Hu XuepingAbstract:Unknown parameter estimates usually are many, a good estimator should be ata number of observations, the observed values around the true value of the estimated parameters.For the correct evaluation estimator,to establish the standard of discrimination that is good or bad. This paper summarizes some optimal estimator benign criterion, such as unbiasedness, effectiveness, consistency, etc. The research in this paper is the further understanding of the estimator optimal benign some criterion, and lay the foundation for the future study.Key words: unbiasedness consistency effectiveness consistent minimum variance unbiased estimation mean-square error
第18讲 参数的点估计 判别估计量好坏的标准教学目的:理解参数点估计的概念,掌握矩估计法和最大似然估计法。了解无偏性、有效性及一致性等估计量优劣的评价标准,了解样本均值与样本方差作为总体均值与总体方差估计量的无偏性和一致性。教学重点:参数点估计的矩估计法和最大似然估计法。 教学难点:参数点估计的最大似然估计法。 教学时数: 2学时。 教学过程:第六章 参数估计§6.1参数的点估计设总体X服从某已知分布,如N(μ,σ2),e(θ),π(λ)等,但是其中的一个或多个参数为未知,怎样根据抽取的样本估计未知参数的值,就是参数的点估计问题。定义 设总体X的分布中含有未知参数θ,从总体X中抽取样本X1,X2, ,Xn,构^(X,X, ,X)作为参数θ的估计,则称θ^(X,X, ,X)为参数θ的点造某个统计量θ12n12n^(x,x, ,x)为参数θ的点估计量;若样本X1,X2, ,Xn的观测值为x1,x2, ,xn,则称θ12n估计值。例如,人的身高X~N(μ,σ2),一个样本为X1,X2, ,Xn,则=1(X1+ +Xn)为n^不^=。用来估计μ,这里μn个人的平均身高,近似认为总体均值μ为,即μ是真值,而是估计值。若总体的分布中含有m(m>1)个未知参数,则需构造m个统计量作为相应m个未知参数的点估计量。下面介绍两种常用的求未知参数点估计量的方法。1.矩估计法1nk(1)总体k阶原点矩E(X),样本k阶原点矩 ∑Xi,k=1,2, ;ni=1kk1nkX-EX?(2)总体k阶中心矩E?,样本阶中心矩,k=1,2, 。 X-()?()∑i?ni=1kn1^(X)=∑(X-)2等。同样由^(X)=,D用相应的样本矩来估计总体矩,如Eini=1^(X)=E^(X2)-[E^(X)]2=1∑X2-2。 于D(X)=E(X)-[E(X)],故有Dini=122n例1 设X~N(μ,σ2),μ=E(X),σ2=D(X),一个样本为X1,X2, ,Xn。则21n1n1n22^^^=E(X)==∑Xi, σ^=D(X)=∑(Xi-)或∑Xi-2。 μni=1ni=1ni=1例2 设X~P(λ),λ=E(X),一个样本为X1,X2, ,Xn,则n1^=E^(X)==∑Xi λni=1例3 设X~e(θ), θ=E(X) ,一个样本为X1,X2, ,Xn,则^==1X θ∑ini=1n11?1?^=1=1。 若X~e ?,则有=E(X), λ= , λ(X)λEXE?λ?由于参数θ可以由其总体的各阶原点矩表示出来,即θ=gE(X),E(X2), ,E(Xk)此时,用样本原点矩来估计总体原点矩代入上面的函数中就可以得到参数θ的估计,即()1nk??1n22k^^^^θ=gE(X),E(X), ,E(X)=g ,∑Xi, ,∑Xi? ni=1?ni=1?()因此,求θ的矩估计的关键就在于找出关系θ=gE(X),E(X2), ,E(Xk)。例4 设X~U(a,b),一个样本为X1,X2, ,Xn,求参数a,b的矩估计。 解 因为()a+b?EX==>b=2E(X)-a ?()2??22E(X)-a)b-a)((?D(X)==>=D(X)?123?故a=E(X)- b=E(X)则^^=E(X)=-a^=E^(X)b2. 最大似然估计法设总体X的一个样本为(X1,X2, ,Xn),由样本的独立性可得f(x1,x2, ,xn)=f(x1)f(x2) f(xn)=∏f(xi)i=1n^=h(X,X, ,X)是θ的其中f(x;θ)为总体X的分布密度函数,θ为未知参数。设θ12n^=h(X,X, ,X)取样本值x,x, ,x的概率应最大,于是我们选取θ^点估计量,则θ12n12n使得x1,x2, ,xn最可能出现,步骤如下:(1)令L=f(x1,x2, ,xn)=∏f(θ)i=1n(2)lnL=∑lnf(θ)i=1n'=0 (3)(lnL)θ^=θ。 (4)求出最大值点θ0,则θ0例5 设X~e(θ), θ=E(X) ,一个样本为X1,X2, ,Xn,其观测值为x1,x2, ,xn,求θ的最大似然估计。解(1)令L=∏f(θ)=∏ei=1i=1θ(2)lnL=-nlnθ-1nn1-xiθ=1-1θneθ∑xii=1nθ∑xii=1nn?n??1?n1n'=-- ∑xi? -2?=-+2∑xi (3)(lnL)θθ?i=1??θ?θθi=11n'=0,则-+2∑xi=0, nθ=∑xi, θ=∑xi。故 (4)令(lnL)θθθi=1ni=1i=1n1^=1X= θ∑ini=1nnn§6.2 判别估计量好坏的标准上一节我们学习了两种参数点估计的方法,它们是矩估计法和最大似然估计法。对于同一个未知参数,用不同的估计法得到的点估计量一般是不相同的,那么哪一个估计量更好呢?为此我们需要建立判别估计量好坏的标准,而参数θ的所谓“最佳估计量”^(X,X, ,X)应当是在某种意义下最接近于θ。 θ12n</p/articLe/.html>^(X,X, ,X)应具有下列性质: 最佳估计量θ12n(1) 无偏性^=θ^(X,X, ,X)的数学期望E(θ^)=θ,则称θ^是参数θ的无偏估计量。 若θ12n^(x,x, ,x)为参数θ的无偏估计值。 设样本观测值为x1,x2, ,xn,则称θ12n1n例6 设总体X的均值E(X)=μ,方差D(X)=σ,证明样本均值=∑Xi是ni=12总体均值μ的无偏估计量。证 因为样本X1,X2, ,Xn相互独立,且与总体X服从相同分布,所以有E(Xi)=μ,D(Xi)=σ2 i=1, 2, ,n由于1n1?1n?1?n?1nE()=E ∑Xi?=E ∑Xi?=∑E(Xi)=∑μ=?nμ=μni=1n?ni=1?n?i=1?ni=1所以样本均值是总体均值μ的无偏估计量。(2)有效性^(X,X, ,X)与θ^(X,X, ,X)都是参数θ的无偏估计量,若 ^=θ设θ^1=θ112n212n2^) ^)<D(θD(θ12^有效。 则称θ^1较θ2^最有效估计量:当样本容量n一定时,若θ的所有无偏估计量中,θ^的方差Dθ()小,则称θ^是参数θ的有效估计量。例7 证明样本均值作为总体均值μ的估计量较个别样本Xi(i=1, 2, ,n)有效。 证 由例1知,与Xi都是总体均值μ的无偏估计量,即E()=μ,E(Xi)=μ,i=1, 2, ,n又1n1D()=D(∑Xi)=2ni=1n1σ22,而D(Xi)=σ2,i=1, 2, ,n D(Xi)=2nσ=∑nni=1n所以当n≥2时,D()<D(Xi),故样本均值作为总体均值μ的估计量较个别样本Xi(i=1, 2, ,n)有效。例8 从总体X中抽取样本X1,X2,X3,证明下列三个统计量^=θ1XX1X2X3^XX^=X1+X2+X3 ++,θ2=1+2+3,θ3都是总体均值E(X)=μ的无偏估计量,并确定哪个估计量更有效。^)=E(X1+X2+X3)=μ+μ+μ=μ 证 E(θ1236236^)=E(X1+X2+X3)=μ+μ+μ=μ E(θ2244244^)=E(X1+X2+X3)=μ+μ+μ=μ E(θ3333333所以三个统计量都是总体均值μ的无偏估计量。222XXXσσσ282312^)=D(D(θ++)=++=σ1X1X2X3σ2σ2σ2272^D(θ2)=D(++)=++=σ222XXXσσσ242312^)=D(D(θ++)=++=σ 3^)=24σ2的值最小,所以θ^是三个估计量中最有效估计量。 由于D(θ3372(3)一致性^-θ<ε)=1, 则称θ^是参数θ的一致估计若对于任意给定的正数ε,有 limP (nnn→∞量。例9 设总体X的均值E(X)=μ, 方差D(X)=σ2,证明样本均值是总体均值μ的一致估计量。证 因为样本X1,X2, ,Xn相互独立,且与总体X服从相同的分布,所以E(Xi)=μ,D(Xi)=σ2,i=1, 2, ,n于是,由切比雪夫定理知:?1n?1nlimP ∑Xi-∑E(Xi)<ε?= lim Pμ<ε=1 n→∞n→∞ni=1?ni=1?()所以是μ的一致估计量。对于未知参数θ的估计量,我们可以运用无偏性、有效性、一致性来判断其优劣, 以便选择出较好的估计量。
作者:杨清中国统计 2000年05期抽样调查已成为我国统计工作中的主要调查方式,但抽样调查事实上始终受着系统性误差的影响,致使抽样调查的结果多少存在问题,而抽样调查实践中估计的偏差这种系统性误差对估计结果的影响,人们的认识还不全面,本文试对此作出分析。抽样调查的误差,是样本的某一估计值与总体对应参数真值的差距,这个差距的大小直接关系到该估计值对总体参数估计的准确程度。根据形成误差的原因,抽样调查中的总误差分为随机误差和系统性误差两部分,前者是不可避免的,它是由样本结构与总体结构的随机差异导致产生的,通常所计算的抽样误差就是这部分随机误差。后者主要是受人为因素的影响而产生的,在抽样调查的实践中亦难以避免,它具有难以预测和非随机性等特点。根据各类误差产生的原因,可以将抽样调查的总误差用下图表示:┌随机误差││ ┌设计误差总误差┤ │估计量的偏差│系统性误差┤│ │调查误差└ └编辑误差显然,估计量的偏差是系统性误差的组成部分,对这部分误差一般的认识是,理论上可以对其进行有效测量,但事实上,在抽样调查的实践中所形成的这部分估计量偏差有时是难以计量的,这一点通常不被人们所认识。进而破坏了估计量的无偏性准则而形成的系统性误差。这种系统性误差的存在对抽样调查结果的准确性的影响方式可以用下图直观地表示出来:A表明,样本估计值分布集中,随机误差少,估计精确度高,分布的中心与总体真值重合,表明不存在系统性误差, 估计的准确度高;B表明,样本估计值分布不集中,随机误差大,估计精度低,尽管分布的中心与总体的真值重合,不存在系统性误差,但出于随机误差大,故总误差亦较大,估计的准确度低;C表明,样本估计值分布较集中, 随机误差小,但分布的中心偏离总体真值,存在偏差,估计的精确度虽然高,但出于这种系统性误差的存在,使总误差增大,故估计的准确度较低,但若这个分布的偏离程度较少,由于其估计精度较高,尽管存在系统性误差的估计,由于总误差可能亦较小,这个估计仍是可取的。D 表明,样本估计值的分布较分散,随机误差大,且估计值的分布偏离中心,存在系统性误差,故较大的随机误差和系统性误差的存在,使总误差很大,估计的准确度很低。从理论上讲,在偏差存在的情况下,干扰估计的准确度的量是偏差B对总体标准差σ的比率B/σ,例如,偏差对于估计的误差范围大于1.96σ的影响的概率见下表。B/σ左尾概率右尾概率 总和0.02 0.2 0.05000.04 0.4 0.0502∶∶ ∶ ∶0.10 0.4 0.05110.20 0.2 0.0546∶∶ ∶ ∶1.00 0.5 0.17001.50 0.8 0.3231从上表可以看出,对于估计的误差范围大于1.96σ的概率,若存在偏差,且偏差小于1/10的标准差,那么偏差的影响也很小。 当偏差等于标准差的1/10时,总的概率是0.0511, 而不是在无偏估计情况下的0.05;若偏差进一步扩大到等于标准差时,则总的概率为0.17,偏差的干扰就比较严重。所以,判断一个有偏差影响的估计是可以接受的量的标准是B/σ<0.10,这可以作为抽样实践中的一条工作规则。但是,在抽样调查实践中,只有在使用具有有偏性质的估计量时方可在数学上找到比例B/σ的上限,而存在其他偏差干扰的情况下, 则难以找到一个可靠的数量标准。因此,有必要进一步分析各种产生偏差的原因和处理办法。估计量的偏差是指对某一目标量(或参数)的估计,假设在没有其他系统性误差存在的情况下,该估计量的期望与对应目标量的真值存在一定的偏误,即破坏了优良估计量的标准之一——无偏性。严格地讲,这部分系统性误差,是出于对同一目标量可选择不同的估计量而造成的。在不同的估计量中,有的估计量是有偏的,即,这个偏差部分就构成了抽样调查中的系统性误差。根据偏差形成的原因,笔者认为偏差的形成大致可分为三种情况。1.使用了具有偏性质的估计量而导致偏差出现。</articLe/.htmlp>这部分系统性误差的最大特点就是可以计量,即可以给出这部分偏差的计量模型。便如,使用非常多的比率估计量和回归估计量,就是有偏的估计量,且均值的比率估计量的偏差为这种偏差是因对某一目标量使用不同的估计量(实则是不同的估计方法)致使这种估计具有无偏的性质,对这种偏差的研究理论上已比较成熟,大都能给出偏差的计量模型,已被大多数人所认识。2.因保证无偏性实现的条件被破坏而导致出现估计偏差。在抽样调查实践中,有时即使做了无偏的设计,也因在调查的实施过程中保证无偏性实现的条件被破坏致使出现偏差。我国的农产量抽样调查,事实上总是导致这类偏差的存在。我国的农产量抽样调查,是按多阶段对称等距抽样为其抽样方式,样本的抽取过程是按平均亩产量排序,以播种面积为辅助变量进行的一种不等概率抽样,平均亩产量的估计是按算术平均的方法进行估计其中,S[,i]为抽样框中第i个单位的播种面积;S[,0] 为抽样框中的总播种面积;Q[,i]为调查年份第i个单位的实际播种面积;Q[,0] 为调查年份调查总体的总播种面积;为调查年份的第i 单位的平均亩产。这种偏差在抽样调查的实际中,特别是在大型的抽样调查中,由于客观条件的变化,破坏了原有保证无偏性实现的条件,使原来本为无偏估计的设计出现了有偏估计的情况,对这种偏差,非训练有素的抽样调查专业人员难以察觉,更难得出其偏差的计量模型。3.因错误地使用了估计公式导致出现估计偏差。在抽样调查实际中,常常出现不严格、准确地使用估计公式的情况,致使估计出现偏差。例如,在分层抽样中,抽样设计是按最优分配方式分配各层的样本单位抽取样本,而在计算均值的估计量时,却用各层的样本容量进行加权平均,其估计结果必然产生偏差;在不等概率抽样设计中,样本的抽取按不等概率原则进行,但在计算估计量时却不用对应的估计公式,这种情况下,其偏差必然产生。这种偏差的出现通常难以计量。对于估计量的偏差,笔者认为可用两种方法处理:一是接受偏差。若该类偏差的存在对总体目标量估计的准确性的影响不大,则可以直接使用此估计量。二是纠正偏差。为避免估计量本身的偏差对估计效果影响,重新设计无偏的估计量或偏差较小的估计量。如此对率估计量,常见的这类估计方法就有: Hartly—Ross法,Mickey 法, Lahiri 法,Midzuno法,刀切法(Jacknife method),Beale法和Time法等。 以上方法大致可分为两类:一类是改进估计量,使其无偏或偏差减小。另一类是改进抽样方法,主要是将不等概率抽样应用到抽样程序中去,使通常意义的比率估计量成为无偏的或偏差较小的估计量,这种方法为Lahiri法,和Midzuno法。其他纠正偏差的估计方法,都可能造成估计量和估计量的方差的计算更复杂的情况,同时,尽管可能消除或减小偏差,但还可能形成一个较大的估计量的方差,因此,在实践过程中使用这些方法时应慎重。作者介绍:杨清 佛山大学国际经济与贸易系
理论新探抽样调查中估计量的Bootstrap修正及样本量的确定刘赪,赵联文(西南交通大学数学系,成都610031)摘要:估计量的精度和样本量的确定是抽样设计中所关心的两个主要问题。在一定条件下,对于简单随机抽样,通过对初级样本的Bootstrap抽样可以提高均值估计量的精度。中心极限定理一直是抽样调查中确定样本量的主要理论依据,基本思想就是将标准正态分布作为给定统计量的近似分布。如果利用Bootstrap方法模拟近似分布,同样可以确定样本量。文章结合具体例子对两种方法确定的样本量进行了对比分析。关键词:精度;Bootstrap;样本量中图分类号:O212文献标识码:A文章编号:(21-020引言1Bootstrap抽样的基本思想抽样调查的主要目的就是根据部分个体的调查结果对总体特征进行估计或统计推断,而概率抽样不仅能够保证样本的代表性,避免人为因素的干扰,而且能够对由于抽样产生的抽样误差进行估计。因此,从统计学的角度来看,概率抽样的关键问题就在于对所关心的总体目标量构造出相应的样本估计量,并能确定该估计量的抽样分布。对于同一目标量而言,可以得到不同的样本估计量,而在抽样调查中评判估计量优劣的主要指标就是比较其精度,即方差的大小。那么在不需要增加新样本的条件下,根据已有的样本数据,能否提高估计量的精度呢?一般而言,在样本容量不变的条件下,提高估计量精度主要遵循两个思路:一是修正估计量形式;二是改进抽样方法。美国统计学家Efron[1]提出Bootstrap理论的主要目的就是为了对估计量的偏差或方差进行更有效的估计,其基本思想是对已有样本的再次抽样,即对现有样本的观测值看成是一个新的总体再进行有放回的简单随机抽样。显然,利用Bootstrap可以不需要增加新的样本,而且在多数情况下可以得到更高精度的区间估计[2,3],因此我们可以考虑通过Bootstrap方法对估计量的精度进行改进。此外,在抽样调查的实际操作中,样本量的确定是实施抽样的必要前提。只有确定了样本量,才有可能开展后续工作。而估计量与参数真值之间的偏差是影响样本量大小的重要因素之一,如果利用Bootstrap抽样可以提高估计量精度的话,那么对样本量的确定又会有何影响呢?在抽样调查中,简单随机抽样是其他概率抽样方法的基础,而几乎各类总体特征的估计都要用到样本均值,可以说样本均值是抽样调查中的一个核心估计量。因此本文将以总体均值的估计为例,在利用简单随机抽样获取初级样本的前提下,对运用Bootstrap抽样改进估计量精度,以及对确定样本量的确定进行深入探讨。一般情况下,抽样调查的主要目的就是估计未知分布F的特征量θ(F),常用的方法就是从F中无放回地抽取一组容量为n的简单随机样本X1,X2,…,Xn,利用样本构造出θ(F)的赞t(X1,X2,…,Xn)。估计量t(x)的好坏可以用其与参数估计量t(x)=真值之间的偏差反映,即bias=t(x)-θ(F),要找出其概率分布,普遍的做法是先利用样本观测值x1,x2,…,xn构造出总体分布赞,然后用θ(F赞)作为θ(F)的估计。但需要注意的是,一F的估计F般情况下F并不是样本的真实分布,所以t(x)也不能被看作赞)的估计,也就是说直接用t(x)-θ(F赞)作为bias的估计量是θ(F是不合适的。赞中抽取新为了解决这个问题,一个自然的想法就是从F赞(X1*,X2*,…,Xn*)则为θ(F赞)的简单随机样本X1*,X2*,…,Xn*,t(x*)=的样本估计量(也称为θ(F)的Bootstrap估计量),相应地将赞)作为偏差bias的样本估计量。从理论上讲估计bias=t(x*)-θ(F量bias的分布是可以确定的。综上所述,所谓Bootstrap抽样就是对样本观测值x1,x2,…,xn进行有放回的简单随机抽样,从而得到n个Bootstrap样本X1*,X2*,…,Xn*,显然X1*,X2*,…,Xn*独立同分布于由x1,x2,…,xn所构造的经验分布函数Fn(x)=1ΣP(Xi≤x)。i=1可以看出,Bootstrap抽样的特点是直接利用样本数据进行统计推断,对于总体分布可以不作任何假定。而在抽样调查中所考虑的总体分布一般情况下都是未知的,这也正是本文考虑引入Bootstrap方法的原因。n2基金项目:西南交通大学青年教师科研起步资助项目()统计与决策2009年第3期(总第279期)??样本均值的Bootstrap修正21理论新探设从大小为N的总体中无放回地抽取一个样本容量为nn的简单随机样本,记为y1,y2,…,yn,则样本均值1Σyi是ni=1[4]总体均值的无偏估计量。若记抽样比为f=n/N,则的方差为1-fS2,其无偏估计为赞V赞1-fs2其中总体方差S=12i=1Σi=1N(Yi2,样本方差s2=1从模拟过程来看,利用Bootstrap抽样所得到近似分布与初级样本的容量有关。因此以下针对一个实例和模拟总体分布,分别给出不同规模的历史样本,比较由以上两种方法所确定的样本量。例如,为调查某校大学生的电信消费水平,在全校N=15230名学生中,用简单随机抽样的方法抽得容量为36的样本。对每个抽中的学生调查其上个月的电信支出金额,如表1所示[5]。表1样本序号消费额(元)样本序号消费额(元)样本序号消费额(元)样本序号消费额(元)Σ(yin2[4]。对初级样本y1,y2,…,yn进行Bootstrap抽样,得到Boot-strap样本y1*,y2*,…,yn*,由此可以得到总体均值的Bootstrap估计量B=1*iΣyi=1n*1。由于重抽样时每个初级样本的入样概率均为1/n,即P{y=yk}=1/n(k=1,2,…,n),易知B是的无偏估计,其方差为B)=1V(yi*)=n-1s2当总体规模N与样本量n满足N>n,即1>n时,总有B。换而言之,若希望通过对初级样本进行Bootstrap抽样提高估计量精度,需要满足条件1>n。由此可得如下2/articLe/.html175743命题。命题如果在抽取初级样本时总体中每个个体的入样概率小于对初级样本进行Bootstrap抽样时每个初级样本的入样概率,那么总体均值的Bootstrap估计量B和简单估计量都是无偏的,且B具有更高的精度。如果要求以95%的置信度估计该校大学生当月人均电信消费支出的绝对误差不超过5元,样本量应为多少?若从以上样本数据中随机抽取23个、16个分别作为历史样本,样本量为多少?此外,若从规模为10000的正态总体中抽取不同容量的历史样本,在给定绝对误差限d=0.5、置信度1-α=0.95的条件下,需要的样本量应为多少呢?我们利用R软件分别计算出由这两种方法所确定的样本量,结果如表2。表2总体历史样本的样本量绝对误差限d总体规模N样本量3样本量的确定样本量的确定是任何抽样设计都必须考虑的重要问题上例(总体分布未知)正态总体N95.50.5之一。对于简单随机抽样,由V1-fS2,可以解出:n=(6,29)軃)1+V(y軃-1。Bootstrap方法正态逼近743747由此可见,影响样本容量的三个基本因素为:总体规模N,估计量方差和总体方差S2。其中N是已知的,总体方差S2一般是由同类调查数据或历史数据估计得到,而的大小则依赖于对抽样误差的要求。在实际的抽样调查中,并不直接用

我要回帖

更多关于 矩阵运算性质 的文章

 

随机推荐