可以帮我解释一下计量经济学显著性检验题目中的这一句话吗?

为使被解释变量的估计值与观测值在总体上最为接近使Q= 最小,从而求出参数估计量的方法,即之。

2:总平方和、回归平方和、残差平方和的定义

TSS度量Y自身的差异程度,称为总平方和。TSS除以自由度n-1=因变量的方差,度量因变量自身的变化。

RSS度量因变量Y的拟合值自身的差异程度,称为回归平方和。RSS除以自由度(自变量个数-1)=回归方差,度量由自变量的变化引起的因变量变化部分。

ESS度量实际值与拟合值之间的差异程度,称为残差平方和。RSS 除以自由度(n-自变量个数-1)=残差(误差)方差,度量由非自变量的变化引起的因变量变化部分。

计量经济学是以经济理论为指导,以事实为依据,以数学和统计学为方法,以电脑技术为工具,从事经济关系与经济活动数量规律的研究,并以建立和应用经济计量模型为核心的一门经济学科。而且必须指出,这些经济计量模型是具有随机性特征的。

即从最小二乘原理和最大似然原理出发,欲得到参数估计量,不管其质量如何,所要求的样本容量的下限。

即样本容量必须不少于模型中解释变量的数目(包扩常数项),即之。

5:序列相关性。模型的随机误差项违背了相互独立的基本假设的情况,称之。

1、截面数据:截面数据是许多不同的观察对象在同一时间点上的取值的统计数据集合,可理解为对一个随机变量重复抽样获得的数据。

2、时间序列数据:时间序列数据是同一观察对象在不同时间点上的取值的统计序列,可理解为随时间变化而生成的数据。

3、虚变量数据:虚拟变量数据是人为设定的虚拟变量的取值。是表征政策、条件等影响研究对象的定性因素的人工变量,其取值

一般只取“0”或“1”。

1、总体回归函数:是指在给定X i下Y分布的总体均值与X i所形成的函数关系(或者说将

总体被解释变量的条件期望表示为解释变量的某种函数)2、最大似然估计法(ML): 又叫最大或然法,指用产生该样本概率最大的原则去确定样本

3、OLS估计法:指根据使估计的剩余平方和最小的原则来确定样本回归函数的方法。

4、残差平方和:用RSS表示,用以度量实际值与拟合值之间的差异,是由除解释变量之外

的其他因素引起的被解释变量变化的部分。

5、拟合优度检验:指检验模型对样本观测值的拟合程度,用2

表示,该值越接近1表示拟合程度越好。

1、多元线性回归模型:在现实经济活动中往往存在一个变量受到

其他多个变量影响的现象,表现在线性回归模型中有多个解释变量,这样的模型被称做多元线性回归模型,多元是指多个解释变量

R:又叫调整的决定系数,是一个用于描述多个解释变量对被解释变量的联合影响程度的统计量,克服了2

R随解释变量的增加而增大的缺陷,与2R的关系为22

3、偏回归系数:在多元回归模型中,每一个解释变量前的参数即

为偏回归系数,它测度了当其他解释变量保持不变时,该变量增加1单位对被解释变量带来的平均影响程度。

5、方程显著性检验:是针对所有解释变量对被解释变量的联合影

响是否显著所作的检验,旨在对模型中被解释变量与解释变量之间的线性关系在总体上是否显著成立作出判断。

1、随机解释变量:指在现实经济现象中,解释变量不是可控的,即解释变量的观测值具有随机性,并且与模型的随机干扰项可能有相关关系,这样的解释变量称为随机解释变量

2、工具变量:顾名思义是在模型估计过程中被作为工具使用的变量,用以替代与随机干扰项相关的随机解释变量。

1、异方差性:指对于不同的样本值,随机干扰项的方差不再是常数,而是互不相同的。

2、广义最小二乘法:(GLS)是最具有普遍意义的最小二乘法,可用来处理模型存在异方差或序列相关时的估计问题

这种观点单纯从统计的观点来看,是很有问题的。

我们一般说的「好的」结果,一般来说指的是「显著」的结果。我们知道,当我们做统计检验的时候,有两类错误:

  1. 第I类错误:当原假设为真,却拒绝了原假设
  2. 第II类错误:当备择假设为真,却接受了原假设

一般来说,我们做检验,是控制了第I类错误,比如常用的0.05的显著性水平,意味着我们如果b=0,那么做出「显著」的结果的可能性为5%。这个数值理论上是固定不变的,不随着样本量的变化而变化。

问题出在第II类错误上。第II类错误意味着备择假设为真,但我们却接受了原假设。在检验理论中,我们通常是控制第I类错误,而尽量减少第II类错误。

我们通常定义P(拒绝原假设|备择假设为真)为检验的「power」,当power越高,犯第II类错误的可能性就越小。

保持其他条件不变,当样本量增加的时候,power会越来越高的,意味着当备择假设为真的时候,犯第II类错误的可能性越来越小。

换句话说,如果参数本来就是「显著」的,那么当样本量增加的时候,你更不会因为运气的原因做出不显著的结果来。

所以换句话说,样本量越大,你越不需要靠「运气」做出「好」的结果。

而他的原话指的是第I类错误,我们上面说了,第I类错误的发生概率是我们已经通过显著性水平(5%)控制了的,所以他说的现象并不会发生。

所以呢,在我看来,至少现在我还没想到什么原因使得「大样本」劣于「小样本」,至少从统计理论方面来看。

补充一点,如果真的要说第I类错误,那我也得说道说道。很多的检验都是所谓的「大样本检验」,特别是不假设误差项分布的时候,一般的检验都是基于大样本性质的。常见的比如t-test, F-test一般是有分布假定才能得到的,否则只能是一个近似,当样本足够大的时候检验才「准确」。

这里「准确」的含义是指,当原假设为真时(即模型本来就不显著),那么100次检验有5次会犯错误(做出了显著的结果)。

所以当样本不够大的时候,其实我们的犯第一类错误的概率(p-value)也是不准的,样本足够大的时候才能保证p-value是准确的。

提到的跟我说的不冲突。他提到的主要是「经济显著性」的问题,也就是一个变量对y可能是有影响的,但是影响很小,那么虽然有「统计显著性」,但是没有经济显著性。

我上面提的是「统计显著性」的问题,是一个0-1的问题:这个变量就经有没有影响?而

提的是「经济显著性」(scale)的问题:这个影响究竟有多大?

在大样本情况下,正如我上面所说,一些「经济显著性」不强的变量,可能更容易显著,但是做出这样的结果来不是说结论错了,结论没错,统计上而言,结论上再正确不过了。只不过如果影响的确比较小,「经济显著性」可能没那么强。

如果样本很小,某些「经济显著性」不强的便利可能压根不显著,这从统计上而言反倒是错了,犯了弃真的错误。

只不过如果做不出统计显著性,好像也没必要探讨经济显著性。而只有做出了统计显著性,才有余地讨论经济显著性(scale)。

从这点来讲,样本大了绝对不会让你犯错,只不过要对系数的大小(scale)多加小心。

我要回帖

更多关于 为什么要进行显著性检验 的文章

 

随机推荐