VEC模型vec模型的结果怎么看理解

【图文】计量模型讲解_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
计量模型讲解
上传于||暂无简介
大小:377.50KB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢出自 MBA智库百科()
  误差修正模型(Error Correction Model)
  对于非稳定时间序列,可通过差分的方法将其化为稳定序列,然后才可建立经典的。
  如:建立人均消费水平(Y)与人均可支配收入(X)之间的回归模型:
  Yt = &0 + &1Xt + &t
如果Y与X具有共同的向上或向下的变化趋势,进行差分,X,Y成为平稳序列,建立差分回归模型得:
  &DYt = &1&DXt + vt
式中,vt = &t & &t & 1
  然而,这种做法会引起两个问题:
(1)如果X与Y间存在着长期稳定的均衡关系
Yt = &0 + &1Xt + &t
且误差项&t不存在序列相关,则差分式
&DYt = &1&DXt + vt
中的vt是一个一阶移动平均时间序列,因而是序列相关的;(2)如果采用差分形式进行估计,则关于变量水平值的重要信息将被忽略,这时模型只表达了X与Y间的短期关系,而没有揭示它们间的长期关系。
  因为,从长期均衡的观点看,Y在第t期的变化不仅取决于X本身的变化,还取决于X与Y在t-1期末的状态,尤其是X与Y在t-1期的不平衡程度。
另外,使用差分变量也往往会得出不能令人满意回归方程。
例如,使用&DY1 = &DXt + vt 回归时,很少出现截距项显著为零的情况,即我们常常会得到如下形式的方程:
  在X保持不变时,如果模型存在(),Y也会保持它的长期均衡值不变。
  但如果使用(1)式,即使X保持不变,Y也会处于长期上升或下降的过程中,这意味着X与Y间不存在静态均衡。这与大多数具有静态均衡的经济理论假说不相符。可见,简单差分不一定能解决非平稳时间序列所遇到的全部问题,因此,误差修正模型便应运而生。
  误差修正模型(Error Correction Model,简记为ECM)是一种具有特定形式的,它的主要形式是由、 、和于1978年提出的,称为DHSY模型。
为了便于理解,我们通过一个具体的模型来介绍它的结构。
  假设两变量X与Y的长期均衡关系为:
  Yt = &0 + &1Xt + &t   (2)
  由于现实经济中X与Y很少处在均衡点上,因此实际观测到的只是X与Y间的短期的或非均衡的关系,假设具有如下(1,1)阶分布滞后形式
该模型显示出第t期的Y值,不仅与X的变化有关,而且与t-1期X与Y的状态值有关。
  由于变量可能是非平稳的,因此不能直接运用OLS法。对(3)式适当变形得:
式中,& = 1 & &,,
  如果将(4)中的参数&0,&1与Yt = &0 + &1Xt + &t中的相应参数视为相等,则(4)式中括号内的项就是t-1期的非均衡误差项。
  (4)式表明:Y的变化决定于X的变化以及前一时期的非均衡程度。同时,(4)式也弥补了简单差分模型&DY1 = &DXt + vt的不足,因为该式含有用X、Y水平值表示的前期非均衡程度。因此,Y的值已对前期的非均衡程度作出了修正。(4)式称为一阶误差修正模型(first-order error correction model)。
  (4)式可以写成:
其中:ecm表示误差修正项。由分布滞后模型知:一般情况下|&|&1 ,由关系式&得0&&&1。可以据此分析ecm的修正作用:
  (1)若(t-1)时刻Y大于其长期均衡解&0 + &1X,ecm为正,则(-&ecm)为负,使得&DYt减少;
  (2)若(t-1)时刻Y小于其长期均衡解&0 + &1X,ecm为负,则(-&ecm)为正,使得&DYt增大。
  体现了长期非均衡误差对Yt的控制。
需要注意的是:在实际分析中,变量常以对数的形式出现。
  其主要原因在于变量对数的差分近似地等于该变量的变化率,而经济变量的变化率常常是稳定序列,因此适合于包含在经典回归方程中。
(1)长期均衡模型
Yt = &0 + &1Xt + &t
中的&1可视为Y关于X的长期弹性(long-run elasticity)
(2)短期非均衡模型
中的&1可视为Y关于X的短期弹性(short-run elasticity)。
更复杂的误差修正模型可依照一阶误差修正模型类似地建立。
  (1) 表述定理
  误差修正模型有许多明显的优点:如
a)一阶差分项的使用消除了变量可能存在的趋势因素,从而避免了虚假回归问题;
b)一阶差分项的使用也消除模型可能存在的多重共线性问题;
c)误差修正项的引入保证了变量水平值的信息没有被忽视;
d)由于误差修正项本身的平稳性,使得该模型可以用经典的回归方法进行估计,尤其是模型中差分项可以使用通常的t检验与来进行选取。
因此,一个重要的问题就是:是否变量间的关系都可以通过误差修正模型来表述?
就此问题, 与 Granger 1987年提出了著名的Grange表述定理(Granger representaion theorem):
如果变量X与Y是协整的,则它们间的短期非均衡关系总能由一个误差修正模型表述:
&DYt = lagged(&DY,&DX) & &&t & 1 + &t
式中,&t & 1是非均衡误差项或者说成是长期均衡偏差项, &是短期调整参数。
对于(1,1)阶自回归分布滞后模型
Yt~I(1), Xt~I(1) &;
的左边&DYt~I(0) ,右边的&DXt ~I(0) ,因此,只有Y与X协整,才能保证右边也是I(0)。
因此,建立误差修正模型,需要
首先对变量进行协整分析,以发现变量之间的协整关系,即长期均衡关系,并以这种关系构成误差修正项。
然后建立短期模型,将误差修正项看作一个解释变量,连同其它反映短期波动的解释变量一起,建立短期模型,即误差修正模型。
(2)Engle-Granger两步法
由协整与误差修正模型的的关系,可以得到误差修正模型建立的E-G两步法:
第一步,进行协整回归(OLS法),检验变量间的协整关系,估计协整向量(长期均衡关系参数);
第二步,若协整性存在,则以第一步求到的残差作为非均衡误差项加入到误差修正模型中,并用OLS法估计相应参数。
需要注意的是:在进行变量间的时,如有必要可在协整回归式中加入趋势项,这时,对残差项的稳定性检验就无须再设趋势项。
另外,第二步中变量差分滞后项的多少,可以残差项序列是否存在自相关性来判断,如果存在自相关,则应加入变量差分的滞后项。
(3)直接估计法
也可以采用打开误差修整模型中非均衡误差项括号的方法直接用OLS法估计模型。
但仍需事先对变量间的协整关系进行检验。
如对双变量误差修正模型
可打开非均衡误差项的括号直接估计下式:
这时短期弹性与长期弹性可一并获得。
需注意的是,用不同方法建立的误差修正模型结果也往往不一样。
本条目对我有帮助34
&&如果您认为本条目还有待完善,需要补充新内容或修改错误内容,请。
本条目相关文档
& 44页& 46页& 4页& 52页& 4页& 3页& 129页& 9页& 2页& 210页
本条目由以下用户参与贡献
(window.slotbydup=window.slotbydup || []).push({
id: '224685',
container: s,
size: '728,90',
display: 'inlay-fix'
评论(共16条)提示:评论内容为网友针对条目"误差修正模型"展开的讨论,与本站观点立场无关。
发表评论请文明上网,理性发言并遵守有关规定。
以上内容根据网友推荐自动排序生成苹果/安卓/wp
积分 324, 距离下一级还需 126 积分
权限: 自定义头衔, 签名中使用图片
道具: 彩虹炫, 涂鸦板, 雷达卡, 热点灯, 金钱卡, 显身卡, 匿名卡下一级可获得
道具: 抢沙发
购买后可立即获得
权限: 隐身
道具: 金钱卡, 彩虹炫, 雷达卡, 热点灯, 涂鸦板
开心签到天数: 1 天连续签到: 1 天[LV.1]初来乍到
本帖最后由 wanghaidong918 于
05:09 编辑
请高手帮忙判断模型建立的质量,如何判断VEC模型建立的好坏和可信度?多谢呀~!
Vector Error Correction Estimates& &
Date: 03/12/10& &Time: 19:54& &
Sample (adjusted): & &
Included observations: 15 after adjustments& &
Standard errors in ( ) & t-statistics in [ ]& &
Cointegrating Eq:&&CointEq1&&
LNGDP(-1)& && && && &1.000000&&
LNHYL(-1)& && && && &&&-0.510026&&
& && && && && && && && && && & (0.16250)&&
& && && && && && && && && && &&&[-3.13856]&&
LNPZT(-1)& && && && && & -0.302756&&
& && && && && && && && && && && &(0.11243)&&
& && && && && && && && && && && &[-2.69296]&&
C& && && && && && && && && && &&&0.057424&&
Error Correction: D(LNGDP)& &D(LNHYL)& &D(LNPZT)
CointEq1& && && && &&&-0.221137& & 1.062191& & 1.250822
& && && && && && && && && && &(0.17623)& & (0.63581)& & (0.90669)
& && && && && && && && && && &[-1.25482]& &[ 1.67062]& &[ 1.37954]
D(LNGDP(-1))& && &-0.071866& & 3.342110& & 2.923624
& && && && && && && && && && &(0.64339)& & (2.32124)& & (3.31022)
& && && && && && && && && && &[-0.11170]& &[ 1.43979]& &[ 0.88321]
D(LNGDP(-2))& &&&-0.247716& & 1.024220& & 2.281740
& && && && && && && && && &&&(0.33086)& & (1.19367)& & (1.70224)
& && && && && && && && && && &[-0.74871]& &[ 0.85804]& &[ 1.34043]
D(LNHYL(-1))& && &0.156558& &-0.330025& & 0.010619
& && && && && && && && && &(0.20503)& & (0.73971)& & (1.05487)
& && && && && && && && && &[ 0.76358]& &[-0.44615]& &[ 0.01007]
D(LNHYL(-2))& &&&0.042580& &-0.705371& &-0.983071
& && && && && && && && && &(0.14803)& & (0.53407)& & (0.76162)
& && && && && && && && && &[ 0.28764]& &[-1.32074]& &[-1.29076]
D(LNPZT(-1))& &&&-0.079592& & 0.787701& & 0.293551
& && && && && && && && && & (0.16586)& & (0.59839)& & (0.85334)
& && && && && && && && && &&&[-0.47988]& &[ 1.31637]& &[ 0.34400]
D(LNPZT(-2))& &-0.027555& & 0.779695& & 0.700746
& && && && && && && && &&&(0.16054)& & (0.57921)& & (0.82599)
& && && && && && && && &&&[-0.17163]& &[ 1.34613]& &[ 0.84837]
C& && && && && && && && & 0.171544& &-0.602502& &-0.636866
& && && && && && && && && &(0.12578)& & (0.45379)& & (0.64713)
& && && && && && && && && & [ 1.36384]& &[-1.32771]& &[-0.98414]
R-squared& && && &0.800833& & 0.474255& & 0.468706
Adj. R-squared&&0.601666& &-0.051490& &-0.062589
Sum sq. resids&&0.011209& & 0.145905& & 0.296718
S.E. equation& &&&0.040017& & 0.144373& & 0.205884
F-statistic& && && &&&4.020910& & 0.902063& & 0.882196
Log likelihood& &&&32.70878& & 13.46228& & 8.138591
Akaike AIC& && &&&-3.294504& &-0.728304& &-0.018479
Schwarz SC& &&&-2.916877& &-0.350677& & 0.359148
Mean dependent&&0.134182& & 0.093941& & 0.114230
S.D. dependent& & 0.063404& & 0.140794& & 0.199729
Determinant resid covariance (dof adj.)& &5.90E-08
Determinant resid covariance& && && && && && &6.00E-09
Log likelihood& && && && && && && && && && && && && && &&&78.13560
Akaike information criterion& && && && && && && &&&-6.818080
Schwarz criterion& && && && && && && && && && && && &&&-5.543589
1,协整方程 是LNGDP=0.51LNHYL+0.302LNPZT-0.0574
应该说右边的两个变量对左边的变量是正的影响
2,你说的VEC和误差修正项是对的
误差修正项的系数就是cointeq1的数值
3,楼上的高手说的基本是正确的,但是VEC是在协整方程基础上建立的模型,并不完全是辅助,它考察的是短期关系。还可以理解成VEC是对现实拟合更好的模型。
4,协整是VEC建模的基础,具体应根据AIC和SC选择最佳的滞后期
载入中......
1,协整方程 是LNGDP=0.51LNHYL+0.302LNPZT-0.0574
应该说右边的两个变量对左边的变量是正的影响
2,你说的VEC和误差修正项是对的
误差修正项的系数就是cointeq1的数值
3,楼上的高手说的基本是正确的,但是VEC是在协整方程基础上建立的模型,并不完全是辅助,它考察的是短期关系。还可以理解成VEC是对现实拟合更好的模型。
4,协整是VEC建模的基础,具体应根据AIC和SC选择最佳的滞后期
本帖被以下文库推荐
& |主题: 8540, 订阅: 47
1,协整方程 是LNGDP=0.51LNHYL+0.302LNPZT-0.0574
应该说右边的两个变量对左边的变量是正的影响
2,你说的VEC和误差修正项是对的
误差修正项的系数就是cointeq1的数值
3,楼上的高手说的基本是正确的,但是VEC是在协整方程基础上建立的模型,并不完全是辅助,它考察的是短期关系。还可以理解成VEC是对现实拟合更好的模型。
4,协整是VEC建模的基础,具体应根据AIC和SC选择最佳的滞后期
热心帮助其他会员
总评分:&经验 + 10&
论坛币 + 10&
首先看协整模型,如果协整模型没有问题,误差纠正模型也也不会有问题。
因为协整是主方程,误差纠正是一个辅助方程,因此协整模型合适就行了。
从你的截图看,应该是没有啥问题的。。。。
可以请你看看我的问题吗?
恩 前面是协整方程 只要复活意义就行了 修正是辅助
谢谢高手来看帖呀!我有点迷惑了,具体问题如下:
& && &1.这个是协整方程吗?
= 0.172 – 0.221ecm1t-1 – 0.072ΔLNGDPt-1 – 0.248ΔLNGDPt-2 + 0.157ΔLNHYLt-1 + 0.043ΔLNHYLt-2 – 0.08ΔLNPZTt-1 – 0.028ΔLNPZTt-2
ecmt = LNGDPt + 0.510LNHYLt + 0.302LNPZTt
<font color="#.那VEC方程怎么写呢??
<font color="#.可否使用以上贴图中的指标说明方程的可信度?是怎么样判断这个模型的好坏的?
非常感谢呀!!!
lihaiyangboa
谢谢高手来看帖呀!我有点迷惑了,具体问题如下:
1.这个是协整方程吗?
= 0.172 – 0.221ecm1t-1 – 0.072ΔLNGDPt-1 – 0.248ΔLNGDPt-2 + 0.157ΔLNHYLt-1 + 0.043ΔLNHYLt-2 – 0.08ΔLNPZTt-1 – 0.028ΔLNPZTt-2
ecmt = LNGDPt + 0.510LNHYLt + 0.302LNPZTt
2.那VEC方程怎么写呢??
3.可否使用以上贴图中的指标说明方程的可信度?是怎么样判断这个模型的好坏的?
非常感谢呀!!!
本文来自: 人大经济论坛 详细出处参考:
1,协整方程不是你写的方程
协整关系是同期变量的函数关系
上面你已经列出了协整方程 就是Cointegrating Eq:&&CointEq1&&
2,VEC 是Error Correction
就是三个方程 你也在上面列出来了 D(LNGDP)& &D(LNHYL)& &D(LNPZT)
是三个方程的被解释变量&&左边的一列是解释变量&&中间的就是解释变量的系数
3,做VEC模型先要做协整关系的检验,协整关系检验通过后,就是通过AIC和SC准则选择最优的滞后期,具体过程看书
谢谢你又来帮助我了!!还有一点不明白的地方,想请教呀~
<font color="#.协整方程是这个对吗?
LNGDPt = -0.510LNHYLt - 0.302LNPZTt + 0.0574
意思是右边的两个变量对左边的变量都是负向的影响?这样理解可以吗?
2.那三个中一个VEC模型就是:
= 0.172 – 0.221ecm1t-1 – 0.072ΔLNGDPt-1 – 0.248ΔLNGDPt-2 + 0.157ΔLNHYLt-1 + 0.043ΔLNHYLt-2 – 0.08ΔLNPZTt-1 – 0.028ΔLNPZTt-2
其中误差修正项是:ecmt = LNGDPt - 0.510LNHYLt - 0.302LNPZTt
误差修正项的系数就来自协整方程的系数,对吗?
3.楼上有高手说主要是看协整方程,VEC模型只是辅助?对吗?可以说协整方程表示长期关系,而VEC是考察在一定滞后 (这里的滞后期是2)变量之间的短期关系,对吗?
4.就是说,如果协整检验通过,就表示VEC模型的结果是可信的,可以这样理解吗?
非常感谢!
VEC的滞后阶数,必须是VAR模型滞后阶数减一吗?这是什么原因呢?谢谢
初级学术勋章
初级学术勋章
初级热心勋章
初级热心勋章
中级热心勋章
中级热心勋章
初级信用勋章
初级信用勋章
无限扩大经管职场人脉圈!每天抽选10位免费名额,现在就扫& 论坛VIP& 贵宾会员& 可免费加入
加入我们,立即就学扫码下载「就学」app& Join us!& JoinLearn&
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
如有投资本站或合作意向,请联系(010-);
邮箱:service@pinggu.org
投诉或不良信息处理:(010-)
京ICP证090565号
京公网安备号
论坛法律顾问:王进律师【思考】Word2Vec的增量式训练法_人工智能吧_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0成为超级会员,使用一键签到本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:46,746贴子:
【思考】Word2Vec的增量式训练法收藏
我最初想到这种方法是为了应对语料库所没有的新词。比如,用户想要查询和“松江二中”相似的概念,但是语料库中并没有“松江二中”,因此无法成功查询。这时,可以用一只网络爬虫得到有关“松江二中”的网页,然后把所有关于“松江二中”的句子找出,从而“知道”什么是“松江二中”。具体地说,就是在一个比较小的语料库上训练一个Word2Vec模型(不能太小,后面会说明原因),并利用Word2Vec的结果训练一个N-Gram模型。之后,设“松江二中”的Word2Vec值为变量X,求解argmax(x) ∏P(n)
其中P是N-Gram模型求得的概率,n取遍所有包含“松江二中”的长度为N个词的词的组合,“松江二中”作为自由变量。比如,“听说 今年 松江二中 学生 在”,就是满足条件的P(n)=P([a b x c d]),其中a,b,c,d分别代表“听说”,“今年”,“学生”,“在”的Word2Vec向量,x为自由变量。argmax(x) ∏P(n)就是通过改变x使 ∏P(n)取最大值(向量x是向量n的一部分)这样就可以求得“松江二中”的Word2Vec值。如果语料库太小,会导致a,b,c,d没有对应的Word2Vec向量,从而使得训练无法进行。(这里有个问题)可能有人问:如果把所有的中文网页全部用于训练,不就不会有这个问题了吗?但是,这种方法涉及到的数据规模太大,并且很多数据是重复的,效率很低。之前提到,如果语料库太小,a,b不一定有对应的Word2Vec向量,那可以把a,b当做自由变量再训练啊。那如果a,b训练时还有未赋予Word2Vec值的词语呢?这样滚雪球越滚越大,最后会吞没所有词语。尽管训练可以进行,但是它失去了“增量性”的好处。这个模型的好处在于它是一个增量模型,也就是说,在学习新的词语时,旧的词语并不变化。因此这个模型可以用于分布式训练。
人工智能-IBM Watson具备理解,学习和推理能力,实现更智能的人机互动,帮助做出更好决策立即登录IBM 官网,了解更多成功案列, 下载白皮书!
问题:1.语料库的大小多大,效果最好?我想到的方案是设初始预料库大小为n(不能太大),进行“滚雪球”过程,但是对于少量包含非常用词语的词语组合直接扔掉。这样“滚雪球”最终会饱和,饱和大小就是一个比较好的大小。2.Word2Vec具有局部性,能否用全局性的语言模型?不知道LSTM行不行。如果可行的话,初始语料库可能要大一些。3.训练时如果遇到除了自由变量以外的缺失值怎么办?比如:“听说 今年 松江二中 学生 在”,“松江二中”作为自由变量,没有Word2Vec值。但是如果“听说”也没有Word2Vec值的话,一般的训练方法就不能使用。我的处理方法是直接扔掉。有比直接扔掉更好的处理方法吗?4.可以不做分词吗?如果用LSTM的话,回到问题2.“不做分词的语句理解”()是一种比较有希望的技术,可惜我不太清楚里面的“句型提取”是怎样工作的。基于语法树的方法没有想过。
太长不看:本帖探讨怎样用已知的概念学习未知的概念。
有一个问题:对专有名词做wemb有没有意义?感觉和one-hot表示差不多。如果是这样不如弄成命名实体识别,那些个人数字助理似乎就是这么做的
一楼说;首先用训练集 T1 训练一个N-Gram模型 M1,然后根据“松江二中”的新语料 T2 进行增量训练。问:1. 这样完成增量训练之后,其结果是一个修正过的原N-Gram模型 M1‘,还是会产生另一个增量模型 M2 (故 M1+M2 才等于完整模型)?2. 如果是前者的话,则这个增量学习法是否必须遍历 T1 (因此很耗资源)?如何避免“遗忘”重要的资料?3. 如果是后者的话,固然方便分布式训练,实际上如何将多个模型(如上面的M1+M2)合并使用?
一楼说;首先用训练集 T1 训练一个N-Gram模型 M1,然后根据“松江二中”的新语料 T2 进行增量训练。这里“增量训练”的对象不是N-Gram模型,而是“松江二中”所对应的Word2Vec值。换句话说,在Word2Vec空间上定义的N-Gram模型不作改变,我们做的仅仅是把“松江二中”等特殊概念投影到Word2Vec空间。这会导致专有名词失去它的专有性(因为和一般词语处于同等地位)。
@Bz_______word2vec 的增量学习是个重要话题。以下继续探讨。关于分词的事(2楼#4), 标准的word2vec 一定需要做前置分词处理。举例来说, ‘New York’ 一词一定需要被前置处理后被当作一个word(即这系统里不可再细分的一个元素),这样word2vec算法才能顺利进行以导出‘New York&#39; (而不是 ’New&#39; 和 ‘York)和其他词语间的关系。“松江二中”也是一样的事。这是标准word2vec一个极大的缺点。例如如果我要把word2vec用在新闻稿上头的话就有极大的问题,因为新闻稿里头的新词层出不穷,会强迫我必须不停的重新做分词以及重新训练word2vec模型,故完全不实用。这里亟需一个改良的算法。至于8楼说的 【这会导致专有名词失去它的专有性】一事,我觉得这并不是问题。这是因为专有名词和一般词语的界线本来就是模糊的,而且差别在其语境(context)。Word2vec之类算法的强点本来就是能够以无监督的方式把语境的影响计算出来,所以我觉得可以无视这问题。至于8楼对增量学习的解释,如果我理解正确的话,我觉得光给“松江二中”一个Word2Vec值的话整个word2vec模型还是得需要重新训练,故並没有真的解决增量学习的问题。
关于分词的事(2楼#4), 标准的word2vec 一定需要做前置分词处理。举例来说, ‘New York’ 一词一定需要被前置处理后被当作一个word(即这系统里不可再细分的一个元素),这样word2vec算法才能顺利进行以导出‘New York&#39; (而不是 ’New&#39; 和 ‘York)和其他词语间的关系。“松江二中”也是一样的事。这是标准word2vec一个极大的缺点。例如如果我要把word2vec用在新闻稿上头的话就有极大的问题,因为新闻稿里头的新词层出不穷,会强迫我必须不停的重新做分词以及重新训练word2vec模型,故完全不实用。这里亟需一个改良的算法。————————————————————————————————————的确是这样,如果分词错了,后面的算法再怎么好都没用。至于8楼对增量学习的解释,如果我理解正确的话,我觉得光给“松江二中”一个Word2Vec值的话整个word2vec模型还是得需要重新训练,故並没有真的解决增量学习的问题。————————————————————————————————————如果专有名词出现的次数可以忽略不计呢?
仔细想想其实要改良word2vec做某种形式的增量学习其实并没有理论上的困难,只是目前看到的工具都还没有花功夫去实现。这个改良版的word2vec可以实现如下:1. 首先用训练集 T1 训练一个N-Gram模型 M1。这是标准的word2vec做法。2. 根据M1可以提出一组新的词集 {W1}。例如根据M1该可以看出”松江二中“四个单独的字经常一起出现(假设T1里头本来就含这些字,故可以把四个字当作一个独立的word加入 {W1}3. 将T1根据{W1}重组得到一个新的训练集 T2. 这里需做的重组的事就是把T1里头所有的‘松江二中’四字当作一个独立的word.
4. 根据T2重新训练一个N-Gram 模型。这里仅需专注于根据{W1}及其邻近的word做训练,其他的word可以无视,故算是一种增量算法。以上还可以重复多次,形成一个多层结构的模型。例如先是把”松江“和”二中“当作两个独立的word做训练,稍后再把”松江二中“四字当一个独立的word做训练,等等。
用一只网络爬虫得到有关“松江二中”的网页,然后把所有关于“松江二中”的句子找出,作为新的语料库。把松江二中加入原来的word2vec词典,做skip-gram的训练,由“松江二中”预测context。在训练的过程中,不改变原来的word2vec词典中词的向量,只修改“松江二中”的向量
Altera的FPGA和英特尔产品相结合,加强人工智能创新,突出产品优势,赢得市场.
我最近训练好了一个100K词的中文词向量,1.7G新闻和微博语料,100维向量
10万个词啊,结巴分词,gensim做word2vec,很容易的。结果保存成文本文件可以做别的深度学习任务,在keras里导入到embedding层。
有结果了吗?把成果展示一下。
松 江 二 中, 四个字的vector 都有了再将 松江二中 单独 训练的 得出的vector_1 拿来四个vector 相加 + bias vector = vector_1 如果所有词的bias vector 都差不多呢
登录百度帐号推荐应用
为兴趣而生,贴吧更懂你。或&#xe621; 上传我的文档
&#xe602; 下载
&#xe60c; 收藏
自从投入教育界,兢兢业业,对于自己的工作非常满意并充满信心,多年来积累了丰富的工作经验。
&#xe602; 下载此文档
正在努力加载中...
VAR模型和VEC模型
下载积分:3000
内容提示:VAR模型和VEC模型
文档格式:PPT|
浏览次数:16|
上传日期: 14:25:34|
文档星级:&#xe60b;&#xe612;&#xe612;&#xe612;&#xe612;
该用户还上传了这些文档
VAR模型和VEC模型
官方公共微信

我要回帖

更多关于 var模型和vec模型 的文章

 

随机推荐