steam cleaner怎么用 too了怎么用

答复: oldWALs too large
hbase-user mailing list archives
Message view
&sunweiwei& &su...@asiainfo-linkage.com&
答复: oldWALs too large
I have seen HBASE-3489, I'm not sure ,maybe it not this problem.
And I find some error message in hamster log,
like " won't delete any more
files in:hdfs://hdpcluster/apps/hbase/data/oldWALs " .
Is it a problem?
17:24:56,305 DEBUG [@qtp--4]
catalog.CatalogTracker: Stopping catalog tracker
org.apache.hadoop.hbase.catalog.CatalogTracker@8611b5c
17:24:56,306 INFO
zookeeper.ZooKeeper: Session: 0xc0168 closed
17:24:56,306 INFO
[@qtp--4-EventThread]
zookeeper.ClientCnxn: EventThread shut down
18:08:26,637 WARN
[master:hadoop01:60000.oldLogCleaner]
zookeeper.RecoverableZooKeeper: Possibly transient ZooKeeper,
quorum=hadoop02:2181,hadoop01:2181,hadoop03:2181,
exception=org.apache.zookeeper.KeeperException$SessionExpiredException:
KeeperErrorCode = Session expired for /hbase-unsecure/replication/rs
18:08:26,637 INFO
[master:hadoop01:60000.oldLogCleaner]
util.RetryCounter: Sleeping 1000ms before retry #0...
18:08:27,637 WARN
[master:hadoop01:60000.oldLogCleaner]
zookeeper.RecoverableZooKeeper: Possibly transient ZooKeeper,
quorum=hadoop02:2181,hadoop01:2181,hadoop03:2181,
exception=org.apache.zookeeper.KeeperException$SessionExpiredException:
KeeperErrorCode = Session expired for /hbase-unsecure/replication/rs
18:08:27,638 INFO
[master:hadoop01:60000.oldLogCleaner]
util.RetryCounter: Sleeping 2000ms before retry #1...
18:08:29,638 WARN
[master:hadoop01:60000.oldLogCleaner]
zookeeper.RecoverableZooKeeper: Possibly transient ZooKeeper,
quorum=hadoop02:2181,hadoop01:2181,hadoop03:2181,
exception=org.apache.zookeeper.KeeperException$SessionExpiredException:
KeeperErrorCode = Session expired for /hbase-unsecure/replication/rs
18:08:29,638 INFO
[master:hadoop01:60000.oldLogCleaner]
util.RetryCounter: Sleeping 4000ms before retry #2...
18:08:33,638 WARN
[master:hadoop01:60000.oldLogCleaner]
zookeeper.RecoverableZooKeeper: Possibly transient ZooKeeper,
quorum=hadoop02:2181,hadoop01:2181,hadoop03:2181,
exception=org.apache.zookeeper.KeeperException$SessionExpiredException:
KeeperErrorCode = Session expired for /hbase-unsecure/replication/rs
18:08:33,639 INFO
[master:hadoop01:60000.oldLogCleaner]
util.RetryCounter: Sleeping 8000ms before retry #3...
18:08:41,639 WARN
[master:hadoop01:60000.oldLogCleaner]
zookeeper.RecoverableZooKeeper: Possibly transient ZooKeeper,
quorum=hadoop02:2181,hadoop01:2181,hadoop03:2181,
exception=org.apache.zookeeper.KeeperException$SessionExpiredException:
KeeperErrorCode = Session expired for /hbase-unsecure/replication/rs
18:08:41,639 ERROR [master:hadoop01:60000.oldLogCleaner]
zookeeper.RecoverableZooKeeper: ZooKeeper getChildren failed after 4
18:08:41,639 WARN
[master:hadoop01:60000.oldLogCleaner]
master.ReplicationLogCleaner: Aborting ReplicationLogCleaner because Failed
to get list of replicators
org.apache.zookeeper.KeeperException$SessionExpiredException:
KeeperErrorCode = Session expired for /hbase-unsecure/replication/rs
org.apache.zookeeper.KeeperException.create(KeeperException.java:127)
org.apache.zookeeper.KeeperException.create(KeeperException.java:51)
at org.apache.zookeeper.ZooKeeper.getChildren(ZooKeeper.java:1468)
org.apache.hadoop.hbase.zookeeper.RecoverableZooKeeper.getChildren(Recoverab
leZooKeeper.java:273)
org.apache.hadoop.hbase.zookeeper.ZKUtil.listChildrenNoWatch(ZKUtil.java:573
org.apache.hadoop.hbase.replication.ReplicationStateZKBase.getListOfReplicat
ors(ReplicationStateZKBase.java:79)
at org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner.
loadHLogsFromQueues(ReplicationLogCleaner.java:88)
at org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner.
getDeletableFiles(ReplicationLogCleaner.java:67)
org.apache.hadoop.hbase.master.cleaner.CleanerChore.checkAndDeleteFiles(Clea
nerChore.java:233)
org.apache.hadoop.hbase.master.cleaner.CleanerChore.checkAndDeleteEntries(Cl
eanerChore.java:157)
org.apache.hadoop.hbase.master.cleaner.CleanerChore.chore(CleanerChore.java:
at org.apache.hadoop.hbase.Chore.run(Chore.java:80)
at java.lang.Thread.run(Thread.java:662)
18:08:41,640 INFO
[master:hadoop01:60000.oldLogCleaner]
master.ReplicationLogCleaner: Stopping
replicationLogCleaner-0x14564a8dff30178, quorum=hadoop02:2181,hadoop01:2181,
hadoop03:2181, baseZNode=/hbase-unsecure
18:08:41,640 DEBUG [master:hadoop01:60000.oldLogCleaner]
master.ReplicationLogCleaner: Didn't find any region server that replicates,
won't prevent any deletions.
18:09:26,639 WARN
[master:hadoop01:60000.oldLogCleaner] cleaner.
CleanerChore: A file cleanermaster:hadoop01:60000.oldLogCleaner is stopped,
won't delete any more files in:hdfs://hdpcluster/apps/hbase/data/oldWALs
18:10:26,640 WARN
[master:hadoop01:60000.oldLogCleaner] cleaner.
CleanerChore: A file cleanermaster:hadoop01:60000.oldLogCleaner is stopped,
won't delete any more files in:hdfs://hdpcluster/apps/hbase/data/oldWALs
18:11:26,639 WARN
[master:hadoop01:60000.oldLogCleaner] cleaner.
CleanerChore: A file cleanermaster:hadoop01:60000.oldLogCleaner is stopped,
won't delete any more files in:hdfs://hdpcluster/apps/hbase/data/oldWALs
-----邮件原件-----
发件人: Rabbit's Foot [mailto:rabbitsfoot@is-land.com.tw]
发送时间: 日 16:16
收件人: user@hbase.apache.org
主题: Re: oldWALs too large
please reference HBASE-3489.
14:58 GMT+08:00 sunweiwei &sunww@asiainfo-linkage.com&:
& I'm using hbase0.96.0, with 1 hmaster,3 regionservers.
& Write request is About 1~10w/s.
& Today I found HBase Master Hangs ,Regionservers dead and oldWALs dir is
& Very Large.
& /apps/hbase/data/data is about 800G. /apps/hbase/data/oldWALs is about
& This cause HDFS Full.
& any suggestion will be appreciated. Thanks.
(inline, Quoted Printable, 6171 bytes)WordPress(5)
&WP Cleaner删除所有修订版删除所有草稿删除所有修订版和草稿,删除不再需要的修订版或草稿,减小空间,提高性能。控制台-&插件-&添加新插件-&搜索WP Cleaner下载及详细教程:http://www.jiangmiao.org/blog/138.html
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:1180次
排名:千里之外
原创:249篇
(window.slotbydup = window.slotbydup || []).push({
id: '4740890',
container: s,
size: '250,250',
display: 'inlay-fix'只需一步,快速开始
扫一扫,访问微社区
后使用快捷导航没有帐号?
查看: 151357|回复: 75
帖内搜作者:
威望16900 金钱31799 帖子精华0好友居住地山东省 滨州市注册时间最后登录
本帖最后由 山东红圈 于
14:28 编辑
& && & Adobe的系列软件会将注册信息存储在一些Sqlite3数据库文件中,随着反复安装、卸载Adobe组件,如Photoshop、Premiere、Dreamweaver、After Effects、Illustrator等等,会残留很多的残留信息,尤其是绿色版的Adobe软件,卸载时不一定能完全清除之前写入数据库的信息,从而导致无法重新安装Photoshop等Adobe软件。这种情况下,必须清理数据库文件,方可继续安装。
& && & Adobe Creative Cloud&&Cleaner Tool专用于辅助卸载Adobe CS3、CS4、CS5、CS5.5、CS6、CC系列产品及Adobe Flash Player,下面是简单的教程。
& && & 1、先用常规方式卸载
& && & 先使用常规方式在控制面板中卸载,关闭所有的Adobe软件。
& && & 2、运行AdobeCreativeCloudCleanerTool,选择程序语言& && & & && & 下载AdobeCreativeCloudCleanerTool后双击运行该程序,输入e,按回车键,会进入英文界面模式。
20:11 上传
& && & 3、接受软件协议& && &
& && && && & 输入y,并按回车键,接受软件使用协议。
20:11 上传
& && & 4、选择清理选项& && & 这里要选择你需要的卸载模式,如果卸载Adobe CS3/CS4的软件,则输入数字4,然后回车;要卸载Adobe CS5/CS5.5/CS6,则输入数字6并回车,要单独卸载Adobe CS6,则输入数字7并回车。
20:11 上传
& && & 5、选择要卸载的程序& && & 选择一种卸载模式后,Adobe Creative Cloud&&Cleaner Tool会分析出所有可卸载的程序,如我这里,分析的是Creative Suite 5 Design Premium,如果确定要卸载的话,输入产品前面对应的数字序号(注意不是软件序列号),即输入数字1、并按回车继续。
20:11 上传
& && & 6、确认卸载& && & 直接输入字母y然后回车,就能开始清理了,等待完成。
20:11 上传
& && & 7、卸载完毕
& && & 如果看到这样的提示:Adobe Creative Cloud Cleaner Tool completed successfully,则说明卸载成功,可以尝试重新安装程序了。
20:11 上传
[下载地址]Adobe Creative Cloud&&Cleaner Tool官方网站:
介绍:最新2015版下载:
07:05 上传
2015版选项界面说明:其中“Creative Cloud”缩写就是CC,Only是仅仅、只有的意思,在这里表示单独卸载。
红圈、金圈都是好圈。
威望560 金钱5780 帖子精华0好友居住地北京市 朝阳区注册时间最后登录
青铜会员, 积分 560, 距离下一级还需 440 积分
当前用户组为 青铜会员当前积分为 560, 升到下一级还需要 440 点。
感谢楼主分享!学习了,收藏了。
威望2110 金钱3758 帖子精华0好友居住地河北省注册时间最后登录
黄金会员, 积分 2110, 距离下一级还需 2890 积分
当前用户组为 黄金会员当前积分为 2110, 升到下一级还需要 2890 点。
本帖最后由 山东红圈 于
11:24 编辑
可以卸载cc吗,我想按照您提供的方式重新安装CC,以便能升级CC最新版本,
若能,真是及时雨!!!谢谢了
威望16900 金钱31799 帖子精华0好友居住地山东省 滨州市注册时间最后登录
蜂花鸟悦 发表于
可以卸载cc吗,我想按照您提供的方式重新安装CC,以便能升级CC最新版本,
若能,真是及时雨!!!谢谢了
可以卸载CC
红圈、金圈都是好圈。
威望51230 金钱61392 帖子精华0好友居住地安徽省 铜陵市注册时间最后登录
当前用户组为 元老会员当前积分为 51230, 升到下一级还需要
感谢楼主分享!学习了,收藏了。
威望2110 金钱3758 帖子精华0好友居住地河北省注册时间最后登录
黄金会员, 积分 2110, 距离下一级还需 2890 积分
当前用户组为 黄金会员当前积分为 2110, 升到下一级还需要 2890 点。
山东红圈 发表于
可以卸载CC
是不是先按常规卸载方法卸载cc,&&卸载cc后再用这个插件清理吗?
cc插件如RAW插件、br、创意云等等还用卸载重装吗?
等待使用,盼望回答,谢谢老师!!!
威望16900 金钱31799 帖子精华0好友居住地山东省 滨州市注册时间最后登录
可以用这个工具卸载,也可以用常规卸载后再用这个工具清理。卸载重装后RAW插件需要更新,其他软件如果不能运行就需要重装。
红圈、金圈都是好圈。
威望2110 金钱3758 帖子精华0好友居住地河北省注册时间最后登录
黄金会员, 积分 2110, 距离下一级还需 2890 积分
当前用户组为 黄金会员当前积分为 2110, 升到下一级还需要 2890 点。
山东红圈 发表于
可以用这个工具卸载,也可以用常规卸载后再用这个工具清理。卸载重装后RAW插件需要更新,其他软件如果不能运 ...
红圈老师您好,我要卸载 CS CC按您提供的方法重新安装,但是出现这个界面选项,卸载CC我应该选哪项呀,谢谢回答!!!
20:12 上传
威望16900 金钱31799 帖子精华0好友居住地山东省 滨州市注册时间最后登录
蜂花鸟悦 发表于
红圈老师您好,我要卸载 CS CC按您提供的方法重新安装,但是出现这个界面选项,卸载CC我应该选哪项呀,谢 ...
选3,Creative Cloud就是CC。
红圈、金圈都是好圈。
威望490 金钱3010 帖子精华0好友居住地湖南省 长沙市注册时间最后登录
高级会员, 积分 490, 距离下一级还需 10 积分
当前用户组为 高级会员当前积分为 490, 升到下一级还需要 10 点。
真是及时雨!谢谢。
威望9830 金钱9318 帖子精华4好友居住地新疆维吾尔自治区 伊犁哈萨克自治州注册时间最后登录
好东西,回家就把cc删了,太耽误事儿了,老是提示内存不够,等我买了新本再装吧。
[url=searchdigest.php?keyword=%B6%A3%B5%B1&label=0]我的文集[/url]
[url=album/showalbum.php?thumbid=]我的相册[/url]
威望3040 金钱6047 帖子精华1好友居住地广东省 清远市注册时间最后登录
黄金会员, 积分 3040, 距离下一级还需 1960 积分
当前用户组为 黄金会员当前积分为 3040, 升到下一级还需要 1960 点。
红圈老师:您好!下载地址打不开。邮箱: 。多谢!
威望8320 金钱17360 帖子精华0好友居住地云南省 曲靖市注册时间最后登录
钻石会员, 积分 8320, 距离下一级还需 1680 积分
当前用户组为 钻石会员当前积分为 8320, 升到下一级还需要 1680 点。
感谢楼主分享!学习了,收藏
一品红茶您欢迎光临 http://www.microfotos.com/?p=home_company&companyid=73
威望3040 金钱6047 帖子精华1好友居住地广东省 清远市注册时间最后登录
黄金会员, 积分 3040, 距离下一级还需 1960 积分
当前用户组为 黄金会员当前积分为 3040, 升到下一级还需要 1960 点。
已收到,多谢红圈老师!!!
威望40 金钱370 帖子精华0好友居住地四川省 成都市 金牛区 九里堤街道注册时间最后登录
新来乍到, 积分 40, 距离下一级还需 10 积分
当前用户组为 新来乍到当前积分为 40, 升到下一级还需要 10 点。
红圈老师好,官网全是英语,麻烦发一个.谢谢
使用QQ帐号登录论坛的用户RegCleaner使用教程_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
RegCleaner使用教程
&&日常电脑管理软件教程
阅读已结束,下载文档到电脑
想免费下载更多文档?
定制HR最喜欢的简历
下载文档到电脑,方便使用
还剩10页未读,继续阅读
定制HR最喜欢的简历
你可能喜欢

我要回帖

更多关于 steam cleaner怎么用 的文章

 

随机推荐