HEXIN HEALTHhealthspan是什么意思药

12月8日 第四期健康智谷HEALTHWORK沙龙:医药电商的核心竞争力在哪里?
近年来,随着互联网的蓬勃发展,电商在电商蓝海中不断攻城略地,一批国内知名医药电商屡次刷新各大电商平台月销售额排名;“掌上药店”、“药给力”、“叮当快药”等一批新生代送药020企业“争分夺秒”展现非凡配送力。医药电商行业竞争趋于白热化。药品价格及品类优势、配送速度及专业化程度、渠道多样化亦或是其他药品衍生服务,究竟哪些才是医药电商的核心竞争力?本期HEALTHWORK沙龙邀请传统医药公司大佬、行业领先的医药电商创始人、政府及学术机构专家以及深耕于医疗投资领域多年的资深投资人一起聊聊医药电商的核心竞争力在哪里。欢迎各位一起来头脑风暴。沙龙时间:日(周二)13:30至16:30沙龙地点:上海市静安区灵石路697号健康智谷7号楼三楼会议室主办单位:健康智谷(上海天亿弘方企业管理有限公司)支持单位:美年大健康、中卫基金、掌上药店、药房网、三江资本拟邀请演讲嘉宾:王浚海 & 掌上药店联合创始人钟 &毅 & 药房网总经理曹永兵 & 第二军医大学药学院赵 &耕 & 三江资本副总裁大会议程13:30-14:00 & &嘉宾签到14:00-14:15 & &欢迎致辞14:15-16:00 & &主题发言16:00-16:30 & &讨论互动会议报名:请参见附件:报名回执交通:46、79、95、206、 210、222、312、322、 741、767、849路等地铁1号线上海马戏城站4号出口会议座席有限,请12月8日前,填妥参加人员信息表格并通过邮件或传真形式发回给以下联络人。联系人:王碧云电话:136-Email:
医谷,分享创业的艰辛与喜悦,如果您是创业者,期望被更多的人关注和了解,请猛点这里&&
扫一扫,关注医谷微信
每天下午 6 点,为您奉上有深度的医学资讯;同时,通过医谷微信,您还可以直接访问医谷手机版,随时随地,获取更多更全面新鲜医学资讯。
All Rights Reserved 医谷版权所有德国人工智能研究中心语言技术实验室Hans
Uszkoreit教授及Feiyu Xu博士访问模式识别国家重点实验室
日,来自德国人工智能研究中心语言技术实验室的Hans Uszkoreit教授及Feiyu Xu博士访问模式识别国家重点实验室,为师生做题为“Language
Understanding cum Knowledge Yield”的报告。
自然语言理解是帮助人们尽可能快速,轻松地获取所需信息的关键。最近的研究成果极大的刺激了网络规模的自然语言理解的研究:大型结构化知识库的出现,语言处理上的进展,新的语言知识资源和新的强大的机器学习技术。在这次演讲中,Uszkoreit教授将报告他们在关系提取领域的研究成果,特别是在他们的Google聚焦研究奖项目——LUcKY取得的成果。他们开发了一个机器学习平台,它可以利用已知事实的大集合和提到这些事实地数百万的网页,以学习人们用来表达这些事实的语言模式。在学习的模式的帮助下,在数字文本中(例如在媒体或报告中)发现新的事实。从而建立了一个名为Sar-graphs(sargraph.dfki.de)的开源网站,这是一种新型的语言知识资源,包含25个现实世界关系的依赖模式网络。
Sar-Graph还自动链接到WordNet,BabelNet和FrameNet,为链接语言开放数据(LLOD)做出了贡献。此外,他们将报告我们的实体链接和跨句事件链接的工作。关于Sar-Graph,实体链接和事件链接的工作已经在ACL
2015,Journal of Web Semantics (知识图表2016年特刊)和CoNLL 2016上发布。
Hans Uszkoreit教授是德国人工智能研究中心(German Research Center for Artificial
Intelligence,DFKI)语言技术实验室的科技总监,DFKI柏林站的站点协调员以及DFKI的部门主任。他的实验室在信息抽取,跨语言信息检索,问答系统,语言分析,机器翻译以及深度语言处理都有所建树。他至今已经发表了200多篇国际论文。他于1984年从德克萨斯州大学毕业,并在斯坦福大学,斯坦福研究员以及IBM德国获得了研究职位。从1988年到2015年间,他在萨尔布吕肯的萨尔州立大学任计算语言学与计算科学教授职位。自2002年起,Uszkoreit教授成为了欧洲科学院的成员。他同时也是计算语言学国际委员会的永久会员,柏林技术大学的荣誉教授,欧洲逻辑语言信息协会的前任主席,并在数个国际期刊中担任编辑与咨询的职位。
Feiyu Xu博士是DFKI语言技术实验室首席研究员和文本分析研究组主任。她从1987年到1990年前在上海同济大学学习技术翻译。然后她1992年到1998年在萨尔州立大学学习计算语言学,并获得了外国硕士学位。她的博士研究方向为“从语义种子进行关系提取”。在2014年,Feiyu
Xu完成了大量大文本数据分析的工作。2012年,Feiyu Xu与Hans Uszkoreit以及Roberto Navigli获得了Google的聚焦研究奖项。2014年,Feiyu
Xu成为DFKI研究会员。她已经发表了90多篇杂志,发表在ACL, COLING, EMNLP, CONLL, NAACL, LREC
等杂志上。她同时也是EACL 2017文本挖掘,信息抽取以及问答系统的领域主席。
国家教育部语信司司长田立新来模式识别国家重点实验室调研
日,国家教育部语言文字信息管理司(简称“语信司”)司长田立新在语信司规划协调处处长易军的陪同下,来我所模式识别国家重点实验室自然语言处理研究团队进行了调研。研究所副所长杨一平陪同调研并介绍了研究所的有关情况。
教育部语信司主要负责研究并审定国家语言文字标准和使用规范,制定语言文字信息处理标准,指导地方文字规范化建设,负责少数民族语言文字规范化工作,指导少数民族语言文字信息处理的研究与应用等。近年来,模式识别国家重点实验室自然语言处理研究团队在自然语言处理的基础理论和方法、机器翻译、知识工程等相关领域取得了丰硕成果,在国内外引起了广泛关注。此次田司长一行来访的主要目的是了解模式识别国家重点实验室在自然语言处理相关领域的研究工作,与相关领域的研究人员探讨未来语言信息技术发展的动向,为语言文字信息领域的十三五规划制定和实施进行调研。
调研会上田司长和易军处长听取了宗成庆研究员对自然语言处理研究团队的工作介绍,观看了张家俊副研究员和博士生刘树林分别展示的多语言文本自动翻译与分析系统和百科知识图谱系统,然后,就语言信息技术未来的发展趋势和动向、语信司对相关工作的关注和期望、我国语言资源的开发、保护和使用、高校与科研院所在相关领域的合作等若干问题与大家进行了广泛而深入的探讨。自然语言处理团队的赵军研究员和何世柱博士一同参与了讨论。
加拿大蒙特利尔大学的聂建云教授访问模式识别国家重点实验室
日加拿大蒙特利尔大学的聂建云教授访问了模式识别国家重点实验室,做了题为“Latent
Representations for Information Retrieval”的学术报告,并与实验室师生进行了友好讨论。
报告摘要(ABSTRACT):
Traditional information
retrieval uses words as the basic representation units. It is
known that such a representation has several problems, in
particular, when dealing with synonymous and polysemous words.
These problems are particularly important for information
retrieval. A series of latent representations have been used to
address the problems, ranging from LSA, LDA to more recent
embeddings. In this talk, we will review these representations
for IR applications. It will be shown that latent
representations can help solve the problems to some extent, but
cannot (yet) fully replace the traditional word-based
representation. We will provide some analysis on this.
报告人简介(BIOGRAPHY):
Jian-Yun Nie is a
professor in University of Montreal. He has been working in the
areas of information retrieval and natural language processing
for a long time. His research topics include information
retrieval models, cross-language information retrieval, query
expansion and understanding, etc. Jian-Yun Nie has published a
number of papers on these topics in the top journals and
conferences. His papers have been widely cited by peers. He is
on the editorial board of 7 international journals, and is a
regular PC member of the major conferences in these areas such
as SIGIR, CIKM, ACL. He was also the general chair of SIGIR
美国 IBM沃森研究中心的王志国博士访问模式识别国家重点实验室
日美国IBM沃森研究中心的王志国博士访问了模式识别国家重点实验室,做了题为“Deep
Sentence Modeling for Question Answering”的学术报告,并与实验室师生进行了友好讨论。
报告摘要(ABSTRACT):
Sentence modeling is a
crucial procedure for question answering. In this presentation,
I will talk about applying deep learning methods for sentence
modeling, including sentence clustering, sentence matching,
sentence classification and sequential labeling. I will also
present how to apply these technologies into real world question
answering systems.
报告人简介(BIOGRAPHY):
Dr. Zhiguo Wang is a
research staff member at IBM T. J. Watson Research Center
working on statistical parsing, question answering, machine
translation and machine learning. His current foci are to apply
deep learning algorithms for multilingual question answering.
Before joining IBM, he worked as a postdoctoral fellow in
Brandeis University. He received his PhD degree in computer
science from Institute of Automation, Chinese Academy of
Sciences in June 2013.
“自然语言处理与深度学习”学术研讨会成功举办
在中国科协“青年人才托举工程”项目在支持下,于日在中国科学院自动化研究召开,来自国内科研院所、高校和互联网公司的约180位专家、学生参加了这次研讨会。会议取得了圆满成功。
中国科协于2015年设立的“青年人才托举工程”(以下简称“托举工程”)旨在“探索创新选拔机制、培养模式、评价标准,扶持职业发展和学术成长,打造国家高层次科技创新人才后备队伍”。这一托举工程为选拔出来的青年学者开阔视野、提高创新能力、促进学术交流与合作搭建了一个很好的平台。我所青年学者张家俊博士基于在自然语言处理和机器翻译领域出色的学术成绩,经中国中文信息学会推荐和自动化、信息与智能科学联合体严格的遴选,成为首批“青年人才托举工程”的入选者。借此平台他组织了以“直面自然语言处理当前的问题,应对大数据时代人工智能的未来挑战”为目的的学术研讨会,由此借机与国内同行一起探讨自然语言处理未来发展的方向和正确研发的道路,引领和帮助青年学生把握正确的学术方向,立足当下,面向未来,开展创新性理论研究和高水平技术研发。
会议于日下午两点在自动化所智能大厦学术报告厅召开,中科院自动化所所长徐波研究员、中国自动化学会副理事长兼秘书长王飞跃研究员、中国中文信息学会副理事长兼秘书长孙乐研究员、北京理工大学计算机学院院长黄河燕教授、微软亚洲研究院首席研究员周明博士、苏州大学“杰青”获得者张民教授、自然语言处理和机器翻译专家哈尔滨工业大学赵铁军教授、东北大学朱静波教授和自动化所宗成庆研究员、赵军研究员,以及青年才俊北京大学的万小军教授、清华大学“优青”获得者副教授刘洋博士等众多本领域的杰出学者出席了本次研讨会。
会议开幕式由宗成庆研究员主持,中国自动化学会副理事长兼秘书长王飞跃研究员代表自动化、信息与智能科学联合体在开幕式上做了讲话,简要介绍了中国科协“青年人才托举工程”计划,对入选者表示了祝贺,并提出了更高的希望。随后由刘洋博士主持学术报告。张家俊、万小军和来自出门问问公司的技术经理李理分别做了题为“神经网络机器翻译:寻找替身之旅”、“大数据时代的文本自动摘要”和“问答系统与深度学习”的学术报告。报告分别从自然语言处理的三大应用机器翻译、自动文摘和问答系统出发,介绍了最新的研究进展和深度学习遇到的问题与挑战。张家俊主持了主题讨论(panel
discussion)环节,由周明、孙乐、张民、朱靖波、万小军、刘洋和李理7位专家组成的研讨嘉宾针对深度学习在自然语言处理中的应用前景和目前亟待解决的科学问题,以及未来研究的思路和方法等各个方面分别给出了自己的见解和看法,其中不乏思想冲撞,会场气氛十分热烈。
专家们一致认为,深度学习是一个很好的工具和方法,但我们应该冷静地对待,针对具体问题具体分析。尤其是青年学者和学生,应该从不同的视角清晰地看待深度学习和其他热点各自的利弊,既不能闭关自守,又不可盲目跟从,在跟踪、学习和实践中不断创新才是唯一正确的学术之路。与会师生一致表示此次研讨受益匪浅。
美国伊利诺伊大学芝加哥分校刘兵教授访问模式识别国家重点实验室&&
日,美国伊利诺伊大学芝加哥分校刘兵教授应邀在模式识别国家重点实验室做了题为“Discovering Keywords
for Search, Covariate Shift, and Lifelong
Learning”的学术报告。近五十名所内外师生聆听了这场报告。
面对海量的社交网络数据,如何获取指定主题的相关内容是用户比较感兴趣的问题。其中,最核心的问题是如何构造用于搜索的关键词集合。人工构造关键词往往费时费力,而且无法全面准确地描述主题。刘斌教授介绍了他所领导的研究组在关键词自动发现方面的最新研究成果:首先通过种子关键词获得搜索结果并进行过滤,然后从结果中提取候选关键词,通过迭代前两个步骤不断更新关键词集合。刘斌教授随后介绍了一种终生机器学习(lifelong
learning)的思想,很好的启发了大家的思维。讲座现场气氛非常活跃,报告的最后阶段,在座师生提出了不少问题,刘斌教授针对每个问题都非常详细地做了回答。
刘斌教授同时是ACM、IEEE与AAAI的会士,现在工作于美国伊利诺伊大学芝加哥分校计算机科学系。他博士毕业于爱丁堡大学人工智能专业。他的研究兴趣包括情感分析与观点挖掘、终生机器学习、伪观点与欺诈观点识别、数据挖掘和自然语言处理。他在顶级会议和期刊上发表了若干优秀学术论文,其中两篇文章获得知识发现与数据挖掘顶级会议KDD的10年test-of-time奖。他出版了情感分析和网络数据挖掘相关的三本著作,并且他的工作多次被媒体广泛报道,包括纽约时报的封面文章报道。他还是多个顶级数据挖掘会议KDD、ICDM、CIKM、WSDM等的程序委员会主席,以及TKDE、TWEB与DMKD等多个国际期刊的副主编。目前,他是ACM
SIGKDD的主席。
“基于大数据的互联网机器翻译核心技术及产业化”项目荣获2015年度国家科技进步奖二等奖
2015年度国家科学技术奖励大会于日上午在北京人民大会堂隆重举行,今年共有295个项目和7名外籍科技专家荣获国家科学技术奖。由百度公司牵头,中科院自动化所、哈尔滨工业大学、清华大学、中科院计算所和浙江大学联合完成的“基于大数据的互联网机器翻译核心技术及产业化”项目荣获2015年度国家科技进步二等奖。
随着国际互联网技术的快速发展和贸易全球化时代的到来,克服语言障碍、实现跨语言自由沟通的需求日益凸显。研制国际领先的互联网机器翻译技术,实现机器翻译的大规模产业化应用,是无障碍跨语言交流与学习的基础,是国家跨语言网络信息安全的基石,对促进中华文化在世界的传播具有重要意义。由百度公司牵头,中科院自动化所、哈尔滨工业大学、清华大学、中科院计算所和浙江大学联合建立的研发团队在国家“863”计划、国家自然科学基金等课题的支持下,在机器翻译系统框架、海量翻译知识获取、翻译模型与算法、多语种翻译技术等方面取得重大突破。自主研制了基于互联网大数据的机器翻译云平台,打破了国外互联网公司在本领域的垄断地位,产生了巨大的经济效益和社会效益。在多年的合作研发中,该团队在基于云计算的大规模机器翻译框架、基于互联网大数据的高质量翻译知识自动获取、基于深度语义的语言分析和翻译技术,以及枢轴语言机器翻译技术等方面,提出了一系列创新思想和方法,攻克了机器翻译语种覆盖度受限的难题,突破了传统翻译知识获取规模小、成本高的瓶颈,实现了机器翻译技术的规模化应用,翻译质量处于国际领先水平。
中科院自动化所自然语言处理与机器翻译研究团队多年来围绕多语言机器翻译技术,在多语种自动识别、命名实体识别与翻译、多语言语义理解、译文语序优化等关键问题方面进行了深入研究,尤其在基于深度语义分析的翻译模型和翻译知识自动获取等方面对整个项目有重要贡献。为此,中科院自动化所成为本次奖励的第二获奖单位,自然语言处理与机器翻译研究团队负责人宗成庆研究员为第三获奖人。
哈尔滨工业大学深圳研究生院徐睿峰博士访问模式识别国家重点实验室&&&&&&&&&&&&&&
日,哈尔滨工业大学深圳研究生院徐睿峰博士应中科院自动化所张家俊博士邀请为中科院自动化所的师生们作了题为“Emotion
Recognition Based on Electroencephalography(EEG)”的学术报告。自动化所张家俊副研究员、刘康副研究员、汪昆博士、徐立恒博士等师生参加了此次报告会。
近年来,情感分析逐步成为自然语言处理领域的一个重要研究课题,除了传统的褒贬分析之外,情绪分析(喜、怒、哀、怨等)也是一个重要研究方向。徐睿峰老师在这一领域有着多年的积淀和优秀成果。在本次报告中,徐老师首先介绍了其课题组今年在ACL2015上有关情绪分析和表示学习的最新研究成果,其次,徐老师专门介绍了其课题组通过对人脑电波的监控从而判别目标人情绪的变化的最新工作,这一工作属于交叉学科,引人入胜。
现场气氛热烈,徐老师对于老师同学提出的问题进行了一一解答。与会的老师和同学都对徐老师的思路开阔,工作原创表示赞叹。会后,各位老师也对于这一方向今后的发展进行了深入的交流。
清华大学刘洋博士访问模式识别国家重点实验室&&&
&&&&&&&&&&&
日,应中国科学院自动化研究所宗成庆研究员和张家俊博士的邀请,清华大学计算机系刘洋副教授在自动化所模式识别国家重点实验室做了题为“基于非平行数据的翻译模型训练方法”的学术报告。自动化所宗成庆研究员、赵军研究员、周玉博士、张家俊博士、汪昆博士、向露以及中国传媒大学程南昌博士等30余名师生参加了此次讲座。
目前,平行语料库是主流统计机器翻译方法的基础与核心。然而,由于平行语料库的主要来源是存在多种官方语言的政府网站,语料库的数量和领域覆盖面都受到严重制约。由于互联网上存在海量的非平行文本数据,如何利用非平行数据训练翻译模型是当前重要的研究方向。刘洋老师在本报告介绍了两种基于非平行数据的翻译模型训练方法:(1)
基于译文检索的平行语料库自动构建和(2)基于非平行数据的IBM模型训练,前者将信息检索与机器翻译相结合,从海量的非平行语料库中快速准确发现平行句对,后者采用无监督学习算法直接从非平行语料库中训练IBM模型。最后,刘洋老师介绍了几点非常有趣的正在进行中的研究工作,并对未来工作进行了展望。
刘洋老师的报告生动形象、深入浅出,甚至不懂机器翻译的同学也表示完全听明白了。报告中,现场气氛非常活跃,刘洋老师对与会老师和同学提出的问题一一进行了细心解答。报告后,与会老师和同学纷纷对刘洋老师研究工作的深度、系统化以报告的条理性表示由衷赞叹,相信同学们会深受这次报告的启发,做出越来越出色的研究工作。
翟飞飞获2015年中国人工智能学会优秀博士学位论文奖
我组翟飞飞同学的博士学位论文《基于语言结构知识的统计机器翻译方法研究》被授予2015年中国人工智能学会优秀博士学位论文奖。
中国人工智能学会优秀博士学位论文奖是为推动中国人工智能领域的科技进步、鼓励创新性研究、促进青年人才成长、表彰做出优秀成果的中国境内博士学位获得者,由中国人工智能学会2011年设立。
2015年度中国人工智能学会优秀博士学位论文评选工作中,学会邀请了34位国内人工智能领域的知名专家,认真负责地完成了对43篇博士学位论文的评审。根据专家评审意见,确定了20篇入围终评的候选博士学位论文,经专家终审及两轮投票,最终确定了8篇获奖论文。
“多语种信息采集处理与分析”项目获钱伟长中文信息处理科学技术奖
12月20日中国中文信息学会在中国科技会堂召开学术年会,举行了“钱伟长中文信息处理科学技术奖”颁奖仪式,模式识别国家重点实验室完成的多语种信息采集处理与分析项目荣获一等奖。
&&&&&&&“钱伟长中文信息处理科学技术奖”是经国家科技部批准,面向全国中文信息处理行业的科学技术奖,旨在推动我国中文信息处理科技进步工作中有突出贡献的项目,每两年评审、颁奖一次,是目前我国中文信息处理领域的最高奖。
模式识别国家重点实验室宗成庆研究员领导的自然语言处理团队面向国家需求,在多语言信息采集、处理和分析领域进行了一系列理论和技术创新,近三年来他们先后提出了基于模糊树到精确树的统计翻译模型、融合翻译记忆和短语翻译模型的统计翻译方法、以及基于互联网内容的两级平行资源自动获取框架等一系列新的理论方法,获得7项国家发明专利和1项国际发明专利,在Computational
Linguistics、IEEE&Transactions on Audio, Speech and Language
Processing、Information Sciences等国际权威学术期刊和ACL、AAAI、IJCAI等顶级国际会议上发表论文30余篇,出版学术专著一部、译著一部。基于扎实的理论研究基础和过硬的核心技术创新,他们研制开发的英、日、德、法、朝、阿拉伯和土耳其等外国语,及藏、维、蒙等我国少数民族语言,共10多种语言文本的自动采集、翻译和分析系统成功应用于中国信息安全测评中心、中国人民解放军、公安系统和新闻媒体等国家特定领域,有效支撑了相关单位核心事业的发展,为维护国家安全和社会稳定,推动多语言情报翻译和分析事业的发展发挥了重要作用。
又讯:自然语言处理团队和计算大脑团队共同与百度、清华大学、中科院计算所、哈尔滨工业大学联合承担的国家“863”计划重大项目“基于大数据的互联网机器翻译核心技术研究及产业化”荣获2014年中国电子学会科技进步一等奖。
清华大学徐佳博士访问模式识别国家重点实验室
日,清华大学交叉信息研究院徐佳博士应模式识别国家重点实验室自然语言处理研究组邀请在中国科学院自动化研究所智能化大厦714会议室做题为“Query
Lattice for Translation Retrieval”的学术报告。
网络与全球化的发展使得我们可以获取若干语言的大规模单语数据。如何在构建机器翻译系统时充分利用这些海量单语数据成为一个极有意义并极具挑战的问题。徐佳博士介绍了一种新颖的翻译检索方法:首先借助传统机器翻译模型或短语翻译表生成源语言句子的目标译文翻译候选,然后利用搜索引擎思想将翻译候选作为Query从大规模目标语言单语数据中检索最佳答案。若目标语言单语数据的规模和覆盖面都较完备,那么作为检索结果的目标语言句子和源语言句子极有可能是互为翻译的句对。徐佳博士对比了翻译候选的存储方式(1-best
vs. lattice)和生成方法(translation model vs. phrase
table)对检索结果的影响。报告深入浅出、生动活泼,参会的各位老师和同学与徐佳博士进行了长达2个小时的热烈讨论与交流。
徐佳博士是清华大学交叉信息研究院的助理教授(Assistant
Professor)。加入清华大学之前,徐佳博士在德国DFKI研究所担任项目负责人和高级研究员。徐佳博士师从自然语言处理领域著名专家、德国亚琛工业大学教授Hermann
Ney,并于2009年获得博士学位。博士期间,徐佳先后在IBM
沃森实验室和Microsoft雷蒙德研究院做学术访问。徐佳博士目前的研究兴趣包括机器学习和机器翻译,在AAAI、EMNLP和COLING等国际顶级会议上发表论文多篇,并领导团队多次在机器翻译评测中获得优异成绩。
北京师范大学毕彦超教授访问模式识别国家重点实验室&&&
&&&&&&&&&&&
日,认知神经科学著名学者、北京师范大学认知神经科学与学习国家重点实验室毕彦超教授应模识自然语言处理研究组邀请在中科院自动化研究所智能化大厦714会议室做了题为“语义加工的认知神经基础”的学术报告。
人们一直被这样一个问题困扰着:语义在人脑中是如何加工的?该问题涉及到语言学和认知科学。毕彦超教授在报告中主要介绍了她的团队近几年在语义加工认知神经基础方面的研究工作。毕教授利用详细的实验对比了人脑对不同语义的反映差别,从神经科学的角度分析了人脑解析语义的基础机制。各位从事自然语言处理的老师和同学都表示对语言有了更加深刻的认识,认为报告的内容将对以后设计算法自动处理和分析语言能够提供新的视角。
毕彦超老师是北京师范大学认知神经科学与学习国家重点实验室、IDG/McGovern Institute for Brain
教授。于2006年获哈佛大学心理学系脑、认知、行为专业博士学位;1995年和1998年分别在东北师范大学和北京师范大学获心理学学士、心理学硕士学位。“973”青年专项首席科学家,国家优秀青年科学基金、教育部新世纪优秀人才基金获得者。获Sackler
Scholars Programme in Psychobiology奖、美国心理科学学会新星奖。担任北京神经科学学会理事。
加拿大国家研究委员会多语言处理研究组陈博兴研究员访问模式识别国家重点实验室&&&
日,机器翻译国际知名学者、加拿大国家研究委员会多语言处理研究组陈博兴研究员应模式识别国家重点实验室自然语言处理研究组邀请在中国科学院自动化研究所智能化大厦714会议室做题为“Domain
Adaptation for SMT: Linear, Log-Linear, Non-Linear and Vector Space
Model”的学术报告。
领域自适应是基于数据驱动方法不得不面对的问题,是自然语言处理领域的一个重要问题。在机器翻译领域,由于涉及的是双语而不是单语,领域自适应问题更加突出。如何在构建统计机器翻译系统时很好地考虑领域适应成为近年来的一个热门问题,引起越来越多学者的关注。陈博兴老师介绍了他近几年来针对领域自适应所做的数据加权的研究工作。陈老师分别从短语翻译概率和短语分布两个角度探索了数据加权方法,并且详细介绍了linear
Mixture、log-linear、non-linear和向量空间模型的数据加权算法以及一些对结果影响显著的平滑算法。
陈博兴博士目前是加拿大国家研究委员会多语言处理研究组的研究员(Research
Officer)。陈博兴研究员1998年本科毕业于北京大学,2003年博士毕业于中国科学院声学研究所。博士毕业后,陈老师先后在法国Grenoble
3、意大利FBK-IRST以及新加坡I2R担任博士后研究员与高级研究员。陈老师的主要研究兴趣是自然语言处理与机器翻译,在国际顶级会议ACL、COLING、NAACL等发表多篇论文,并于2013年获得MT
Summit的最佳论文奖。
美国纽约城市大学黄亮教授教授访问模式识别国家重点实验室&&&
&&&&&&&&&&&&&
日,机器翻译、自然语言处理领域国际知名青年学者、美国纽约城市大学黄亮教授应模式识别国家重点实验室自然语言处理研究组邀请在中国科学院自动化研究所智能化大厦第一会议室做题为“How
to Write a Good Paper and How to Give a Good Talk”的学术报告。
撰写学术论文与做学术报告是科学研究者向国际同行介绍自己工作最直接最重要的方式。然而,中国研究人员在这些方面往往没有欧美学者做得好。黄亮老师在报告一开始便提出学术论文写作的一个误区:论文的质量决定于英语水平的好坏。黄亮老师指出,学术论文的核心在于逻辑。黄老师建议大家多向国际顶级学者(例如自然语言处理领域的蒋伟教授)学习论文写作技巧。然后,黄老师分别针对学术论文结构(abstract、introduction、the
problem、my idea、the details、related work、conclusion and future
work)中的每一部分都提出了具体的撰写建议。其次,针对如何做学术报告,黄老师从讲稿的布局、如何形象化、以及如何与听众交互等方面给出了具体的建议。最后,黄老师总结了4句话的论文写作技巧:读者在心、起承转合、老妪能解和跃然纸上。黄老师的报告生动活泼、趣味盎然,同学和老师们与黄老师进行了热烈的讨论和交流。
黄亮博士目前是美国纽约城市大学计算机系的助理教授(Assistant
Professor)。黄亮博士2003年本科毕业于上海交通大学,2008年博士毕业于宾夕法尼亚大学。博士毕业后,黄亮老师先后在谷歌(Google)和南加州大学信息科学研究所(USC/ISI)担任研究科学家与研究助理教授。他的主要研究兴趣在于计算语言学和机器学习的理论(算法和形式化等)研究,于2008年获得自然语言处理国际顶级会议ACL的最佳论文奖,并获得ACL2007、EMNLP2008与ACL2010的最佳论文提名奖。黄亮老师获得2010年和2013年的谷歌研究奖,以及宾夕法尼亚大学2005年的研究生教学奖。
息检索领域国际著名学者、加拿大蒙特利尔大学聂建云教授访问模式识别国家重点实验室&&&
日,信息检索领域国际著名学者、加拿大蒙特利尔大学聂建云(Jian-Yun
Nie)教授应模式识别国家重点实验室自然语言处理研究组邀请在中国科学院自动化研究所智能化大厦第一会议室做题为“Understanding
search users: what have been achieved and what haven’t”的学术报告。
在信息检索和搜索引擎中,返回结果的质量强烈依赖于对用户查询的正确理解程度。在这次报告中,聂建云教授将用户查询的理解分为三个层次:词袋模型(Bag-of-Words)层次,短语、N-元组(n-gram)和词间关系层次,以及用户查询意图层次。在前两个层次的研究中,聂教授重点介绍了如何优化词、N-元组等特征的权重,特别是如何充分利用用户的查询日志。在用户查询意图的研究中,聂教授首先介绍了其中的两个难点:查询意图的定义与查询意图的检测。然后,聂教授详细介绍了怎样利用用户查询日志与知识库对用户查询进行扩展以获得多样化(diverse)的查询结果。最后,聂教授还分析了当前信息检索研究领域还未解决的一些难题,例如如何结合多个垂直领域的搜索,如何理解用户查询的语义等等。报告结束后,很多老师和同学与聂建云教授在用户查询意图的理解方面进行了深入的交流与探讨。
聂建云教授是加拿大蒙特利尔大学的正教授(full
professor)。聂教授从事信息检索、自然语言处理方面的研究工作长达25年以上,目前的研究兴趣主要包括信息检索模型,跨语言信息检索,用户查询扩展与理解等。聂教授在国际期刊和会议上发表150多篇学术论文并获得广泛的引用。聂建云教授是信息检索和自然语言处理领域7大期刊的编委会成员,担任众多国际会议的筹委会成员,并在2011年北京召开的SIGIR会议中任大会主席。
出门问问公司沈李斌博士访问模式识别国家重点实验室&&&&&&&
日,Mobvoi自然语言处理负责人沈李斌博士应模式识别国家重点实验室自然语言处理研究组邀请在中国科学院自动化研究所智能化大厦第三会议室做题为“Structure
and Learning in Statistical Machine Translation”的学术报告。
刚刚召开的计算语言学国际大会(ACL)上,一篇深度学习应用于机器翻译的文章获得了ACL2014的最佳论文奖。该论文所采用的非常强大的基线系统(串到依存树翻译模型)便是由沈李斌博士负责开发的。在这次报告中,沈李斌博士介绍了两部分的内容。首先,沈李斌博士将翻译模型中规则抽取的启发式规则方法利用贝叶斯的思想进行了非常漂亮的概率理论解释;然后,沈李斌博士重点介绍了串到依存树翻译模型和若干改进,以及一些潜在的研究方向。在问答环节,各位老师和同学与沈李斌博士在机器翻译模型设计与工程实现等方面进行了深入的交流与探讨。
沈李斌博士现为出Mobvoi(出门问问)公司自然语言处理负责人。他2000年本科毕业于上海交通大学,2006年博士毕业于宾夕法尼亚大学计算机与信息科学系。先后在BBN、IBM任研究科学家,在Akamai任首席软件工程师。他于2008年获ACL的最佳论文奖,并且开发的翻译系统从2008年起连续在美国DAPRA
Gale和BOLT等重大机器翻译评测中获得第一名的成绩。2014年4月份沈李斌博士加入北京出门问问创业团队担任自然语言处理负责人。
出门问问公司CTO雷欣博士访问模式识别国家重点实验室
日,出门问问CTO、原Google研究院科学家雷欣博士应模式识别国家重点实验室自然语言处理研究组邀请在中国科学院自动化研究所智能化大厦学术报告厅做题为“Two
Recent Developments on Deep Neural Networks for Speech
Processing”的学术报告。该报告吸引了来自北京各高校和研究所约100位老师和学生。
日,出门问问CTO、原Google研究院科学家雷欣博士应模式识别国家重点实验室自然语言处理研究组邀请在中国科学院自动化研究所智能化大厦学术报告厅做题为“Two
Recent Developments on Deep Neural Networks for Speech
Processing”的学术报告。该报告吸引了来自北京各高校和研究所约100位老师和学生。
深度学习已成为当前炙手可热的机器学习方法,而Google是第一个将深度学习成功应用于产品的公司。雷欣博士首先回顾了深度学习在Google的发展历程。然后,雷欣博士主要介绍了他们最近的两项深度学习的研究工作。其中一项工作关注深度学习在离线移动终端上的语音识别,即在保证识别效果的前提下如何精简优化深度学习模型。另一项工作关注深度学习在说话人识别领域的应用。最后,雷欣博士介绍了出门问问的系统架构(其中语音识别模块采用了深度学习方法),并成功演示了出门问问在交通、饮食、娱乐等垂直领域的语音语义搜索功能,受到在场听众的热烈好评。在问答环节,各位老师和学生与雷欣博士在深度学习的模型、应用等方面进行了深入的交流与探讨。
出门问问语义分析技术负责人、2008年ACL最佳论文获得者沈李斌博士也一同到访,与自然语言处理研究组的研究人员在自然语言处理、机器翻译等学术问题上进行了充分热烈的探讨。
雷欣博士现为出门问问公司CTO。他于1999年在清华大学获得双学士学位,2006年获得华盛顿大学电子工程系博士学位,曾任职于微软,SRI(前斯坦福研究所),谷歌研究院。回国前在谷歌总部任职Staff级别研究员(Staff
Research Scientist)。在谷歌研究院,他领导开发了基于深度神经网络的离线语音识别系统,被广泛评为Android
JellyBean版本最好的feature之一。他在语音识别领域发表过近30篇论文,拥有多项美国专利。他在谷歌研究院的主页是
。2014年2月份雷欣博士从谷歌总部辞职,加入北京出门问问创业团队担任CTO。
美国 Brandeis
大学薛念文博士访问模式识别国家重点实验室
日美国Brandeis大学的薛念文(Nianwen Xue)博士访问了模式识别国家重点实验室,做了题为“Hierarchical
Alignment”的学术报告,并与实验室师生进行了友好讨论。
报告摘要(ABSTRACT):
Existing word alignment
standards often attempt to align everything at the level of words.
This leads to complicated alignments and spurious ambiguity in some
cases and severs key dependencies in others. In this talk I will
describe a project where we attempt to migrate some of the
alignments to phrases, thereby simplifying word-level alignments.
This alignment is based on parallel treebanks and I show that this
representation can support the extraction of Hiero-style rules and
tree-to-tree MT models.
报告人简介(BIOGRAPHY):
Nianwen Xue is an
Assistant Professor in the Computer Science Department and
the Language & Linguistics Program at Brandeis University.
Before joining Brandeis, Nianwen Xue was a research
assistant professor in the Department of Linguistics and the
Center for Computational Language and Education Research
(CLEAR) at the University of Colorado at Boulder. Prior to
that, he was a postdoctoral fellow in the Institute for
Research in Cognitive Science and the Department of Computer
and Information Science at the University of Pennsylvania.
He got his PhD in linguistics from University of Delaware.
Nianwen Xue has broad
interests in computational linguistics and natural language
processing. He has devoted substantial efforts to developing
linguistic corpora annotated with syntactic, semantic,
temporal and discourse information that are crucial
resources in the field of natural language processing. The
other thread of his research involves using statistical and
machine learning techniques in solving natural language
processing problems. He has published work in the areas of
Chinese word segmentation, syntactic and semantic parsing,
coreference, discourse analysis, machine translation as well
as biomedical natural language processing. His research has
received support from the National Science Foundation (NSF),
IARPA and DARPA. He serves on the editorial boards of ACM
Transactions on Asian Language Information Processing,
Language Resources and Evaluation, and Computer Processing
of Oriental Languages.
新加坡科技设计大学的张岳博士来访模式识别国家重点实验室
日新加坡科技设计大学(Singapore&University&of&Technology&and&Design,
SUTD)的张岳博士访问了模式识别国家重点实验室,做了题为“Syntax-based&word&ordering:&a&learning-guided-search&approach”的学术报告,并与实验室师生进行了友好讨论。
&报告摘要(ABSTRACT):
A fundamental problem in text
generation is word ordering. Word ordering is a computationally
difficult problem, which can be constrained to some extent for
particular applications, for example by using synchronous grammars
for statistical machine translation. There have been some recent
attempts at the unconstrained problem of generating a sentence from
a multi-set of input words, and also some efforts to linearize
unordered trees. We show that word ordering can be done using a
syntax-based approach and learning-guided-search. This method
tackles the factorial search space and allows state-of-the-art
accuracies to be achieved given flexible input conditions.
报告人简介(BIOGRAPHY):
Yue Zhang is currently an
assistant professor at Singapore University of Technology and
Design(SUTD). Before joining SUTD in July 2012, he worked as a
postdoctoral research associate in University of Cambridge, UK. Yue
Zhang received his DPhil and MSc degrees from University of Oxford,
UK, and his BEng degree from Tsinghua University, China. His
research interests include natural language processing, machine
learning and artificial intelligence.
美国的季姮博士来访模式识别国家重点实验室
日纽约城市大学的季姮博士访问了模式识别国家重点实验室,做了题为“Morphed Information
Extraction, Resolution and Translation” 的学术报告,并与实验室师生进行了友好讨论。
报告摘要(ABSTRACT):
Information Extraction (IE) is a task of identifying “facts”, such
as the attack/arrest events, people's jobs, people's whereabouts,
merger and acquisition activity from unstructured texts. In this
talk, Dr. Ji defines several new extensions to state-of-the-art IE
and systematically present the foundation, methodologies,
algorithms, and implementations needed for more accurate, coherent,
complete, concise, and most importantly, dynamic and resilient
extraction capabilities. He will present an information-aware
Machine Translation framework.
报告人简介(BIOGRAPHY):
Heng Ji is an associate professor in Departments of Computer Science
and Linguistics at City University of New York. She received her
Ph.D. in Computer Science from New York University in 2007. Her
research interests focus on Natural Language Processing, especially
on Cross-source Information Extraction and Knowledge Base
Population. She has published over 90 papers. Her recent work on
uncertainty reduction for Information Extraction was invited for
publication in the Centennial Year Celebration of IEEE Proceedings.
She received a Google Research Award in 2009, US NSF CAREER award in
2010, Sloan Junior Faculty award and IBM Watson Faculty award in
2012. She served as the coordinator of the NIST TAC Knowledge Base
Population task in 2010 and 2011, the Information Extraction area
chair of NAACL-HLT2012 and ACL2013 and the co-leader of the
information fusion task of ARL NS-CTA program in 2011 and 2012. Her
research has been funded by US NSF, ARL, DARPA, Google and IBM.
新加坡的张民教授来访模式识别国家重点实验室
日新加坡的张民教授访问了模式识别国家重点实验室,做了题为“Document and Discourse-based
SMT” 的学术报告,并与实验室师生进行了相关讨论。
报告摘要(ABSTRACT):
Current SMT methodology translates document sentence by sentence
without considering any discourse and document information. In this
talk, I will present our two on-going work of
discourse/document-based SMT, i.e., lexical cohesion modeling for
document-level SMT and topic-based coherence model for SMT. Moreover
I will also give a brief discussion on how grammar induction can
报告人简介(BIOGRAPHY):
Dr. ZHANG Min received his B.A. and Ph.D. degree from HIT in 1991
and 1997, respectively. From Dec. 1997 to Aug. 1999, he worked as a
researcher in KAIST. He began his academic and industrial career as
a researcher at L&H Tech Asia Pacific (Singapore) in Sep. 1999. He
joined Infotalk Tech (Singapore) as a researcher in Jan 2001 and
became a senior research manager in 2002. Dr. ZHANG joined the
I2R/A-star of Singapore in Dec. 2003 and now is a scientist and
principal investigator in the institute. Currently he leads the SMT
research group and oversees the activities of SMT research in
HLT/I2R. His current research interests are SMT and NLP. He has
authored/co-authored more than 150 papers in leading journals and
conferences. In recent years, he actively contributes to the
research communities by taking different roles. He supervises Ph.D
students at NUS/A-STAR, HIT and Suda.
微软亚洲研究院的刘晓华博士来访模式识别国家重点实验室
日微软亚洲研究院的刘晓华博士访问了模式识别国家重点实验室,做了题为“Collective Information
Extraction for Micro-blogs” 的学术报告,并与实验室师生进行了相关讨论。
报告摘要(ABSTRACT):
Within the past five years, micro-blogs have greatly developed and
now become one indispensable information source. Owing to the
unstructured, fragmented, informally written, noisy and real-time
nature of micro-blogs, it is hard for people to effectively obtain
the information of their interests from micro-blogs. In this talk, I
will introduce the task of information extraction for micro-blogs,
which consists of a serials of sub-tasks, including Named Entity
Recognition (NER), Semantic Role Labeling (SRL) and Event Extraction
(EE).&One main common research challenge is the dearth of
information in a single micro-blog, rooted in the short and noisy
nature of micro-blogs. In this talk, I will introduce the following
three kinds of collective inference algorithms, which are applied to
NER, SRL and EE, respectively, achieving remarkable improvements
over the baselines.1. K-nearest neighbor (KNN) classifier based
joint inference that determines the output of the current input
using the outputs of the inputs similar
Cluster based joint inference that involves the following two-stage
labeling: In the first round, one single micro-blog is processed as
in the second round, similar micro-blogs are first clustered,
then for each cluster an enhanced model that utilizes cluster-level
information is applied to each micro- 3.
Graphical model based joint inference that conducts an information
extraction related task on a collection of related micro-blogs,
sharing information across micro-blogs and simultaneously
determining the outputs for all the related micro-blogs.In the end,
I will present a semantic search of micro-blogs called QuickView,
which integrates various information extraction technologies and
enables categorized browsing and advanced search of tweets.
报告人简介(BIOGRAPHY):
Dr. Liu is Project Lead and Researcher in Microsoft Research Asia,
Natural Language Computing Group. His research interests include
social content mining, NLP for ranking, machine learning, etc. In
recent three years he published 25+ papers in ACL, AAAI, IJCAI,
EMNLP, COLING, and SIGIR. At his free time, he likes coding and
solving software development related challenges. He authored several
programming related books, including &Detailed introduction of JSP
programming& and &Mastering MFC&.
百度公司的马艳军博士来访模式识别国家重点实验室
日百度公司的马艳军博士访问了模式识别国家重点实验室,做了题为“Translation Recommendation
for MT-TM Integration” 的学术报告,并与实验室师生进行了相关讨论。
报告摘要(ABSTRACT):
We present a translation recommendation model for integrating
Machine Translation (MT) output into a Translation Memory (TM)
environment to facilitate the adoption of MT technology in the
localization industry. Given an input to be translated, our
recommender compares the output from the MT and the TM systems, and
presents the better one to the post-editor. When measured against
the consensus of human judgment, the recommendation model obtains
0.91 precision at 0.93 recall. The high precision of these models
ensures that MT output is only used in the TM environment when it
its better than the best available TM output with high con?dence.
The models thereby preserve TM assets and established fuzzy
match-based cost estimation methods associated with TMs.
报告人简介(BIOGRAPHY):
马艳军博士现为百度公司副研究员。2009年获得爱尔兰都柏林城市大学计算机系博士学位,曾在ACL, COLING, ACM
Transaction, Journal of Machine
Translation等会议和期刊发表论文多篇,拥有发明专利多项,曾负责多项爱尔兰和欧盟项目的子课题。2008年至2009年担任EACL学生委员会理事,2009年在剑桥大学工程系做访问学者,2010年获得欧洲机器翻译协会最佳博士论文奖。现担任Journal
of Machine Translation编委,并担任ACL, EMNLP, COLING等国际会议的程序委员会成员、分会主席等。
北京大学的王立威教授来访模式识别国家重点实验室
、11月28日北京大学的王立威教授访问了模式识别国家重点实验室,做了题为“概率图模型:表示、推断与学习”的报告,并与实验室师生进行了相关讨论。
报告摘要(ABSTRACT):
我们通过介绍机器学习的基本思想引入概率图模型。首先描述为何概率图模型适于表示机器学习问题,以及概率图模型的表示能力,包括有向图Bayes网和无向图Markov网。接下来我们转入如何利用概率图模型进行推断。报告将深入浅出地介绍概率图模型常用推断算法,包括著名的belief
propagation算法,马尔科夫链蒙特卡罗(MCMC)方法等。同时,我们还将简要指出概率图模型推断的本质困难性以及近似的必要性。最后,介绍如何从数据中学习概率图模型。
报告人简介(BIOGRAPHY):
王立威,北京大学信息学院智能科学系教授。分别于1999年、2002年于清华大学电子工程系获本科和硕士学位。2005年于北京大学数学学院获博士学位。自2005年起在北京大学信息学院任教。他的主要研究兴趣为机器学习理论与算法,对boosting、主动学习等开展了深入研究。在机器学习顶级会议NIPS,
COLT, ICML和顶级期刊JMLR, IEEE Trans. PAMI发表论文多篇。2010年入选AI’s 10 to Watch。
T.J.Watson 研究中心的黄非博士来访模式识别国家重点实验室
日IBM T.J. Watson 研究中心的黄非博士访问了模式识别国家重点实验室,做了题为“Bilingual
Data Clustering for SMT Domain Adaptation” 的学术报告,并与实验室师生进行了相关讨论。
报告摘要(ABSTRACT):
Nowadays it is a lot easier to build a statistical machine
translation (SMT) system thanks to the easy access to large amount
of online text and open source software. However, the general MT
system outputs still have a lot of room for improvement. In this
talk I will first share my view on the current status of the machine
translation, then I will focus on a specific problem: SMT domain
adaptation. I will present a novel approach based on multiple level
of bilingual data clustering.&With dynamic combination of
automatically derived domain specific models,&this approach
demonstrates 1.0-2.0 points of gain in BLEU on various test sets
over an English-to-Chinese baseline system built with general
报告人简介(BIOGRAPHY):
黄非博士目前在IBM T.J. Watson 研究中心任职研究科学家(Research Staff
Member),从事多国语言自然语言处理和机器翻译方面的研究与开发。他目前的研究方向包括基于大规模文本的自然语言处理,统计机器翻译,信息抽取和语音识别等,特别在从多语言的文本和语音中抽取并翻译关键信息(命名体)方面做出了开创性的工作。黄非博士在自然语言处理和人工智能的顶级会议(包括AAAI
,ACL,EMNLP,COLING, NAACL/HLT, SIGIR 等)和期刊发表文章20
多篇(多数为第一作者或唯一作者),他引400余次。他并长期担任10
多个自然语言和语音处理方面的国际刊物和国际会议的审稿人及程序委员。黄非博士1999年于中科院自动化所获硕士学位,2006
年毕业于卡耐基-梅隆大学计算机学院语言技术研究所,获博士学位。
张家俊等获 NLP&CC 会议最佳论文奖
日-11月5日第一届自然语言处理与中文计算(NLP&CC)学术会议在北京召开。张家俊、翟飞飞和宗成庆共同完成的论文“Handling
Unknown Words in Statistical Machine Translation from a New
Perspective”
获本届会议最佳论文奖。本届NLP&CC会议口头报告论文的录用率仅为28%,所有论文中仅有一篇论文获得最佳论文奖。
微软亚洲研究院的刘树杰博士来访模式识别国家重点实验室
日华盛顿大学的微软亚洲研究院的刘树杰博士访问了模式识别国家重点实验室,做了题为“基于半监督学习的统计机器翻译方法研究”
的学术报告,并与实验室师生进行了相关讨论。
报告摘要(ABSTRACT):
受益于互联网的飞速发展,产生了越来越多的可用于机器翻译的双语数据,基于统计的机器翻译成为了机器翻译领域的主流方法。而半监督学习方法,能够利用未标注数据参与模型的训练和优化,提高统计模型的性能,也越来越受到重视。本报告介绍了如何利用半监督的学习方法来提高统计机器翻译的质量。内容如下:1.&将半监督的方法应用于反向转换文法的句法分析,显著地提高了基于反向转换文法的词汇对齐的性能,从而可以抽取更为准确的翻译规则,提高统计机器翻译的性能。2.&针对基于句法的统计机器翻译中词汇对齐和句法分析不一致的问题,使用基于边界集的目标化自学习方法和基于强制对齐的重训练方法来利用词对齐信息修正句法分析中的错误,改善规则抽取的质量,并提高基于句法的统计机器翻译的性能。3.&在分析特征权重领域适应问题的基础上,提出互学习的方法来解决特征权重的领域适应问题。针对训练过程非常不稳定的现象,使用基于最小贝叶斯风险的句子级系统融合方法选择合适的参与互学习的样本。4.&为解决翻译结果的一致性问题(即相似的输入句子的翻译结果也应该相似),使用基于图的半监督方法,将统计机器翻译看做结构学习问题,并针对该问题,使用结构化的标记传播算法。进一步地将结构化标记传播算法获得的一致置信度作为特征,应用于常用的对数线性模型中,并将该模型应用于统计机器翻译的重排序和解码。
报告人简介(BIOGRAPHY):
刘树杰博士,2005年7月本科毕业于山东大学计算机科学与技术学院,2007年7月硕士毕业于哈尔滨工业大学计算机科学与技术学院,2012年7月博士毕业于哈尔滨工业大学计算机科学与技术学院。2007年7月至2008年8月,2009年2月至2012年7月一直在微软亚洲研究院自然语言计算组实习;2012年7月至今在微软亚洲研究院自然语言计算组担任副研究员。其研究兴趣包括:自然语言处理、统计机器翻译和机器学习。近年来在自然语言处理国际顶级会议发表文章多篇,包括ACL
2篇,EMNLP 1篇,COLING
2篇;并参与了多项微软亚洲研究院的研发项目,例如最近微软推出的Engkoo中文输入法等多个Engkoo项目。
华盛顿大学的Fei Xia博士来访模式识别国家重点实验室
华盛顿大学的Fei Xia博士访问了模式识别国家重点实验室,做了题为“Applying NLP Technologies to the
Collection and Analysis of Language Data to Aid Linguistic Research”
的学术报告,并与实验室师生进行了相关讨论。
报告摘要(ABSTRACT):
As a vast amount of language data has become available
electronically, linguistics is gradually transforming itself into a
discipline where science is often conducted using corpora. In this
talk, we review the process of building ODIN, the Online Database of
Interlinear Text, a multilingual repository of linguistically
analyzed language data. ODIN is built from interlinear text that has
been harvested from scholarly linguistic documents posted to the
Web, and it currently holds more than 200,000 instances of
interlinear text representing annotated language data for more than
1,000 languages (representing data from more than 10% of the world's
languages). ODIN's charter has been to make these data available to
linguists and other language researchers via search, providing the
facility to find instances of language data and related resources
(i.e., the documents from which data was extracted) by language
name, language family, and even linguistic constructions. Further,
we have sought to enrich the collected data and extract &knowledge&
from the enriched content. This work demonstrates the&benefits of
using natural language processing technology to create resources and
tools for linguistic research, allowing linguists to have easy
access not only to language data embedded in existing linguistic
papers, but also to automatically generated language profiles for
hundreds of languages.
报告人简介(BIOGRAPHY):
Fei Xia is an Associate Professor at the Linguistics Department at
the University of Washington (UW) and an adjunct faculty at the
Department of Biomedical Informatics and Medical Education at the UW
Medical School. Her research covers a wide range of NLP tasks
including morphological analysis, part-of-speech tagging, grammar
extraction and grammar generation, treebank development, machine
translation, information extraction, and bio-NLP. Her current
research focuses on building NLP systems that combine linguistic
knowledge and machine learning techniques. She is also interested in
collecting data and building tools to assist linguistic study. Her
work is supported by several grants from NSF, NIH, IARPA, Microsoft,
and UW, including the prestigious NSF CAREER Award.
Fei Xia received her Bachelor's degree from Peking University, and
Ph.D. from the University of Pennsylvania (UPenn). At UPenn, she led
the effort in building the Chinese Penn Treebank, which currently
has 1.2 million words and is one of the most commonly used corpora
for Chinese NLP. After graduation, she worked at the IBM T. J.
Watson Research Center at Yorktown Heights, New York before joining
卡内基美隆大学的Joy&Ying&Zhang博士来访模式识别国家重点实验室
日卡内基美隆大学的Joy&Ying&Zhang 博士访问了模式识别国家重点实验室,做了题为 “Mobile
Sensing for Behavior-ware Mobile Computing: a Language Approach”
的学术报告,并与实验室师生进行了相关讨论。
报告摘要(ABSTRACT):
Today's smart phones come equipped with a rich range of sensors
including GPS, accelerometers, WiFi, Bluetooth, NFC, microphone etc.
Combined, this contextual information can tell us a great deal about
a user's current activity: what is the user doing now at which
location and for how long. When logged, this data can provide
important information about the user's behavior patterns based on
which caregivers can design effective and personalized plans to
improve the user's health and wellbeings. If we can aggregate this
kind of information across hundreds of volunteers in a city, it can
also tell us a great deal about that city, for example, wait times
for buses, how public and private places are used, what residents
typically do, and so on. This kind of large-scale data collection
and analysis offers a way to understand human behavior at large
scale, which can have positive impact in a number of domains,
including health care, traffic planning, urban design, and social
network analysis.
报告人简介(BIOGRAPHY):
Dr. Joy Ying Zhang is an assistant research professor in Mobility
Research Center at Carnegie Mellon University Silicon Valley with
appointments from the department of ECE, Language Technologies
Institute, and CyLab.&He received his Ph.D. from Language
Technologies Institute of Carnegie Mellon University.&Most of his
research centers around applying statistical learning on natural
language processing problems, in particular, statistical machine
translation systems.&He has developed the Pandora translation
system, a full-scale two-way phrase-based statistical machine
translation engine for mobile devices. This technology has been
commercialized in the Jibbigo Speech Translator for iPhone, the
first and so-far only voice-to-voice translation system that does
not require network connection. His current research interests
include applying statistical learning methods on mobile applications
for user behavior modeling and behavior-aware mobile computing
including indoor positioning, geo-trace modeling, mobile lifelog.
URL: http://mlt.sv.cmu.edu/joy
Ananiadou教授和Junichi Tsujii教授来访模式识别国家重点实验室
&&& 日英国曼彻斯特大学的Sophia Ananiadou教授和微软亚洲研究院的Junichi
Tsujii教授访问模式识别国家重点实验室,并分别做了题为 “Biomedical text mining for semantic
search and knowledge discovery” 和“Parsing with an explicit semantic
model”的学术报告,受到热烈欢迎。
报告摘要(ABSTRACT)1:
Due to increasing specialisation, silo effects and literature
deluge, researchers are struggling to draw out general truths and to
generate hypotheses to test. This is especially true when
considering the needs of biomedicine. Natural language processing
techniques are urgently needed, including aids to link the
scientific literature with appropriate knowledge in scientific
databases, and to provide textual evidence in hypothesis generation
and semantic search. The evidence to generate hypotheses for
comprehensive diagnostics, pharmacological interventions,
treatments, etc., is hidden in text. In addition, the type of
evidence needed is complex, requiring techniques beyond statistical
keyword search mechanisms, such as question answering about facts,
relations and events of biomedical relevance. The extraction of
semantic metadata from text allows advanced semantic search. In my
talk, I will discuss such issues and also present some of the
biomedical text mining services developed at the UK National Centre
for Text Mining addressing the needs of the biomedical community for
semantic search and knowledge discovery.
告人简介(BIOGRAPHY)1:
Sophia Ananiadou is Director of the UK National Centre for Text
Mining (NaCTeM, www.nactem.ac.uk), and full Professor of Computer
Science in the School of Computer Science, University of Manchester,
UK. She is the main designer of the text-mining tools and services
currently used in NaCTeM, i.e.advanced search,&information
extraction and association mining. Her research projects include
text mining-based visualisation of biochemical networks, data
integration using text mining, building terminological resources,
and automatic event extraction for pathway reconstruction and
bioprocess recognition. She also leads work to support scientists in
evidence finding via text mining based search, within the UK PubMed
Central project, and collaborates with centres in the US and Japan
to develop text mining infrastructures for the community.She has
been awarded the Daiwa Adrian prize (2004) and the IBM UIMA
innovation award (,2008) for her work on interoperability
of text-mining tools in biomedicine. She has over 200 publications
in journals, conferences and books.
报告摘要(ABSTRACT)2:
Although statistical modeling of language has made significant
progress, parsing and semantic interpretation of a sentence still
remain major challenges in NLP. Careful examination of parsing
results reveals that the accuracy of semantically crucial problems
such as PP-attachment, identification of antecedents of relative
clauses, scope determination of coordinated phrases still remain
less than 80%. On the other hand, recently mining technologies have
provide NLP with much richer semantic/knowledge resources. In this
talk, I will talk about our recent research on parsing with an
explicit semantic model.
报告人简介(BIOGRAPHY)2:
Junichi Tsujii is Principal Researcher of Microsoft Research Asia
(MSRA). Before moving to MSRA (May, 2011), he was Professor of
Natural Language Processing in the Department of Computer Science,
University of Tokyo and Professor of Text Mining in School of
Computer Science, University of Manchester, U.K. . He remains to be
scientific advisor of the UK National Centre for Text Mining
(NaCTeM)&as well as visiting professor of University of Manchester.
He has worked since 1973 in Natural Language Processing, Question
Answering, Text Mining and Machine Translation. He gave keynote
speeches and invited talks at many conferences such as Coling
(1986), ACL (1991), ACL (2000), LREC (2004), IWSL (2004), SMBM
(2005), ICSB (2006), BioCreative(2007), IEEE-ASRU(2007), BioCreative
III (2010), Cicling (2011), NIH workshop (2012) etc.&He was
President of ACL (Association for Computational Linguistics, 2006)
and President of IAMT (International Association for Machine
Translation (). He is Permanent member of ICCL
(International Committee for Computational Linguistics, 1992-).His
recent research achievements include (1) Deep semantic parsing based
on feature forest model, (2) Efficient search algorithms for
statistical parsing, (3) Improvement of estimator for maximum
entropy model, and (4) Construction of the gold standard corpus
(GENIA) for Bio Text Mining and application of NLP techniques to
text mining in the biomedical domain.
斯特灵大学的Kamran Farooq 博士来访模式识别国家重点实验室
日斯特灵大学的Kamran Farooq博士访问了模式识别国家重点实验室,做了题为 “Ontology Driven
Cardiovascular Decision Support Framework” 的学术报告,并与实验室师生进行了相关讨论。
报告摘要(ABSTRACT):
The industrial research project funded by the EPSRC and&Sitekit
Solutions Ltd paved the way for the development of next generation
web based clinical decision support systems inspired by the semantic
web, machine learning and advanced artificial Intelligence
techniques. A novel ontology driven decision support framework was
published in the IEEE pervasi this framework is
primarily focussed in the cardiovascular domain however this
approach could also be utilised for the risk assessment of other
major chronic diseases. The proposed framework consists of a number
of key components which will promote ease of reuse, scalable and
cost effective web based decision support applications for
healthcare authorities. This will allow secondary care authorities
to reduce long waiting patients' queues by providing triage and risk
assessment facilities as part of preventive care.
This framework also ensures clinical governance through the
utilisation of clinical practice guidelines and standardised
clinical questionnaires (for patients’ screening and history
collection) which have been developed by healthcare informatics
pioneer, Professor Warner Slack at the Harvard Medical School.
The proposed cardiovascular decision support framework comprises of
an intelligent/user friendly/adaptive information collection system
which is being developed using clinically validated questionnaires
selected for the Chest Pain case study. Electronic Healthcare
Records have also been provided as part of the development of the
patient semantic profile component which captures patient’s episodic
clinical history in OWL format in order for it to be utilised by the
decision support component of the framework. The decision support
component is making use of multiple risk assessment guidelines
(NICE, ACC) for healthcare organisations in the UK and US. Also
intelligent ontology learning and auto generation techniques are
being developed as part of the proposed decision support framework
which will facilitate the automatic transformation of clinical
practice guidelines into risk assessment ontologies.
报告人简介(BIOGRAPHY):
Kamran Farooq is a second year PhD student at the University of
Stirling, working in the areas of clinical decision support systems,
machine learning and Natural Language processing. He is currently
involved in the development of an ontology driven cardiovascular
decision support/expert system in collaboration with Harvard Medical
School, Raigmore Hospital, Inverness, UK, MIT US and the Chinese
Academy of Sciences. At the Chinese Academy of Sciences, Kamran's
recent work involves developing a domain specific novel taxonomy/
ontological knowledge base to model patient's psychological emotions
(stress, anxiety, depression, suicidal etc) which is being
integrated with Erik Cambria's sentiment mining and emotion analysis
framework. This work is being submitted to the forthcoming ICBEB
2012 (International conference in biomedical engineering and
biotechnology in Macau, China). Kamran is also involved in
developing clinical predictors using data driven machine learning
techniques in association with Professor Kaizhu Haung and his PhD
researcher.
Kamran is also looking into the possibility to develop a dynamic
knowledge base model by extracting unstructured information through
on-line repositories (Wiki etc) and transforming the unstructured
textual information into structured text using NLP techniques. This
work will extend and apply Microsoft Needleseek framework
(open-domain sentiment mining and opinion project) in a clinical
domain to develop a dynamic knowledge base in the cardiovascular
Kamran is also discussing the possibility of using clinical data
information (patient medical history , doctor notes in the form of
free text) to predict clinical outcomes through the electronic
healthcare records. This will be useful for the doctors to predict
diseases by taking into clinical symptoms towards build up of the
diseases (predicting whether patient has history of blood pressure,
diabetes, obesity etc).
巴黎大学的Sylvain Kahane
教授来访模式识别国家重点实验室
日巴黎大学的Sylvain Kahane 教授访问了模式识别国家重点实验室,做了题为 “From text to
meaning: word order, non projectivity and topological grammar”
的学术报告,并与实验室师生进行了相关讨论。
报告摘要(ABSTRACT):
We present the general architecture of a formal model for natural
languages based on Meaning-Text Theory. Three levels of
representation are described: the deep syntactic structure (which is
a good level for paraphrasing and translation), the surface
syntactic level (the classical dependency structure between words)
and the topological structure (a surface constituent structure). We
focus on the topology-syntax interface, that is the module dedicated
to linearization and word order. A CKY parsing algorithm will be
sketched. It is shown that its complexity is in O(n^(2k+3)) where k
is the number of simultaneous non projective dependencies we have to
deal with. Most of these works are joint works with Kim Gerdes (LPP,
Université Paris Sorbonne Nouvelle).
报告人简介(BIOGRAPHY):
Sylvain Kahane is a professor of linguistics at Université Paris
Ouest since 2003. He began his carrier by a PhD in mathematics
(application of descriptive set theory to harmonic analysis) and has
been assistant professor in mathematics from 1992 to 2003. He has
one of the major promotor of the dependency syntax (organisation of
the first ACL workshop for Dependency-based NLP in 1998) and the
Meaning-text Theory (creation of the biannual international
conference on MTT in 2003). He has written more than 60 papers in
these fields. His most popular works concern formal dependency
grammars: Pseudo-projective dependency parsing, formal topological
grammar, Polarized Unification Grammar, Meaning-Text Unification
Grammar, bubble tree grammars.
&&&&&&&&&&&&&&&&&&&&&&&
如有问题请联系

我要回帖

更多关于 health的形容词是什么 的文章

 

随机推荐