面向大规模语料的语言模型研究新进展
刘 群; 白 硕; 骆卫华
刊名计算机研究与发展
2009
期号第10期页码:1704~1712页
关键词语言模型 数据压缩 随机存取模型 布隆过滤器 分布式并行体系
英文摘要N元语言模型是统计机器翻译、信息检索、语音识别等很多自然语言处理研究领域的重要工具.由于扩大训练语料规模和增加元数对于提高系统性能很有帮助,随着可用语料迅速增加,面向大规模训练语料的高元语言模型(如N≥5)的训练和使用成为新的研究热点.介绍了当前这个问题的最新研究进展,包括了集成数据分治、压缩和内存映射的一体化方法,基于随机存取模型的表示方法,以及基于分布式并行体系的语言模型训练与查询方法等几种代表性的方法,展示了它们在统计机器翻译中的性能,并比较了这些方法的优缺点.
语种中文
公开日期2010-10-11
内容类型期刊论文
源URL[http://ictir.ict.ac.cn/handle/311040/548]  
专题中国科学院计算技术研究所期刊论文_2009年中文
推荐引用方式
GB/T 7714
刘 群,白 硕,骆卫华. 面向大规模语料的语言模型研究新进展[J]. 计算机研究与发展,2009(第10期):1704~1712页.
APA 刘 群,白 硕,&骆卫华.(2009).面向大规模语料的语言模型研究新进展.计算机研究与发展(第10期),1704~1712页.
MLA 刘 群,et al."面向大规模语料的语言模型研究新进展".计算机研究与发展 .第10期(2009):1704~1712页.
个性服务
查看访问统计
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。


©版权所有 ©2017 CSpace - Powered by CSpace