期刊文献+

一种基于改进的最大熵模型的汉语词性自动标注的新方法 被引量:3

A Chinese Part-of-Speech Based on Improved Maximum Entropy Model
下载PDF
导出
摘要 最大熵模型已成为自然语言处理领域中的研究热点,但由于熟语料库规模的限制,模型参数会出现稀疏现象,影响了模型的精确度.另外最大熵模型参数众多、计算量大,一个好的参数估计算法将会有效地提高模型的效率.实验证明,采用BLMVM算法的基于Gaussian prior平滑技术的最大熵模型具有出色的表现.基于以上认识,结合汉语自身的特点,设计了一个基于词和字特征的汉语词性自动标注系统,取得了较好的标注效果.
出处 《计算机研究与发展》 EI CSCD 北大核心 2006年第z3期174-178,共5页 Journal of Computer Research and Development
基金 吉林省科技条件平台建设基金项目(20030340)
  • 相关文献

参考文献8

  • 1姚天顺等编著..自然语言理解 一种让机器懂得人类语言的研究 第2版[M].北京:清华大学出版社,2002:470.
  • 2[2]Chen Wenliang,Chang Xingzhi,Wang Huizhen,et al.Automatic word clustering for text categorization using global information.AIRS2004,Beijing,2004 被引量:1
  • 3[3]Adwait Ratnaparkhi.A maximum entropy model for part-of-speech tagging.Conf on Empirical Methods in Natural Language Processing,University of Pennsylvania,1996 被引量:1
  • 4[4]Steven J Benson,Jorge J More.A limited-memory variable-metric method for bound-constrained minimization.Mathematics and Computer Science Division,Argonne National Laboratory,Tech Rep ANL/MCS-P909-0901,2001 被引量:1
  • 5[5]Stanley F Chen,Ronald Rosenfeld.A Gaussian priori for smoothing maximum entropy models.Computer Science Department,Carnegie Mellon University,Tech Rep CMU-CS-99-108,1999 被引量:1
  • 6[6]Fabrizio Sebastiani.Machine learning in automated text categorization.ACM Computing Surveys,2000,34(1):1-47 被引量:1
  • 7[7]Jinying Chen,NianWen Xue,Martha Palmer.Using a smoothing maximum entropy model for chinese nominal entity tagging.The 1st Int'l Joint Conf on Natural Language Processing,Hainan Island,2004 被引量:1
  • 8[8]D Lewis,Ringuette.A comparison of two learning algorithms for text categorization.Symposium on Document Analysis and IR,Las Vegas,1994 被引量:1

同被引文献35

引证文献3

二级引证文献33

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部