作者投稿和查稿 主编审稿 专家审稿 编委审稿 远程编辑

计算机工程 ›› 2021, Vol. 47 ›› Issue (11): 77-83,92. doi: 10.19678/j.issn.1000-3428.0059493

• 人工智能与模式识别 • 上一篇    下一篇

基于局部注意力机制的中文短文本实体链接

张晟旗1, 王元龙1, 李茹1,2, 王笑月1, 王晓晖1, 闫智超1   

  1. 1. 山西大学 计算机与信息技术学院, 太原 030006;
    2. 山西大学 计算机智能与中文信息处理教育部重点实验室, 太原 030006
  • 收稿日期:2020-09-10 修回日期:2020-10-27 发布日期:2021-11-09
  • 作者简介:张晟旗(1998-),男,硕士研究生,主研方向为中文信息处理;王元龙,副教授;李茹(通信作者),教授;王笑月、王晓晖、闫智超,硕士研究生。
  • 基金资助:
    国家自然科学基金“面向汉语篇章语义分析的框架推理技术研究”(61772324);国家自然科学基金青年科学基金项目“基于事件的图文数据阅读理解关键技术研究”(61806117)。

Entity Linking Based on Local Attention Mechanism for Chinese Short Text

ZHANG Shengqi1, WANG Yuanlong1, LI Ru1,2, WANG Xiaoyue1, WANG Xiaohui1, YAN Zhichao1   

  1. 1. School of Computer and Information Technology, Shanxi University, Taiyuan 030006, China;
    2. Key Laboratory of Computational Intelligence and Chinese Information Processing of Ministry of Education, Shanxi University, Taiyuan 030006, China
  • Received:2020-09-10 Revised:2020-10-27 Published:2021-11-09

摘要: 实体链接是加强语义理解和连接知识信息与文本的有效方法,但目前多数模型对上下文语境的精准理解受限于文本长度,面向短文本的实体链接任务存在实体边界识别错误和实体语义理解错误的问题。针对中文短文本的实体链接任务,构建基于局部注意力机制的实体链接模型。在实体消歧的过程中,通过对待消歧文本与实体的知识描述文本进行拼接,将短文本转换为长文本,同时引入局部注意力机制,缓解长距离依赖问题并强化局部的上下文信息。实验结果表明,相比于传统加入BIO标注方法的模型,该模型在CCKS2019和CCKS2020数据集上的F1值分别提升了4.41%和1.52%。

关键词: 实体链接, 上下文, 语义理解, 中文短文本, 局部注意力机制

Abstract: Entity linking is an effective method for strengthening semantic understanding and linking knowledge information to the text.However,the accuracy of most existing models in understanding the context is limited by the text length,so entity linking for short texts suffer from errors in entity boundary recognition and entity semantic understanding.To deal with the entity linking tasks for Chinese short texts,this paper proposes an entity linking model based on local attention mechanism.In the process of entity disambiguation,the short text is transformed into long text by concatenating the to-be-disambiguated text and the knowledge description text of the entity.At the same time,the local attention mechanism is introduced to alleviate the long-distance dependence and strengthen the local context information.Experimental results show that,compared with the traditional model with BIO labeling model,the proposed model increases the F1 value by 4.41% on the CCKS2019 data set and 1.52% on the CCKS2020 data set.

Key words: entity linking, context, semantic understanding, Chinese short text, local attention mechanism

中图分类号: