ACL 2019 开源论文 | 基于知识库和大规模网络文本的问答系统

原标题:ACL 2019 开源论文 | 基于知识库和大规模网络文本的问答系统

作者丨张琨

学校丨中国科学技术大学博士生

研究方向丨自然语言处理

论文动机

当前问答系统面对的一大问题就是如何利用先验知识。我们人类可以通过不断的学习,掌握非常多的先验知识,并通过这些知识来回答问题。而这对问答系统而言就非常困难了,一方面不能像人一样不断积累,另一方面只能从输入中获取所需要的一切。

因此,人们就会将一些知识作成知识库(Knowledge Base,KB),用于辅助机器的理解。但是,KB 常常是不完整的,并且针对开放性问题,KB 不可能覆盖到所有的证据上。

如何解决这个问题是一个非常大的挑战。另一方面,人们可以使用大规模的网络文本作为开放性的 KB,并且也取得了一些成绩,但是这些工作更多的针对的是单文档,针对多文档的工作目前还相对较少。

作者推测一个可能的原因就是虽然这些文本可以提供更大规模的只是覆盖,但是缺少背景知识,这么多的文档反而会引入很高的噪声。因此作者考虑将这部分整合起来,通过不完整的 KB 获取必要的和问题相关的背景知识,基于这些信息在多文档中抽取合适的信息并最终回答答案。

模型结构

为了有效利用 KB 和文档信息,作者提出了一个新的端到端的模型,主要包含两部分:1)子图阅读模块:用于从知识库中获取和问题相关的知识信息;2)知识感知的文本阅读模块:利用获取的知识从文档中找出需要的答案。模型的结构图如下:

子图阅读模块

这部分的主要作用就是使用 graph-attention 来为每个子图实例整合他的邻居节点信息,从而得到每个子图实例更好的语义表示。因为最终是为了增强对问题的理解,作者首先通过一个 LSTM 处理问题,得到问题的情境信息丰富的隐层庄田表示,同时使用相同的 LSTM 得到标记化 (tokenized) 的关系隐层状态表示。接下来作者使用 self-attention 得到关系的语义表示:

由于问题需要和不同的关系进行匹配,而每个关系只关注到问题的其中一部分信息,因此,作者使用得到的关系表示和问题的每个隐层状态进行匹配,最后得到问题的语义表示:

同时,作者还发现主题实例的指示向量非常有用,如果一个主题实例连接的邻居出现在了问题中,那么对应 KB 中的三元组将会比那些非主题实例的邻居对问题的语义表示更有用,因此在邻居节点上的注意力值最终表示为:

因此最终每个子图实例就可以通过如下方式计算出来:

知识感知的文本阅读模块

在上个模块,我们得到了每个子图实例的 embedding 表示,那么在这部分要做的就是利用这些表示增强对问题和文档的理解,从而得到最后的答案。这部分作者使用了一个现有的做阅读理解的模型。

首先是利用学习到的知识对问题进行更新表示。作者首先利用 self-attention 得到问题的原始表示,然后收集关于问题的主题实例,然后使用一个门结构将这些信息进行融合。

得到了对问题的更新表示之后,就是使用学习到的只是对文档进行增强表示,首先对文档和文档对应的实例使用 Bi-LSTM 进行处理,接下来作者设计了一种新的基于问题的表示的门机构,该结构允许模型能够动态选择跟问题相关的输入,从而得到更好的文档语义表示。

实体信息聚合 & 答案预测

最后作者将从 Text Reader 中得到的信息进行融合,首先使用一个 co-attention 计算问题和 Bi-LSTM 的隐层状态的相关程度,然后对这些隐层状态进行加权和,对于文档对应的实例,作者使用了均值池化得到最后的表示。最后使用一个非线性变化和 sigmoid 函数来求得每个实例是否是答案的概率。从而求得最后的答案。

实验

作者在一个公开数据集 WebQSP 上进行模型的效果验证,同时为了更好的验证模型的效果,作者还认为控制了 KB 的使用程度,从实验结果上看本文提出的模型还是很不错的。

同时作者还给出了一些 case 来更好的展示模型的效果。

总结

问答系统,尤其是开放性的问答系统需要非常多的先验知识来辅助答案的预测,虽然我们可以通过知识库来整合一些先验知识,但毕竟无法覆盖到所有的情况。作者通过知识库和大规模网络文本的相互辅助,从而提升了模型的整体性能。

同时我们也可以看到,知识库的使用正在变得越来越普及,无论是问答系统,对话,推理还是常识理解,都将知识库作为一个非常好的先验信息源,因此知识库的使用也变得越来越重要,非常值得关注一下。

点击以下标题查看更多往期内容:

#投 稿 通 道#

让你的论文被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

📝 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志

📬 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site

• 所有文章配图,请单独在附件中发送

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通返回搜狐,查看更多

责任编辑:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
免费获取
今日搜狐热点
今日推荐