standard library
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210114303.0 (22)申请日 2022.01.30 (71)申请人 天津大学 地址 300072 天津市南 开区卫津路9 2号 (72)发明人 熊德意 李俊卓  (74)专利代理 机构 天津市北洋 有限责任专利代 理事务所 12 201 专利代理师 李素兰 (51)Int.Cl. G06F 16/33(2019.01) G06F 16/332(2019.01) G06F 40/295(2020.01) G06F 40/30(2020.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 一种对话式知识库问答实现方法 (57)摘要 本发明公开了一种对话式知识库问答实现 方法, 步骤1: 预先定义模糊推理语法体系; 步骤 2: 获取待回答的当前问题、 对话历史信息, 通过 GloVe模型得到向量表示; 步骤3: 得到编码器的 隐状态向量; 步骤4: 从特征表示中识别出命名实 体及其类型; 步骤5: 得到知识库中的实体ID; 步 骤6: 得到问题在当前语 法框架下的逻辑形式; 步 骤7: 预测问题中的关系ID和实体类 型ID; 步骤8: 得到可在知识库上执行的查询语句; 步骤9: 在知 识库中执行该查询语句, 得到当前问题对应的答 案。 与现有技术相比, 本发明自动识别出对话中 用户问题的意图, 提高了对话中应答的准确率, 适用于开放领域知识图谱问答, 能提升用户体验 满意度。 权利要求书3页 说明书9页 附图4页 CN 114443818 A 2022.05.06 CN 114443818 A 1.一种对话式知识库问答实现方法, 其特 征在于, 该 方法包括以下步骤: 步骤1: 预 先定义模糊推理语法体系; 步骤2: 获取待回答的当前问题、 对话历史信息, 通过Gl oVe模型得到向量表示; 步骤3: 通过基于多头注意力机制的编码器, 得到编码器的隐状态向量, 表示如下: henc=encoder(x; θenc) 其中, encoder(  )是编码器函数, θdec是编码器函数的可训练参数; 步骤4: 通过基于LSTM的命名实体识别模型, 从特 征表示中识别出命名实体及其类型; 步骤5: 通过基于XLNet的实体消歧模型, 将识别出的实体链接到知识库中的实体, 得到 知识库中的实体ID; 步骤6: 根据编码器的隐状态向量, 通过基于多头注意力机制的解码器, 得到问题在当 前语法框架下的逻辑形式; 表示如下: zdec=decoder(henc; θdec) 其中, decoder(  )是解码器函数, θdec是编码器函数的可训练参数, zdec是解码器函数的 隐状态向量, P(ydec|x)表示ydec相对于ydec的概率, ydec是输入序列, ydec是解码任务的真实标 签, Wdec是一个线性层, 用以转换解码器隐状态向量的维度; 步骤7: 根据编码器的隐状态向量最后一位、 解码器的隐状态向量和知识库知识, 预测 问题中的关系ID和实体 类型ID; 步骤8: 将实体ID、 关系ID、 实体类型ID与 解码得到的逻辑形式整合, 得到可在知识库上 执行的查询语句; 步骤9: 在 知识库中执 行该查询语句, 得到当前问题对应的答案 。 2.如权利要求1所述的一种对话式知识库问答实现方法, 其特征在于, 所述步骤1包括 定义查询类操作、 筛选类操作、 计数类操作、 严格比较类操作、 模糊比较类操作和集合类操 作。 3.如权利要求1所述的一种对话式知识库问答实现方法, 其特征在于, 所述步骤2以下 具体操作: 步骤S201: 获取当前问题及对话历史信息, 对问题进行预处理, 预处理包括: 去除问句 中的标点符号(如问句末尾的问号、 句号 等), 以及对问句中的单词进行小 写转化等; 步骤S202: 将当前问题及对话历史信息进行拼接, 构成新的问题; 步骤S203: 获取输入的向量表示, 使用Gl oVe模型来获得每 个单词的向量表示。 4.如权利要求1所述的一种对话式知识库问答实现方法, 其特征在于, 所述步骤4具体 包括以下操作: 步骤S401: 通过基于LSTM的命名实体识别模型, 从特征表示中识别出命名实体及其类 型, 表示如下: hLSTM=LSTM(henc; θLSTM) 其中, LSTM(  )是长短期记忆网络, θLSTM是LSTM的可训练参数, hLSTM是通过LSTM得到的 隐 状态向量; 步骤S402: 筛选识别出的实体, 通过前馈神经网络, 对问题中的实体进行筛选, 表示如权 利 要 求 书 1/3 页 2 CN 114443818 A 2下: hFFN=LeakyReLU(WFFN1[henc; hLSTM]) 其中, LeakyReLU(  )是带泄露修正线性单元, WFFN1和WFFN2是线性层1和2的可训练参数, 用以变换矩阵维度, hFFN是前馈神经网络的隐状态向量, P(yER|x)表示yER相对于x的概率, x 是输入序列, yER是命名实体识别任务的真实标签, 是在时间步t的前馈神经网络隐状 态向量。 5.如权利要求1所述的一种对话式知识库问答实现方法, 其特征在于, 所述步骤5具体 包括以下操作: 步骤S501: 根据命名实体识别的结果(实体类型、 实体名), 检索知识库中满足该结果的 所有实体。 步骤S502: 判断实体数是否为1, 若是, 则直接返回该实体ID, 步骤S50结束; 否则, 所有 实体构成候选实体集; 步骤S503: 对候选实体集中的每一个实体, 检索知识库中与其相关的三元组。 在一个实 施例中, 检索3个相关的三元组; 具体地, 若相关三元组数小于3, 则使用实体名作为三元组 进行填充; 步骤S504: 将当前的问题、 候选实体名、 n个实体相关的三元组使用 “[SEP]”进行拼接, 得到消歧模型的输入; 步骤S505: 通过XLNet模型获取 特征表示; 步骤S506: 通过线性层进行二分类, 计算输入为真、 假的概 率; 步骤S507: 按照输入为真的概 率, 降序排序候选实体集中的实体, 返回首个实体的ID。 6.如权利要求1所述的一种对话式知识库问答实现方法, 其特征在于, 所述步骤7具体 包括以下操作: 步骤S701: 利用知识库信息得到实体类型和关系的嵌入表示; 具体的, 从知识库中检索 实体类型和关系的n个相关三元组, 得到实际语义表示, 通过BERT模型 得到嵌入表示eτr; 步骤S702: 通过多标签分类模型计算输入在不同标签上的概率; 具体地, 计算编码器隐 状态向量最后一位 与与不同标签的嵌入表示的乘积, 通 过Sigmoid函数得到当前输入在 不同标签上的概 率, 表示为: 其中, P(yMLC|x)是yMLC相对于x的概率, yMLC是多标签分类任务的真实标签, Sigmoid(  ) 是S型生长曲线, 是编码器的隐状态向量最后一位, WMLC( )是多标签分类模型中的线性 层参数, (eτr)T是转置后的实体 类型和关系的嵌入表示; 步骤S703: 从知识库中抽象出类型 ‑关系图, 将知识库中的实体类型和关系抽象成节 点, 如果对实体类型τ1和τ2与关系r, 知识库中存在一个三元组(eh, r, et), 满足eh的类型是 τ1, et的类型是τ2, 则在类型 ‑关系图中构建边< τ1, r>和<r, τ2>; 步骤S704: 通过GAT模型 得到类型 ‑关系图的特 征表示hGAT;权 利 要 求 书 2/3 页 3 CN 114443818 A 3

PDF文档 专利 一种对话式知识库问答实现方法

文档预览
中文文档 17 页 50 下载 1000 浏览 0 评论 0 收藏 3.0分
温馨提示:本文档共17页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种对话式知识库问答实现方法 第 1 页 专利 一种对话式知识库问答实现方法 第 2 页 专利 一种对话式知识库问答实现方法 第 3 页
下载文档到电脑,方便使用
本文档由 SC 于 2024-02-18 22:33:39上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。