standard library
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210108214.5 (22)申请日 2022.01.28 (71)申请人 大连民族大 学 地址 116600 辽宁省大连市经济技 术开发 区辽河西路18号 (72)发明人 孟佳娜 朱彦霖 刘爽 孙世昶  (74)专利代理 机构 大连智高专利事务所(特殊 普通合伙) 2123 5 专利代理师 马庆朝 (51)Int.Cl. G06F 40/279(2020.01) G06F 16/35(2019.01) G06F 16/9536(2019.01) G06F 40/30(2020.01) (54)发明名称 一种基于卷积神经网络和注意力机制的反 讽识别模型 (57)摘要 本发明属于自然语 言处理领域, 涉及一种基 于卷积神经网络和注意力机制的反讽识别模型。 包括: S1.文本表示层; S2.语义特征提取层; S3. 反讽语义 关系建模层; S4.反讽意图判别层。 有 益 效果: 本发 明能够识别出社交媒体中潜在的反讽 表达, 挖掘出用户的真实情感倾向, 该模型弥补 了传统序列模 型的不足, 实现了句子内部序列之 间情感语义 关系的建模, 同时相比于现有的基于 词对矛盾的反讽识别方法, 该模 型更容易捕捉到 反讽效果产生的语义矛盾信息, 提高了反讽识别 任务的准确性, 通过卷积操作隐式地将句子分割 成短语片段来提取更高层次的语义特征; 可以更 准确的捕捉句子短语片段之间的语义不一致性 信息。 权利要求书2页 说明书9页 附图3页 CN 114722798 A 2022.07.08 CN 114722798 A 1.一种基于卷积神经网络和注意力机制的反讽识别模型, 其特 征在于, 包括: S1.文本表示层: 用于通过 预训练语言模型BERT生成单词的词向量; S2.语义特征提取层: 用于通过使用文本卷积神经网络CNN层隐式的将句子分割成短语 片段来提取语义特征, 通过注 意力Attent ion层机制协助模 型捕获与反讽任务相关度特征, 根据特征的重要程度分配不同的权值分数, 将特 征与权值进行重新加权组合; S3.反讽语义关系建模层: 通过对句子内部语义特征之间的语义联合信息进行建模, 对 句子内部的语义冲突信息进行捕捉; S4.反讽意图判别层: 通过线性层降低反讽语义的特征维数、 通过softmax层对线性层 的输出进行 预测, 判断文本序列属于是否包 含反讽修辞; 该模型通过文本表示层将输入文本序列S,通过添加分割标记、 转换、 训练得到该文本 序列的词向量表示矩阵E; 将词向量表示矩阵E作为语义特征提取层的输入, 利用卷积操作提取特征、 将得到的单 个短语片段特征拼接成一个特征矩阵M; 通过注 意力网络对矩阵M的不同语义特征的重要程 度进行分析, 并为其分配相对应的权值, 最后 将权值与特征进 行重新加权组合, 得到最 终的 语义特征V; 语义特征V作为反讽语义关系建模层的输入, 通过语义联合信息进行建模、 池化、 加权 求和得到文本序列的反讽语义表示fa; 文本序列的反讽语义表示fa为反讽意图判别层的输入, 通过线性层降低反讽语义的特 征表示fa的维数, softmax层对线性层的输出进行预测, 判断文本序列属于是否包含反讽修 辞, 得到模型的分类结果 2.根据权利要求1所述的一种基于卷积神经网络和注意力机制的反讽识别模型, 其特 征在于, 所述的文本表示层中: 使用预训练语言模型BERT对不同语境信息下的反讽文本进 行训练, 得到包 含上下文信息的词嵌入表示; 使用预训练语言模型BERT的步骤如下: 首先, 定义输入文本序列S, S={s1,s2,...,sn}, 其si代表文本序列的第i个单词, n代表 文本序列中包 含的单词个数; 其次, 在文本序列的开头和结尾分别添加 “[CLS]”和“[SEP]”分割标记, 将文本序列转 换成BERT模型 可以处理的特定格式; 最后, 将处理好的文本序列送入BERT模型进行训练, 得到该文本序列的词向量表示矩 阵E, 具体过程如公式3.1: E=BERT(“[CLS]”+s1,s2,s3,...sn+“[SEP]”) (3.1) 其中, E={e1,e2,e3...,en}, ei∈Rk代表文本序列中第i个单词的词向量表示, k代表词 向量的维度。 3.根据权利要求2所述的一种基于卷积神经网络和注意力机制的反讽识别模型, 其特 征在于, 所述的预训练语言模型BERT包括令牌嵌入模型Token Embedding、 位置嵌入模型 Position Embedding、 分割嵌入 模型Segment Embed ding。 4.根据权利要求1所述的一种基于卷积神经网络和注意力机制的反讽识别模型, 其特 征在于, 所述的CN N层特征提取步骤 包括:权 利 要 求 书 1/2 页 2 CN 114722798 A 2(1)输入文本序列的二维词向量矩阵; (2)使用不同的卷积核不断与词向量矩阵进行 卷积操作, 提取文本序列的特 征图; (3)使用最大池化方法对不同尺寸的特 征图进行处 理, 得到定长的单特征; (4)将所有的单 特征拼接成一个简单的特 征向量; 过程如下: 首先, 输入文本序列的二维词向量矩阵E, E={ e1,e2,e3...,en}, 其中n代表文本序列中 所包含的单词个数, ei∈Rk代表文本序列中第i个单词的词向量表示, k 为词向量的维度; 其次, 将二维词向量矩阵E输入卷积模块, 利用卷积核与卷积窗口内文本序列的卷积操 作提取短语片段的特征。 在实验中, 定义卷积核W的大小为h*k, 其中h代表卷积核 窗口的大 小, 它决定了短语片段中所包含的单词个数, 短语片段的特征提取过程可以表示为如公式 3.2: ci=f(W·Ei:i+h‑1+b) (3.2) 在这里我们定义了一个卷积的函数操作f, ci代表卷积核W与词向量矩阵E中第i个单词 到第i+h‑1个单词所组成的短语片段进行 卷积操作后提取到的短语特 征,b是偏置; 再次, 卷积核W自上而下地完成与整个词向量矩阵E的卷积操作后, 得到文本序列中所 有短语片段的单个特 征图c, c=(c1,c2,c3,...cn‑h+1); 最后, 使用k个与W尺寸相同的卷积核重复进行以上操作, 并将得到的特征图进行拼接 即可得到短语片段的语义特征矩阵M∈R(n‑h+1)*k,M=(m1,m2,m3,...,mn‑h+1), 其中mi∈Rk代表 文本序列中第i个短语片段的语义特 征表示。 5.根据权利要求1所述的一种基于卷积神经网络和注意力机制的反讽识别模型, 其特 征在于, 所述的Attention层, 通过给不同的语义特征赋予权重分数, 对关键的语义特征进 行强化, 步骤如下: 首先, 将特征提取层中提取到的语义特征mi输入到一个线性层中, 然后tanh函数对其 结果进行处理得到第i个短语的隐层特征表示示m ′i, 其中b为偏置, 具体过程可以表示为式 (3.3)所示: m′i=tanh(W·mi+b) (3.3) 其次, 根据语义特征m ′i和上下文向量q的相似度计算出语义特征m ′i的权重分数si, 然 后使用softmax函数对所有特征的权重分数进行归一化处理, 得到最终的权重矩阵a, 具体 计算过程如公式3.4、 3.5、 3.6: a=Softmax(s1,s2,s3,...,sn‑h+1) (3.5) a=(a1,a2,a3,...,an‑h+1) (3.6) 最后, 将权重分数ai与语义特征mi关联起来得到最终的语义特征V, 具体计算方式如公 式3.7、 3.8: vi=ai*mi (3.7) V=(v1,v2,v3,...,vn‑h+1), V∈R(n‑h+1)*k (3.8)。权 利 要 求 书 2/2 页 3 CN 114722798 A 3

PDF文档 专利 一种基于卷积神经网络和注意力机制的反讽识别模型

文档预览
中文文档 15 页 50 下载 1000 浏览 0 评论 0 收藏 3.0分
温馨提示:本文档共15页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于卷积神经网络和注意力机制的反讽识别模型 第 1 页 专利 一种基于卷积神经网络和注意力机制的反讽识别模型 第 2 页 专利 一种基于卷积神经网络和注意力机制的反讽识别模型 第 3 页
下载文档到电脑,方便使用
本文档由 SC 于 2024-02-18 22:33:41上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。