首页作文素材好词好句历史典故写作技巧考场素材单元作文英语作文小升初作文名人故事时事论据 名言警句范文大全精美散文
小学作文
初中作文
高中作文
作文体裁

融合记忆网络的细粒度实体分类方法

时间:2023-02-15 15:20:15 来源:爱作文网  爱作文网手机站

周 祺,陶 皖,孔 超,崔佰婷

安徽工程大学 计算机与信息学院,安徽 芜湖241000

命名实体识别(named entity recognition,NER)是一项识别句子中具有特定意义实体的任务。NER借助人工标注的语料库为具有特定意义的实体分配类型标签,其有两个关键的任务:一是要识别出句子中是否有命名实体,二是要判断出命名实体具体所指的目标类型[1]。作为自然语言处理(natural language processing,NLP)领域中重要的基础工作,其准确率影响许多下游任务,如信息提取、问答系统、句法分析、机器翻译等的可信度及工作效率。然而,传统的命名实体识别只是将实体类型分为几种粗粒度的实体种类,例如:人名、地点、组织、其他。在现有的大型数据库以及知识图谱中,实体类型不再局限于某几种,已达到数十种,甚至成百上千种,而且实体类别之间形成一定的层次关系。如果此时继续沿用粗粒度的实体分类会加大人工标注的难度,给后续的关系抽取、事件抽取等增加判断难度,影响许多NLP下游任务的可信度和处理质量。因此,学者们将粗粒度的命名实体识别推向细粒度实体分类(finegrained entity typing,FET)领域。

细粒度实体分类通过给定实体指称(entity mention,又称实体提及,即实体在具体上下文中的一段指代)及其上下文,预测实体可能的类型标签,允许实体指称有多种类型,而且类型之间通常具有一定的层次结构。细粒度的实体类型表示为其他NLP任务提供了更多的语义信息,有助于为后续的关系抽取和事件抽取等任务增强指示性,提高问答系统、句法分析、实体推荐等下游任务的工作效率和精确率。目前,大多数的细粒度实体分类采用远程监督的方式将实体在知识库中的所有类型标签分配给实体指称,这不可避免地会引入噪声标签。以往处理噪声标签时采用人工标注、启发式剪枝噪声等方法,但人工标注效率低,无法适用于大规模的数据集;
剪枝噪声使得训练集规模减小,影响分类模型的整体性能。因此,针对远程监督引入的噪声标签问题,本文将噪声标签划分为两种:无关噪声标签(out-ofcontext noise labels)和具体噪声标签(overly-specific noise labels),如图1所示。若为句子1分配除musician以外与上下文无关的类型标签,则为无关噪声标签。若为句子2 分配任一细粒度标签都使得在句子中的实体含义不够准确,由此将其归为具体噪声标签,在此情况下应选择细粒度实体类型标签的父类型person最佳。

图1 两种噪声标签形式Fig.1 Two forms of noise labels

为减轻以上两种噪声标签对细粒度实体分类的负面影响,本文提出利用记忆网络模型增强实体指称的上下文和类型标签之间的关联性。基于语义的相关性,相似的上下文句子中实体指称对应的类型也具有相似性,因此增强对相似的指称上下文所对应类型标签的记忆表示以达到减轻无关噪声标签影响的目的。而且通过使用变形的层次损失函数,深入学习类型标签之间的层次关系,有助于缓解具体噪声标签的消极影响。最后,通过引入L2 正则化函数防止模型对噪声标签过拟合,从而提高细粒度实体分类模型的整体性能。

1.1 细粒度实体分类

首次处理细粒度实体类型分类任务的是Lee 等人[2],利用条件随机场模型(conditional random field,CRF)检测命名实体的边界,并使用最大熵(maximum entropy,ME)对实体进行分类,同时定义147 种细粒度的实体类型。Sekine[3]定义200种实体类型作为细粒度实体类型集的基础。Ling 等人[4]创建了细粒度实体类型数据集FIGER,将原本只具有5~6种类型的实体扩展到具有112种类型标签的实体;
并且受到文献[5]启发,通过远程监督利用Wikipedia词条获得实体类型,完成了多类型、多标签的细粒度实体分类任务。Yosef 等人[6]以层次分类法划分了实体的505 种类型,在不同级别的数百种类型基础上开发了一个多标签的分级分类系统HYENA(hierarchical type classification for entity names)。Yogatama等人[7]、Dong 等人[8]使用标签嵌入以实现相关标签之间的信息共享,并且证明了细粒度的类型标签能够改进粗粒度实体分类模型的性能。Corro 等人[9]构建FINET模型,能从实体指称和实体类型中生成感知上下文的候选类型并从中选出最合适的类型,此外还创建New York Times 和Twitter 两个细粒度的实体类型数据集。Shimaoka 等人[10]提出一种基于注意力机制的神经网络模型,通过使用长短期记忆网络(long shortterm memory,LSTM)编码实体的上下文,并利用注意力机制将模型的关注点集中在实体指称的上下文表示上。马建红等人[11]提出了一种基于多通道神经网络的实体识别模型,融合了字词特征和片段特征,利用半马尔科夫随机场完成实体边界识别和实体分类任务。盛剑等人[12]利用网络词典回标实体,获得命名实体的领域标签,之后再根据实体的上下文确定细粒度类型标签。王红等人[13]利用注意力机制计算知识图谱中实体与相邻实体的相关性,并且通过图卷积神经网络融合实体特征和关系特征,为实体分类提供了有效帮助。胡新棒等人[14]利用多头注意力机制挖掘上下文信息,并将先验知识融入实体词典中,以增强模型的学习能力。西尔艾力·色提等人[15]利用字符级和单词级注意力机制,增强字符与单词之间的关联性和互补性,有利于更好地完成中文的细粒度命名实体识别任务。

1.2 噪声处理

现有大多数模型通过远程监督为实体从知识库中分配类型标签,由于返回的是实体在知识库中的所有类型标签,这难免会引入噪声标签。为缓解远程监督带来的噪声问题,Lawrence等人[16]对于含噪声标签的训练数据,构造了一种核Fisher 判别算法,将每个标签被翻转的概率与实例相关联,再利用期望最大化算法更新概率并确定判别式的参数。Gillick等人[17]利用启发式规则剪枝噪声,删除与单个实体关联的同级类型、与粗粒度类型分类器输出标准不一致的类型以及出现次数少于文档中最小次数的类型,但此方法会显著减少训练集的样本量,后期将导致分类模型的整体性能变差。Ren 等人[18]针对噪声标签,创新性地将训练集划分为“干净集”和“噪声集”,并采用不同的方法对以上两种训练集进行训练。参考文献[18],Abhishek 等人[19]也将训练数据分为“干净集”和“噪声集”,并提出联合学习实体指称及其上下文表示的模型。通过类型路径划分数据集的方法取得了一定的成功,但忽略了相同路径的类型标签可能也会出错。为进一步减轻噪声标签的影响,Xu 等人[20]提出了一种基于神经网络端到端的解决方案NFETC(neural fine-grained entity type classification),将噪声标签分为与上下文无关的标签以及过于具体的标签,利用变形的交叉熵损失函数和层次损失函数来处理以上两种噪声标签。Chen等人[21]提出压缩隐空间簇(compact latent space clustering,CLSC)算法,基于实体指称的相似度图,推导噪声标签的分布,将具有相似语义的实体指称形成紧密的簇,从而缓解噪声标签对分类模型性能的负面影响。考虑到实体和类型标签的语义相关性,Xin 等人[22]提出以无监督的方式,利用标签含义衡量指称上下文与远程监督得到类型标签之间的兼容性,减少由远程监督产生的噪声。为平等对待干净数据和含噪声的数据,Zhang等人[23]提出一种基于概率自动重标记的方法,统一处理所有训练样本,在无额外监督的情况下解决噪声标签问题。Xia等人[24]提出一种基于随机森林的高效方法,通过模拟网格的生成和扩展以检测分类噪声,并且引入投票机制有效处理含特征噪声的数据集。Zhang 等人[25]利用自动编码器学习具体类型特征,找出每个类中将含噪声的数据,并将其视为类的离群值,在含噪声标签的数据清理和分类任务中取得了较好的结果。Wei 等人[26]将实例特征作为辅助信息,将噪声标签问题定义为矩阵重建问题,通过辅助信息的低维映射构建正例标签矩阵,行稀疏矩阵建模负例标签矩阵,两者相结合使得矩阵重建能力加强,有助于提高处理标签噪声时的性能。

细粒度实体分类是一项多类型、多标签的复杂任务。针对远程监督引入的噪声标签问题,提出融合记忆网络的细粒度实体分类模型(neural fine-grained entity type classification-memory network,NFETC-MN),整体的模型架构如图2所示。具体来说,NFETC-MN模型主要分为四部分,分别是实体指称处理器、类型标签处理器、指称上下文处理器以及优化处理器。在此,预定义T为包含所有实体类型标签的标签集,通过给定实体指称m以及指称上下文c,以预测实体指称所对应的细粒度实体类型t。

图2 融合记忆网络的细粒度实体分类模型Fig.2 Fine-grained entity classification model fused with memory network

2.1 实体指称处理器

根据每个句子给定的实体指称,其可能具有不同的单词数,因此将实体指称中的单词进行平均嵌入处理。给定实体指称的表示形式为mi=(ω1,ω2,…,ωk)(k为实体指称中的单词个数),根据其表示计算实体指称中每个单词的平均词嵌入em,如式(1)所示。

2.2 类型标签处理器

为获得知识库中丰富的实体类型信息,采用实体链接将Freebase 中的实体类型信息链接到具体的实体指称上。若实体链接能够返回实体类型标签,就将其收集存储在Freebase的实体类型信息中;
若不能链接到相应实体,则将返回值设置为空。由于Freebase 知识库中的类型信息与预定义的标签集T中的表示形式不同,运用与Zhou 等人[27]相似的映射方法,将收集的Freebase实体类型信息转换成标签集T中的类型表示形式,并运用独热编码将细粒度的实体类型标签表示成et的形式。此外,针对远程监督产生的噪声标签影响,除了使用简单的实体链接以外,受Dai 等人[28]的启发,采用共性分数以衡量实体链接的可信度。共性分数[29]是由Wikipedia的锚链接计算得来,能通过给定实体指称估计各实体类型标签的正确概率分数,并在类型标签处理器中以es表示共性分数。

2.3 指称上下文处理器

为从实体指称的上下文中获取更多的实体相关信息,首先将上下文向量表示为c1,c2,…,ck-1,ck,ck+1,…,cn(n为句子中的单词数,ck作为实体指称的向量表示)。本文不仅对实体指称左右两边的上下文做词嵌入处理,还将实体指称本身进行词嵌入得到最终的上下文向量。传统的方法对上下文向量进行处理大多采用双层的LSTM 或单层双向长短期记忆网络(bi-directional long short-term memory,BiLSTM)。Bi-LSTM 网络包含两个子网络:一个称为前向LSTM,另一个称为后向LSTM。为提取上下文之间更多的关系信息,本文利用两层的BiLSTM 处理上下文向量。在此,将上下文向量在第一层BiLSTM、第二层BiLSTM 的输出分别表示为hf和hs,对于两层的BiLSTM 输出hf和hs,采用全连接进行计算,如式(2)所示。

另外,考虑到指称上下文对选择类型标签的重要性,避免将不必要的标签引入,减轻噪声标签对细粒度实体分类模型整体性能的影响,使用端到端的记忆网络再次对指称的上下文和类型标签进行记忆学习,记忆网络的具体框架结构如图3所示。虽然单独学习实体指称上下文的信息,对分配类型标签有一定的指示作用,但未充分利用实体所对应的类型标签信息。因此,通过添加记忆网络模块,联合学习指称上下文和类型标签,有助于增强指称上下文与类型标签之间的关联性,为分配最优类型标签提供强指示性。并且在相似的指称上下文中,记忆网络以往分配的最优类型标签也成为细粒度分类模型的记忆基础,有利于为相似实体指称分配最合适的类型标签。

图3 记忆网络的具体框架结构Fig.3 Concrete frame structure of memory network

首先,将指称上下文经过两层的BiLSTM输出后的向量h以及获得的类型标签et作为记忆网络的输入。在记忆网络的输入空间中,利用内积和Softmax函数计算h以及et之间的匹配度,将其最终表示为概率向量Pi,如式(3)所示。

字符级注意力机制专注于提取单词中每个英文字符的语义信息以及位置信息,过程复杂且意义不大。句子级注意力机制能在段落中提取具有更多信息的句子,并对其赋予较高权重,较适合用于段落或文档中。相较于字符级注意力机制、句子级注意力机制,单词级注意力机制能进一步捕获实体指称的上下文语义,同时突出具有指示性单词的重要性并分配其权重。因此为方便记忆网络的计算,提高其记忆性能,对实体指称上下文的两层BiLSTM输出h的最后一层隐藏层做单词级注意力机制[30]处理。首先将h的BiLSTM 最后一层隐藏层状态表示为利用两层前向和后向相结合的神经网络计算注意力权重,让记忆网络选择信息更丰富的单词进行训练,如式(4)~式(7)所示。

其 中,j=l或r,,Dh为BiLSTM隐藏层的维度,Da为注意力维度。通过对上文、下文、实体指称的加权和得到另一种指称上下文的嵌入向量Ci,如式(7)所示。利用指称上下文的嵌入向量Ci以及上文计算得来的概率向量Pi相乘的和作为端到端记忆网络的输出部分ec,作为指称处理器的最终表示,如式(8)所示。

2.4 优化处理器

根据以上实体指称处理器、指称上下文处理器、类型标签处理器计算得出的向量em、ec、et、es进行全连接处理,得到的结果表示为e。为优化向量表示、提高后期分类模型的预测性能,在多层感知器(multi-layer perceptron,MLP)中,对e进行三层训练,其中第一层为输入层,第二层为隐层,第三层为输出层。经过三层MLP 的处理,有助于训练模型提取出更具特征的向量,并将整个句子最终表示为ef的向量形式。这时,将预定义标签集T中的标签嵌入到与ef相同的维度空间中得到标签向量ti,之后通过对ef和ti进行点积处理,得到实体指称m与实体类型ti之间的预测分数score,如式(9)所示。

由于远程监督为实体指称分配的是实体在知识库中所有的类型标签,其中有些类型标签可能与指称上下文没有太大关系。因此,为减少无关标签噪声的影响,利用变形的铰链损失函数及惩罚参数α,使得较符合语义的类型标签损失值减小,无关噪声标签的损失值增大。通过选择损失值较小的类型标签,以减轻无关噪声标签的影响。针对具体噪声标签的问题,一味地分配细粒度类型标签并不是最佳解决方案,于是引入变形的层次损失函数,可以更好地理解类型标签之间的层次结构(如:父类型-子类型)。在标签集T中,所有实体的类型标签都具有一定的层次结构,例如Jay Chou 对应的类型标签为/person/artist、/person/actor、/person/director、/person/musician 等。在某些语境下,在标签集中无法找到实体指称所对应的细粒度类型标签时,应分配细粒度标签的父类型最为合适。此时如果坚持为其分配实体所对应的任一细粒度标签,由于不符合语义环境,在测试时都会判断为负例标签。因此,在无法选择对应指称语义的细粒度类型标签时,利用层次损失函数理解分配类型标签时的路径,确定person、location、organization 等父类型地位,为实体指称分配父类型标签,以缓解具体噪声标签的影响,有助于提高细粒度实体分类模型性能。支持向量机(support vector machine,SVM)的二分类问题通常采用标准的铰链损失函数(hinge loss function),以实现“最大间隔(max-margin)”分类。对于训练集中数据xi,计算第j类得分向量f(xi,ω)j,yi表示正确标签,Δ为阈值,如式(10)所示。

可以看出,标准铰链损失函数在处理实体类型标签时可能导致训练模型过拟合无关噪声标签,造成分类模型性能降低。因此采用变形的铰链损失函数进行处理,通过以不同的参数α惩罚与上下文无关的错误标签,以减少无关噪声标签的影响,如式(11)所示。

其中,m为实体指称,Ttrue是分配给m的正例类型标签集,Tnotrue是分配给m的负例类型标签集,α为参数,可调整对无关噪声标签的惩罚力度。

受文献[20]启发,使用层次损失函数有助于理解类型标签之间层次结构,缓解因过于具体的类型标签而造成的消极影响。因此,为处理具体噪声标签的影响,本文利用变形的层次损失函数,即以铰链损失函数形式预测细粒度实体类型标签父类型,如式(12)所示。其中,tj表示细粒度实体类型标签ti的父类型,β为调整惩罚力度的参数。当预测实体指称的类型时出现过于具体的类型标签,训练模型可增大β以达到有效减轻具体噪声标签消极影响的目的。

在远程监督过程中,从Freebase中获得的正确实体类型信息链接到实体指称上时,可能会造成训练模型过拟合噪声标签。于是在优化损失函数时,在损失函数中添加L2 正则项,对训练模型中的参数wi进行L2 正则化约束,可改善训练模型对噪声标签的过拟合问题,如式(13)所示,其中λ是正则化参数。

为验证本文方法的优越性,将该方法与其他几种方法进行了对比实验。本章首先介绍实验所用的数据集、评价指标以及对比方法,然后采用以往先进的实验方法作为基线,评估各方法在处理细粒度实体分类中噪声标签时的性能,重点展示NFETC-MN模型在两个数据集上的性能表现。

3.1 数据集

评估NFETC-MN使用到两个在细粒度实体分类任务中公开的英文数据集,即以FIGER 和BBN 作为实验的基础数据集,其中FIGER 和BBN 都是两层细粒度实体分类数据集,具体细节如表1所示。

表1 数据集中的统计数据Table 1 Statistics in datasets

(1)FIGER:训练数据为Wikipedia 中的句子,通过远程监督将Wikipedia的语料映射于Freebase中相同的类型标签后自动生成训练数据。测试数据主要是来自新闻报道里的句子,并且经过人工标注实体指称后进行验证[4]。

(2)BBN:数据集包括华尔街日报中2 311 篇文章的句子,训练数据和测试数据均为人工标注[31]。

3.2 评价指标

对于细粒度实体分类任务的评价指标,采用Ling等人[4]提出的准确率(strict accuracy,Strict Acc)、宏观F1值(macro F1-measure,Macro F1)以及微观F1值(micro F1-measure,Micro F1),其中公式如下所示:

宏观F1值(Macro F1)是宏观精确率(macro precision,Pma)和宏观召回率(macro recall,Rma)的调和平均值。

微观平均F1 值(Micro F1)是微观精确率(micro precision,Pmi)和微观召回率(micro recall,Rmi)的调和平均值。

其中,m为实体指称,M为其集合,Y表示实体指称的真实类型标签,表示实体指称的预测类型标签。

3.3 实验设置

实验采用PyTorch 框架,并使用NVIDIA 的3070显卡进行了加速,其他实验设置如下:

(1)预训练词向量:GloVe 词向量模型[32]是一种广泛使用的词向量模型,以无监督的方式学习单词的向量表示,能有效地捕捉词的语义信息。采用300 维预训练的GloVe 词向量表示句子中单词的词向量。

(2)参数设置:模型的参数包括批处理大小B、Adam 优化器的学习率lr、BiLSTM 中隐藏层的维数Dh、MLP 中隐藏层的维数Dm、类型标签嵌入维数Dt、惩罚无关噪声标签的参数α、惩罚具体噪声标签的参数β以及L2正则化参数λ。对于两个数据集的具体参数设置如表2所示。

表2 超参数设置Table 2 Hyperparameter setting

3.4 对比实验

本节将本文提出的NFETC-MN模型与其他先进的细粒度实体分类模型进行了对比。

(1)Attentive[10]:Shimaoka 等人提出基于特征提取的注意力网络模型,但未将训练集中的干净数据与含噪声数据进行区分。

(2)AFET[18]:针对细粒度实体分类的噪声标签,根据类型路径将训练数据划分为“干净集”和“噪声集”,再利用部分标签损失对标签嵌入进行训练。

(3)AAA[19]:Abhishek等人也将训练数据分为“干净集”和“噪声集”,并提出联合学习实体指称及其上下文表示的神经网络模型。

(4)NFETChier[20]:使用变形的交叉熵损失函数和层次损失函数来处理无关噪声标签以及具体噪声标签。

(5)NFETC-CLSChier[21]:通过标签传播和候选类型约束以推断噪声标签的类型分布,使用压缩隐空间规范远程监督分配的噪声标签,并利用层次损失函数处理具体噪声标签。

(6)NFETC-ARhier[23]:基于概率自动重标记数据,能平等对待干净和含噪声样本。在没有额外监督的情况下解决噪声标签问题,并利用层次损失函数处理具体噪声标签。

3.5 实验结果及分析

在FIGER 和BBN 两个数据集上,细粒度实体分类任务中各方法的准确率、Macro F1值以及Micro F1值如表3所示。通过对比实验结果发现,NFETC-MN在准确率、Macro F1 值以及Micro F1 值上均优于以往的细粒度实体分类方法。

表3 细粒度实体分类方法性能比较Table 3 Performance comparison of fine-grained entity classification methods 单位:%

NFETC-MN 模型首先利用记忆网络模型,联合学习指称上下文及类型标签,构成记忆表示,为分配符合语义的类型标签增加指示性信息。其中,通过对指称上下文进行两种不同方式的处理以及计算指称上下文向量与类型标签的匹配度,能够进一步为上下文中更具指示性的单词分配更高权重,充分提取指称上下文与类型标签的重要信息。其次,为了缓解无关噪声标签以及具体噪声标签的消极影响,分别设计变形的铰链损失函数和变形的层次损失函数。通过调整惩罚参数α、β,增大无关噪声标签以及具体噪声标签的损失值,能够有效减轻噪声标签对细粒度分类模型整体性能的负面影响。

具体来说,融合记忆网络的NFETC-MN在FIGER数据集上相较于NFETC-ARhier,准确率提高2 个百分点左右,Macro F1 值无太大差异,Micro F1 值提高1个百分点左右。在BBN 数据集上,相较于NFETCARhier,NFETC-MN 的准确率提高2 个百分点左右,Macro F1 值提高6 个百分点左右,Micro F1 值提高6个百分点左右。综合看来,融合记忆网络的NFETCMN在BBN数据集上的表现优于在FIGER数据集上的表现,尤其是在BBN 上的Macro F1 值和Micro F1值,相较于NFETC-ARhier增长约6个百分点。原因可能有以下两点:(1)BBN数据集中实体类型数量少于FIGER;
(2)BBN 是单类型路径的数据集,FIGER 数据集允许实体有多个类型路径,因此细粒度实体分类任务与FIGER相比较为简单。

正如表3所示,通过增加记忆网络使得细粒度实体分类模型能够更好地学习实体指称上下文以及类型标签表示,并且利用深度学习的MLP 模型提取到更有效的特征,从而提高NFETC-MN模型在准确率、Macro F1 值以及Micro F1 值上的性能表现。与此同时,采用变形的铰链损失函数以及变形的层次损失函数分别处理无关噪声标签、具体噪声标签,可以改善NFETC-MN 模型的分类性能。另外,实验结果表明L2正则化函数的引入能有效避免训练模型对噪声标签过拟合。

本文针对远程监督引入的噪声标签问题,提出了一种融合记忆网络的实体分类方法(NFETCMN)。通过引入记忆网络增强对实体指称上下文和类型标签之间的联合学习,建立指称上下文与类型标签之间的关联性。同时使用变形的铰链损失函数和变形的层次损失函数以缓解无关噪声标签和具体噪声标签的消极影响。此外,结合L2 正则化函数防止训练模型对噪声标签过拟合。实验结果表明,引入记忆网络模型、变形的层次损失函数以及L2 正则化函数,有助于处理细粒度实体分类噪声标签任务。并且该模型在准确率、Macro F1值以及Micro F1值三个评价指标上,均优于以往处理噪声标签方法。

猜你喜欢 细粒度向量标签 向量的分解新高考·高一数学(2022年3期)2022-04-28聚焦“向量与三角”创新题中学生数理化(高中版.高考数学)(2021年1期)2021-03-19无惧标签 Alfa Romeo Giulia 200HP车迷(2018年11期)2018-08-30不害怕撕掉标签的人,都活出了真正的漂亮海峡姐妹(2018年3期)2018-05-09在线评论情感分析研究综述软件导刊(2018年2期)2018-03-10基于型号装备?角色的IETM访问控制研究现代电子技术(2018年1期)2018-01-20基于web粒度可配的编辑锁设计电脑知识与技术(2017年26期)2017-11-20基于文本挖掘的微博文本情绪分析技术研究科技资讯(2017年7期)2017-05-06向量垂直在解析几何中的应用高中生学习·高三版(2016年9期)2016-05-14向量五种“变身” 玩转圆锥曲线新高考·高二数学(2015年11期)2015-12-23

推荐访问:实体 融合 记忆

版权声明:

1、本网站发布的作文《融合记忆网络的细粒度实体分类方法》为爱作文网注册网友原创或整理,版权归原作者所有,转载请注明出处!

2、本网站作文/文章《融合记忆网络的细粒度实体分类方法》仅代表作者本人的观点,与本网站立场无关,作者文责自负。

3、本网站一直无私为全国中小学生提供大量优秀作文范文,免费帮同学们审核作文,评改作文。对于不当转载或引用本网内容而引起的民事纷争、行政处理或其他损失,本网不承担责任。

热门专题