上届冠军分享:基于网络嵌入和语义表征的同名消歧

2020.07.22 | 浏览:23999


来源:biendata



本文为第一期“OAG-WhoIsWho同名消歧挑战赛 赛道一:论文的冷启动消歧”冠军团队分享,该方法最终评测得分0.903。


今年5月,链想家联合AMiner发布第二期OAG-WhoIsWho同名消歧挑战赛,本届挑战赛依旧开放了两条赛道:赛道Ⅰ 论文的冷启动消歧;赛道Ⅱ 论文的增量消歧,总奖金15万元。


开赛两个月以来战况持续火热,为了帮助参赛选手开阔思路激发更多的创造力,biendata本期为大家带来第一期OAG-WhoIsWho同名消歧大赛赛道一的冠军团队方法分享。各位同学也可以在浏览器输入下方地址,前往biendata models直接查看开源代码:

开源地址:https://www.biendata.xyz/models/category/3637/

*推荐PC端打开页面*


扫描下方二维码

进入本期同名消歧赛题页面


微信图片_20200722162455.png




基于网络嵌入和语义表征的作者名消歧

评测得分:0.90327


作者简介

第一期OAG-WhoIsWho同名消歧挑战赛 赛道一冠军团队:cnic。

团队成员:乔子越、王寒雪,均来自中国科学院大学计算机网络信息中心。



01  整体思路


对于某个需要消歧的名字,根据其所有论文之间的关系信息和论文文本信息求出论文表征向量,进而求出论文之间的两两相似度,得到论文相似性矩阵,使用聚类算法和基于相似度阈值的匹配方法将论文划分为不同的簇,则每个簇代表一个特定作者的论文集。

我们的方法的整体框架如下:



微信图片_20200722162525.jpg

整体框架示意图



02  特征分析


我们把该问题看作是对一个论文集的聚类任务,且不指定聚类簇个数,即K值。


首先,分析每篇论文的特征,论文的特征包含title, abstract, author, venue, organization, year, keyword. 我们把这些特征划分为两种类型,一种是语义特征,一种是离散特征。


语义特征指的是可以具有语义信息的文本特征,例如title, abstract, keyword,这些文本可以使用语义表征学习模型如word2vec等转化为文本语义向量。在后续的实验中,我们认为venue, organization, year也具有弱语义信息。


离散特征指的是本身的文本信息没有很大的价值,例如author,作者名称本身的语义并没有作用,一个作者只有在两篇文章中同时出现时才有作用,这表示两篇论文有一个共同作者,则它们之间的相似性较大。因此我们把这类特征成为离散特征,只能用来转换为论文间的关系。在后续的实验中,我们发现organization也属于离散特征,因为其中的有些词如地名可以用来搭建论文之间的关系。


具体实施上,我们定义author, organization为离散特征,定义title, venue, organization, year, keyword为语义特征。


基于以上两种特征的认识,我们的思路是使用语义特征学习论文的文本表征向量,利用离散特征来构建论文之间的关系,如有共同作者关系,有机构相似性关系,以此构建论文网络,通过网络嵌入学习方法来学习论文的关系表征向量。再使用聚类算法对论文进行聚类。



03  论文表征学习


这部分我们介绍如何学习论文的两种表征向量。



3.1 论文关系表征学习

此部分的作用是学习到每个论文的关系表征向量。可以看作是先搭建论文异质网络,然后利用网络嵌入的方法学习到每个论文节点的表示向量。本部分用到的特征有author和organization。


网络嵌入(Network Embedding)模型尤其是异质网络嵌入模型已经有了很多研究成果,我们使用的网络嵌入模型主要参考DeepWalk[1]和Metapath2vec[2]。


3.1.1 异质网络构建

对于每一个需要消歧的名字,将其对应的所有的论文之间的关系抽取出来,构建出一个论文异质网络,如图1所示。这个异质网络包含一种类型的节点:论文(每篇论文代表一个节点),两种类型的边:CoAuthor,CoOrg。


CoAuthor代表两个论文之间有共同作者(不包含需要消歧的名字),边上的度代表拥有共同作者的个数。例如如果两篇论文之间有共同作者,那么就在它们之间构建一条关系名为CoAuthor 的边,同时这条边具有共同作者数目的属性,如果有1个共同作者,这个关系的权重就为1,如果有2个共同作者,那么权重就为2,以此类推。


CoOrg代表两个论文中待消歧名字的机构的相似性关系,边上的度代表两个机构共词的数量。例如,两个论文的机构有相同出现的词,且这个词不是停用词,那么就在它们之间构建一条CoOrg的边,这边相应的也有数目的权重,如果有一个共现词,那么权重值为1,如果有两个共现词,那么权重为2,以此类推。要注意的是我们只使用了待消歧名字的机构信息。



微信图片_20200722162601.png

论文异质网络示意图。其中a是待消歧作者名,Org代表a所属的机构



3.1.2 基于元路径的随机游走

构建完上述论文异质网络,我们使用基于元路径的随机游走生成由论文id组成路径,把这些路径作为word2vec的输入,最后得到每个论文id对应的关系表征向量。


具体来说,在论文异质网络中轮流选择每一节点,以该节点为初始节点,在节点之间的边进行随机游走,把游走的路径保存下来作为word2vec的训练语料库[1]。基于元路径的随机游走的意思是在边上随机游走时,并不是完全随机的,而是由元路径指导的[2]。


规定在随机游走的过程中,按照p1 → CoAuthor → p2 → CoOrg → p3这样的元路径顺序进行游走,每一次游走过程中,按照当前元路径规定的某种类型的边选择下一个节点,随机选取一个通过该类型边与当前节点相连的节点作为下一个节点,在每一条长路径中,重复采样若干次这样的元路径,即前一条元路径的最后一个节点作为下一条元路径的第一个节点。最终迭代直到达到一定的次数(代码中的定义为walklenth),则另选一个节点作为开始节点进行游走,最终生成若干这样的长路径,每个路径点是论文的id,并将每个长路径按行存储,生成训练语料库。


同时,在某个节点在元路径指导下朝着某类型的边随机选择下一个节点游走的过程中,会考虑到边的权值,权值越大,说明两个节点的关系越密切,00那么节点沿着这条关系跳转的概率就越大,我们规定该概率与权重是正比例关系。例如,上图中,若p1为当前节点,下一跳的关系是CoAuthor,那么与p1有该关系的两个节点分别是p2和p3,根据它们之间该边的权值,那么从p1游走到p2的概率是1/3,游走到p3的概率是2/3。


在某些情况下,有些关系对于一些论文来说是缺失的,例如某个论文中所有的作者并没有出现在其他任意一个论文的作者列表中,那么对它来说CoAuthor这个关系是缺少的,当出现这种情况时,就采用更灵活的策略,即根据元路径中当前缺失关系的下一个关系游走,对于上面说的那篇论文来说,就转而根据它的CoOrg关系进行游走。


这样,每一轮选择图中的每个节点为起始点开始随机游走,我们在代码中定义轮数为numwalks,这样就生成了numwalks*N条路径组成路径集,其中N是节点数量。实际中我们设置numwalks为5,walklenth为20。



微信图片_20200722162631.png

基于元路径的随机游走生成路径集。箭头的粗细代表游走到下一节点的概率



注:在实际上从效率上考虑,我们没有真的生成一个异质图,而是只存储了paperid: author,author: paperid, paperid: orgword, orgword: paperid这样的键值对,其中orgword代表机构名称里的一个词。在游走经过两个论文节点一条CoAuthor边时,先用paperid随机找到其中一个author,再用这个author去找到下一个paper,同理,在游走经过两个论文节点一条CoOrg边时,先用paperid随机找到其中一个词,再用这个词去找到下一个paper。这样随机游走的方式和上述策略是等价的,但不用构建完整的异质图,更加节省时间。此部分代码详见“utils”cell模块中的MetaPathGenerator类。


3.1.3 使用word2vec得到节点关系向量

我们使用gensim库中的word2vec的skip-gram模型训练上节的路径集,将路径集看作语料库,语料库中的论文id看作词汇,最后得到每个论文id对应的表征向量。由于这个语料库中实际保存的是节点之间共同作者和机构名称相似性的关系,所以我们把这个表征向量叫做节点关系表征向量。Word2vec训练参数如下:



微信图片_20200722162857.png



在采样的路径中,我们并不保存起始点,这样对于图中的孤立节点(即没有边与其他节点相连的节点),这个节点对应的论文id不存在于路径集中,也无法得到其节点关系表征向量。我们把这些节点的关系表征向量设为全0向量,并保存到离群论文集中,后续再做处理。


在训练word2vec的时候,我们采用了Bagging的思想,采用上节中的策略采用k个路径集,使用k个路径集训练得到k个word2vec的模型,生成k组论文向量,每组论文向量求余弦相似性矩阵,再对这k个相似性矩阵求均值,得到最终的论文关系相似性矩阵。


3.1.4 试错过程

我们只使用了author和organization两个特征,其实venue特征和organization是有一定的相似度的,都是一段短文本,可以搭建节点之间的venue相似性关系的边,我们也试过把venue特征加入异质图,采用相似的元路径随机游走策略学习向量,但效果并不好。我们认为的原因是,由于我们相当于使用词共现次数来确定两个论文organization的相似度的。venue的文本中有许多带有学科属性的词,这些词的共现较为常见,有共词对证明两篇论文是同一个作者所写的贡献不高,因此会带来一定的噪声。而organization中多为地名,学校名,这些词的共现相对更有说服力。


另外year特征的关系作用更不明显,因为两篇论文是同一年所写,就大概率认为这两篇论文是同一人所写更加没有说服力。

除了待消歧作者名的organization,每篇论文的其他作者也包含organization,但我们认为这些organization的用处不大,并不是强特征,经过实验也验证了这一点。


3.2 论文语义表征学习

此部分的作用是生成论文语义表征向量。


首先将训练集,验证集和测试集中的文本提取到一个文本语料集中,具体来说,对于每一篇论文,我们提取了其每个作者的organization,论文的title,论文的abstract,论文的venue这些文本,并按行存储到一个txt文件中。在测试集未出时,我们只使用了训练集和验证集的文本。


接着我们以这个txt文件为语料集,使用gensim的word2vec模型训练词向量。此部分的代码在“train word2vec”cell模块中,Word2vec训练参数如下:



微信图片_20200722163011.png



对于每一篇论文,我们生成它对应的语义表征向量过程如下:将该论文的title, venue, organization, year, keywords 以空格间隔,合成同一段文本,对这个文本进行预处理,首先把字母小写化,去除各种非字母的符号,接着去掉多余的空格,以空格分词,去掉停用词和长度小于3的词。将这些词都通过上段训练好的word2vec模型生成词向量并求均值,最终得到论文的语义表征向量。


对每个待消歧的名字,得到其所有论文的语义表征向量,当有的论文的所有词都不存在于word2vec模型中时,将其语义表征向量置为全0,并保存到离群论文集中,后续再做处理。最后求得论文两两间的余弦相似度,得到论文语义相似性矩阵。


3.2.1 试错过程

最开始根据经验,我们只用了title,keyword和abstract两个文本信息来生成论文语义相似性,后来发现abstract的语义效果并不好,原因时其中的噪声词太多,实际上只用使用几个主题词和关键词的语义信息就可以代表该论文的语义特征了,因为这些词代表了论文的主题,而title和keyword正是富含这些词,因此,我们只在词向量训练时使用了abstract。


另一方面,我们发现文本序列信息的用处也不大,因为基本上我们使用的都是短文本。


我们把organization和venue加入文本信息中,发现效果有提升,我们认为词向量能够很好的量化这两个特征的文本相似性。


接着我们把year也加入文本,这些年份数字也分布在文本集中,因此也可以生成词向量,而且相近年份的词向量具有更高的相似性,比如与2012最相似的年份词是2011和2013。这非常好的量化了两个论文的发行年份的相似性。



04  论文划分


这部分我们根据上节得到的两个论文相似性把论文划分到不同的簇中,每个簇代表这些论文为同一个作者所写。



4.1 预聚类

第三节中,我们得到了论文关系相似性矩阵和论文语义相似性矩阵,首先我们把这两个矩阵相加求均值。得到最终的论文相似性矩阵。我们考虑过加权相加,以测试哪个相似性矩阵具有更高的比重,最终根据训练集的结果得出这两个矩阵的权值比应设置为1:1。


根据这个论文相似性矩阵,将这个矩阵输入DBSCAN中,得到聚类结果。



微信图片_20200722163103.png



我们把DBSCAN的参数min_samples设置为4,这意味着一个簇中最少的论文个数为4,这会产生一部分已经划分好的论文簇和许多label为-1的离群点,这些离群点不属于任何簇。我们把这些label为-1的论文加入第三节提到过的离群论文集中。除了这些在离群论文集中的论文,我们把其他论文的聚类结果作为这些论文最终的聚类结果。


4.2 匹配离群论文

我们目前得到了一些已经划分好的簇,里边包含着已经聚类好的论文,我们把这些论文合起来的集合叫做预聚类论文集,还有一个离群论文集,且这两个集合不相交。这一步的操作是将这些离群论文集里的论文用阈值匹配的方法重新分配给已经聚类好的簇或者新的簇中。具体操作如下:

首先对于离群论文集中的每一篇论文,比较它与每个预聚类论文集中的论文,得到跟它匹配相似度最高的一个论文,如果他们两个的相似度不小于阈值α,则把前者分配到后者所在的簇中;否则把它单独归为新的一个簇。


做完上步,对于离群论文集中的每一篇论文,再比较它与离群论文集中其他每个论文匹配相似度,如果两者的相似度不小于阈值α,则把后者分配到前者所在的簇中;否则不变。


其中两篇论文pi和pj的匹配相似度s(pi,pj)的定义如下:


微信图片_20200722163313.png



其中tanimoto(p,q)指两个序列的tanimoto相似度,定义如下:


微信图片_20200722163405.png


阈值α我们取为1.5。


生成和匹配离群论文的原因是这部分论文往往特征不够明显,造成其与其他论文之间的相似度比较小,或者这些论文本身就是属于一个论文数较少的作者,这些形式的论文用我们上述所说的表征向量学习方法的效果不如使用直接使用特征进行匹配的方法的效果好。


经过上述操作,将离群论文集中的论文也分配到了各自的簇中,将离散论文集和预聚类论文集整合,这样就得到了所有论文的聚类结果,这个聚类结果就是我们最终对于某待消歧名字的消歧结果。



05  其他


我们对所有上文未提到的文本预处理的操作都是一样的,首先把字母小写化,去除各种非字母的符号,接着去掉多余的空格,若文本需要分词,则在分词后去掉停用词,和长度小于2的词。我们使用的停用词表和符号表如下:


微信图片_20200722163547.png


我们利用构建作者词典的方法,避免了某些作者姓和名顺序不一致的歧义,即将Ziyue Qiao和Qiao Ziyue的歧义消除,将他们看作是同一个人。具体操作是对于每个名字,检查它和它前后调换后的名字是否在作者名词典中,如果某一个在,则把该名字保存成该形式,若都不在,将它加入作者词典。这样作者词典里不会同时存在Ziyue Qiao和Qiao Ziyue这两个名字。详细见代码utils部分中的save_relation函数。


参考文献

[1] Perozzi, Bryan, Rami Al-Rfou, and Steven Skiena. "Deepwalk: Online learning of social representations." Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining. ACM, 2014.

[2] Dong, Yuxiao, Nitesh V. Chawla, and Ananthram Swami. "metapath2vec: Scalable representation learning for heterogeneous networks." Proceedings of the 23rd ACM SIGKDD international conference on knowledge discovery and data mining. ACM, 2017.

[3] Z. Qiao, Y. Du, Y. Fu, P. Wang and Y. Zhou, "Unsupervised Author Disambiguation using Heterogeneous Graph Convolutional Network Embedding," 2019 IEEE International Conference on Big Data (Big Data), Los Angeles, CA, USA, 2019, pp. 910-919.




关于链想家大赛


微信图片_20200722163630.jpg


2020链想家计算科技大赛,由区块链教育新媒体平台链想家主办,biendata竞赛平台承办。旨在培养高质量的高新技术人才队伍,实现区块链技术与人工智能技术对不同行业的赋能改造。


链想家致力于将本次大赛打造为中国参赛人数最多的前沿科技比赛之一,并以大赛为抓手,进一步宣传贯彻国家创新驱动战略,深化人工智能和区块链技术在各行各业的应用改革,推动社会各界对高新技术人才培养的重视,切实提高大众的创新精神、创业意识、创新创业能力。助推传统产业转型发展,促进各行各业形成新业态、新经济、新模式。


链想家寄语:本站文章版权归原作者及原出处所有。内容为作者个人观点,并不代表本站观点及对其真实性负责,本站只供参考并不构成任何投资及应用建议。

联系

我们

028-87531801

客户端