Learning Attention-based Embeddings for Relation Prediction in Knowledge Graphs

  • 2020 年 10 月 21 日
  • 筆記

  这篇论文试图将GAT应用于KG任务中,但是问题是知识图谱中实体与实体之间关系并不相同,因此结构信息不再是简单的节点与节点之间的相邻关系。这里进行了一些小的trick进行改进,即在将实体特征拼接在一起的时候还同时考虑了两个实体之间的关系向量。

 

  就像上面图里所表示的,三个特征向量进行拼接之后再通过一层全连接层,然后通过卷积层和LeakyReLu层进行激活。之后softmax归一化,得到节点对节点的注意力系数。

 

   上面是下一层新的实体表示,这里要注意的是上面k代表的是节点与节点之间的关系可能不止一个,我们需要遍历所有的这些关系。

  在每层之间多头注意力采用拼接机制

 

  最后一层则取平均

 

  这里最后还有一个类似resnet的单层网络结构,即将最初的向量和最后的向量进行运算处理。

  最后的网络效果图如下所示: