数学建模社区-数学中国

标题: 知识图谱与推荐系统综述 [打印本页]

作者: 杨利霞    时间: 2020-4-28 16:03
标题: 知识图谱与推荐系统综述
' l  m& K& }: M) K/ J: E4 o
知识图谱与推荐系统综述/ A7 o( }! P' ]  j+ x

1 I0 P4 h% q7 `" n* |% c1. 知识图谱的起源$ s! i5 b, q* s- W6 }8 v
( b# \& {* \; p- H) F$ x% u1 J
         知识图谱(Knowledge Graph),最早起源于Google Knowledge Graph。知识图谱本质上是一种语义网络。其结点代表实体(entity)或者概念(concept),边代表实体/概念之间的各种语义关系。2012 年,谷歌推出了 Knowledge Graph,当时的数据规模有 700 亿。后来,Facebook、阿里巴巴、以及亚马逊也相继于 2013 年、2015 年和 2016 年推出了各自的知识图谱和知识库。. R2 A9 U" v1 q0 p8 i# R8 B/ j
  本质上, 知识图谱旨在描述真实世界中存在的各种实体或概念及其关系,其构成一张巨大的语义网络图,节点表示实体或概念,边则由属性或关系构成。现在的知识图谱已被用来泛指各种大规模的知识库。
8 R7 N' `# l  M  知识图谱通常表示为三元组,G=(E,R,S),其中- d$ [* x0 }$ D
1.png
) @7 h2 j% `: H/ W
7 ?2 R9 R: b, l- Z& J. y, C3 x6 V0 I; o
,是知识库中的实体集合,共包含|E|种不同实体;9 Q- q2 }. n& o5 P: y& j5 p8 t
2.png
0 |" P/ v# ?  n' p是知识库中的关系集合,共包含|R|种不同关系;S⊆E×R×E代表知识库中的三元组集合。
5 V, H. M% R- N" V. @三元组的基本形式主要包括(实体1-关系-实体2)和(实体-属性-属性值)等。每个实体(概念的外延)可用一个全局唯一确定的ID来标识,每个属性-属性值对(attribute-value pair,AVP)可用来刻画实体的内在特性,而关系可用来连接两个实体,刻画它们之间的关联。
. u' Z+ T- m6 i1 u+ j 3.png
1 l# [. X( h6 f& w, J7 y2 k4 A. b  j% N7 ?2 O; d3 B+ [$ w
图1:知识图谱示例' O8 s. \. W& h! W+ f! T6 M

& V# Q" S% y) D- R( e2. 推荐系统的任务和难点
( S) d. N0 H  T( X/ X( |9 c: x
  推荐问题的本质是代替用户评估其从未看过、接触过或者使用过的物品。
, ?$ s1 y# Y; H6 V# q- e, B; W  推荐系统一般分为两类: (1)评分预测: 预测用户对物品的评价。比如在电影推荐中,系统需要预测用户对电影的评分,并以此为根据推送给用户可能喜欢的电影。这种场景下,我们经常使用的数据是用户对历史观看过的电影的评分数据,这些信息可以表达用户对电影的喜好程度,因此也叫做显式反馈(explicit feedback)。 (2)点击率预估: 预测用户对于物品是否点击。比如在新闻推荐中,系统需要预测用户点击某新闻的概率来优化推荐方案。这种场景下常常使用的信息是用户的历史点击信息。这种信息只能表达用户的行为特征(点击/未点击),而不能反映用户的喜好程度,因此这种信息也叫做隐式反馈(implicit feedback)。
0 s, y/ E: X6 `' O0 s. t7 e4 J 4.png
4 ^/ B8 a& d6 |" P2 V# D  U
* s) |+ P  A" {0 N' Q$ c- [图2.1:显式反馈和隐式反馈
/ u& L" ^+ y0 e  传统的推荐系统使用显式/隐式信息作为输入来进行预测,存在两个主要的问题:
4 f' n, |1 z7 Y$ t   (1)稀疏性问题: 实际场景中,用户和物品的交互信息往往是非常稀疏的。如电影推荐中,电影往往成千上万部,但是用户打过分的电影往往只有几十部。使用如此少的观测数据来预测大量的未知信息,会极大增加过拟合的风险。' I  H, ~) a  i7 C% |# A
4 Y; J" |+ i, Y4 S
   (2)冷启动问题: 对于新加入的用户或者物品,其没有对应的历史信息,因此难以进行准确的建模和推荐。解决稀疏性和冷启动问题的一个常见思路是在推荐算法中额外引入一些辅助信息(side information)作为输入。辅助信息可以丰富对用户和物品的描述、增强推荐算法的挖掘能力,从而有效地弥补交互信息的稀疏或缺失。常见的辅助信息包括: 社交网络:一个用户对某个物品感兴趣,他的朋友可能也会对该物品感兴趣 用户/物品属性:拥有同种属性的用户可能会对同一类物品感兴趣 图像/视频/音频/文本等多媒体信息:例如商品图片、电影预告片、音乐、新闻标题等 上下文信息:用户-物品交互的时间、地点、当前会话信息等。+ O: Z, u' m; V  c/ \
   近年来,知识图谱(knowledge graph)作为一种新兴的辅助信息,逐渐引起了学者们的关注。! T9 B: v1 N. Q$ b# A
5.png
" {) Q  @( R$ k. o9 M# I
: A  f4 Z; f  h8 j图2.2:辅助信息类型3 H' h" @0 W3 Q
3. 知识图谱的优势
0 g/ e- w0 U: D3 K1 Y, `" H) ?: C" ~1 i4 L
   知识图谱包含了实体之间丰富的语义关联,为推荐系统提供了潜在的辅助信息来源。将知识图谱引入推荐系统中,可以给推荐系统带来以下的特性:  z. |+ C9 d3 Q7 `9 ]; F

+ n0 P- l8 z2 J精确性:知识图谱为物品引入了更多的语义关系,可以深层次地发现用户兴趣。# I/ g4 F* c( ?: U1 f
多样性:通过知识图谱中不同的关系链接种类,有利于推荐结果的发散。
" o% x5 r: S, P9 Q4 R) |可解释性:知识图谱可以连接用户的历史记录和推荐结果,从而提高用户对推荐结果的满意度和接受度,增强用户对推荐系统的信任。; w* i0 K# F0 {3 m
/ @( i7 T+ H; S& n+ C- `
6.png
( S, H- p0 w# a. F! U; F
& l% r6 y6 q$ |# _  d+ Q 7.png 图3.1:精确性示例- [5 I6 d* ~3 |0 _
* d% L' \$ d' }' k1 t1 R# J

4 H# l2 k  r8 a2 Y# ~8 H图3.2:多样性性示例3 ?5 q# t2 R2 Z
/ h5 S) P4 C, R0 J8 m. c

, a. y1 w! R5 Z: t图3.3:可解释性示例% p, C1 m# t4 T) P1 f; _$ t  P3 V
4. 知识图谱与推荐系统相结合- l5 s" C$ F8 R+ a

% u) e4 q$ \1 o3 d- e" ?% c% o8 [8 r- N4.1 基于特征的推荐方法
7 B) J& N6 R+ h  R8 E9 w1 D, b* O1 s8 f+ f1 v: w/ k: ]/ g4 R9 y
  基于特征的推荐方法,主要是从知识图谱中抽取一些用户和物品的属性作为特征,放入到传统模型中,如FM模型、LR模型等等。这并非是专门针对知识图谱设计,同时也无法引入关系特征。$ S" M& r! B( V
) P! V. G$ j5 U' ~- U
4.2        基于路径的推荐方法
! `2 o! w9 _, y* r. ^$ N3 d4 C" X* d) d  T* C" R
  基于路径的推荐方法,以港科大KDD 2017的录用论文《Meta-Graph Based Recommendation Fusion over Heterogeneous Information Networks》为代表。该类方法将知识图谱视为一个异构信息网络(heterogeneous information network),然后构造物品之间的基于meta-path或meta-graph的特征。简单地说,meta-path是连接两个实体的一条特定的路径,比如“演员->电影->导演->电影->演员”这条meta-path可以连接两个演员,因此可以视为一种挖掘演员之间的潜在关系的方式。这类方法的优点是充分且直观地利用了知识图谱的网络结构,缺点是需要手动设计meta-path或meta-graph,这在实践中难以到达最优;同时,该类方法无法在实体不属于同一个领域的场景(例如新闻推荐)中应用,因为我们无法为这样的场景预定义meta-path或meta-graph。
. V1 B9 e3 c; Q0 C- G, U
0 A1 I7 E" Y" w2 K3 i6 q$ Q4.3        知识图谱特征学习1 B; S2 x2 I' {9 {  k- a, v: \( \

* d3 n% t0 D+ ~! v  知识图谱特征学习(Knowledge Graph Embedding)为知识图谱中的每个实体和关系学习得到一个低维向量,同时保持图中原有的结构或语义信息。一般而言,知识图谱特征学习的模型分类两类:基于距离的翻译模型和基于语义的匹配模型。0 E: W- J; m- b- }9 L( Y

7 y5 h! X, B6 Z! O6 {  q4.3.1 基于距离的翻译模型:使用基于距离的评分函数
) ]5 c$ w; `5 f1 J; k- p# @& I' ?" Y% \/ Y
  知识库中的实体关系类型可分为 一对一 、一对多 、 多对一 、多对多4 种类型,而复杂关系主要指的是 一对多 、 多对一 、多对多的 3 种关系类型。& |! u4 k' g; I3 T- p5 _& A1 }  K
7 d/ D3 h, u2 [( i1 C" k2 A3 D
TransE模型:5 g1 {! y* t" j% W( O, }
  Border等人提出了TransE模型,将知识库中的关系看作实体间的某种平移向量。对于每个事实三元组(h,r,t),TransE模型将实体和关系表示为同一空间中,把关系向量r看作为头实体向量h和尾实体向量t之间的平移即h+r≈t。比如:对于给定的2个事实(姜文, 导演, 邪不压正)和(冯小刚, 导演, 芳华) ,除了可以得到:姜文+ 导演≈邪不压正和冯小刚+导演≈芳华,还可以通过平移不变性得到:邪不压正 - 姜文 ≈芳华 –冯小刚,即得到两个事实相同的关系(DirectorOf)的向量表示。我们也可以将r,看作从h到t,的翻译,因此TransE也被称为翻译模型,如图4.1(a)所示,对于每一个三元组(h,r,t)TransE希望:h+r≈t,评分函数在表1中所示。, w) {' C6 u' Z9 P
  虽然TransE模型的参数较少,计算的复杂度显著降低,并且在大规模稀疏知识库上也同样具有较好的性能与可扩展性。但是TransE 模型不能用在处理复杂关系上 ,原因如下:以一对多为例,对于给定的事实,以姜文拍的民国三部曲电影为例,即《让子弹飞》、《一步之遥》和《邪不压正》。可以得到三个事实三元组即(姜文,导演,让子弹飞)、(姜文,导演,一步之遥)和(姜文,导演,邪不压正)。按照上面对于TransE模型的介绍,可以得到,让子弹飞≈一步之遥≈邪不压正,但实际上这三部电影是不同的实体,应该用不同的向量来表示。多对一和多对多也类似。
  l8 b% a4 x& G3 m
! ~& F/ Q) O" {- M& T) s* WTransH模型:
( I0 L! J! G0 B% b0 C; Q# a  为了解决TransE模型在处理一对多 、 多对一 、多对多复杂关系时的局限性,TransH模型提出让一个实体在不同的关系下拥有不同的表示。如图4.1(b)所示,对于关系r,TransH模型同时使用平移向量r和超平面的法向量wr w_rw
5 o7 q4 ^. M& R' ^r" w+ `3 s: O; [. a7 W1 M& ]. B
​       
- T1 L) `, o7 A* A5 K7 k7 W+ ]$ _ 来表示它。对于一个三元组(h, r, t) , TransH首先将头实体向量h和尾实体向量r,沿法线wr w_rw ' H& p! j9 s, Y0 Q! ]8 r' l: V4 k$ K  T
r
4 x- t- R2 a4 N! z​       
6 N, Y1 ^0 [2 W; n3 h: M5 n ,影到关系r对应的超平面上,用h⊥ h_⊥h
8 w8 @4 N) s$ ^/ P$ h& f7 A0 J
! H( r# P! k. B& K( c​       
# t0 N; b5 v; ^. H* [ 和t⊥ t_⊥t & S+ f, A. ~) o  P

9 [! G7 z- @/ z5 k  u​       
1 B, Y7 w# X9 w: L7 d; w 表示如下:  k0 a$ v: U+ e) Q
h⊥=h−wTrhwr,t⊥=t−wTrtwr. h_⊥=h-w_r^T hw_r, t_⊥=t-w_r^T tw_r.
. }4 U  _: v: \h 0 I; }8 t0 ^! s8 c6 w
/ j/ F$ L( |* C1 h) D5 P
​       
. g, Z+ O5 J, C  I =h−w
( K4 D+ B+ n- {1 d1 W3 }7 lr
' C9 T+ M& |8 Z% P) e  m8 {: i. HT
1 b' v- k' v) ?+ d1 E​        6 o6 k' ]  m+ ~  c3 q
hw 4 {4 Z$ u! H* x
r& i' G* @( Q: q) T
​       
, q1 I0 o! Z! ]/ o- P& i% t, z: y+ ^ ,t ! d, P8 t9 r" ?: \
2 t3 g# _8 Z% K/ I" y$ L1 K! B/ R
​       
; {, \9 l% t9 ]3 Z =t−w
% a3 g1 h/ F3 A3 y# k9 Er
4 H# `: U, E/ r  QT
/ J* I2 g+ B6 V# P​        ( @" i+ O/ E9 w
tw
# i4 P: M* s9 {0 S# Or
6 z( f7 o4 \2 Q​       
$ \! B6 {! c" n .
* J9 ^( k5 K9 B7 e5 ?  因此TransH定义了如下评分函数如表1中所示,需要注意的是,由于关系r:可能存在无限个超平面,TransH简单地令r与wr w_rw
8 @, [1 b) {4 Y; G) @/ ]! Wr7 j% c9 g" z. A, c
​       
) v# h  }' U/ }- @( i: t ,近似正交来选取某一个超平面。TransH 使不同的实体在不同的关系下拥有了不同的表示形式,但由于实体向量被投影到了关系的语义空间中,故它们具有相同的维度。8 d- ]5 c5 G1 b  G

' o2 I' p4 ]0 @' x+ [  ~" V/ T" |, K8 mTransR模型:- X* O* `/ A7 H0 I! }
  虽然TransH模型使每个实体在不同关系下拥有了不同的表示,它仍然假设实体和关系处于相同的语义空间中,这一定程度上限制了TransH的表示能力。TransR模型则认为,一个实体是多种属性的综合体,不同关系关注实体的不同属性。TransR认为不同的关系拥有不同的语义空间。对每个三元组,首先应将实体投影到对应的关系空间中,然后再建立从头实体到尾实体的翻译关系。如图4.1(c)所示是TransR模型的简单示例。2 w' ~3 D+ c2 K0 R& ]! k$ U2 v
  对于每个三元组(h,r,t),我们首先将实体向量向关系r空间投影。具体而言,对于每一个关系r,TransR定义投影矩阵Mr,将实体向量从实体空间投影到关系r的子空间,用h⊥ h_⊥h
  `# c7 v4 L' \. a! ?9 Z
, q$ P$ b$ q" l; I+ Z​        " n. g9 m5 ^) L
和t⊥ t_⊥t   V. j6 ]: D5 C
+ b" t% `# m: E
​        3 Z! W3 m6 m: v1 l6 r
表示如下:5 f& U- W8 j+ e) h
h⊥=Mrh,t⊥=Mrt. h_⊥=M_r h, t_⊥=M_r t.: E( a& I9 m3 g) s. q4 p) \6 A2 {
h : j) |+ T# X. L8 _: j
6 R, X+ ?, G7 T0 ]3 T# ]: u
​       
; i" M' y; |$ p! c+ ?0 l# t =M & E% c7 o- ?0 Q1 K) s8 H
r* V) l. v! B; L8 x1 d% k
​        ) I  s( w& H) K9 X, w/ E
h,t
' O) G5 |* ~: \8 d
" _* L3 Q: V" |6 j​       
4 Z: d; f7 t% { =M
: S: M3 U4 |# p- o( {1 p1 \r; _9 n1 Q. [) Y1 v/ X
​       
! o# H6 M& F! ~0 G% f t.2 y$ W" y3 N2 U/ x! L" J
然后使h⊥+r≈t⊥ h_⊥+r≈t_⊥h ! e/ s. f8 H. M' Q
% q" T5 O/ A% V( |6 f
​        . |2 P& x* D9 v; g5 t0 p) y# N5 |
+r≈t ) K4 L. [6 G. J2 V5 y  x% X8 s
& @5 W2 z  X6 m. s5 j( d0 [
​        . H( g+ d! V4 z6 T1 i% {
, 评分函数如表1所示。
$ ?# n) @/ L, d7 X2 P! r0 @' N" Q/ c) o+ @

+ ^2 ~9 E, x3 I: d1 H6 R图4.1:TransE,TransH和TransR的简要说明9 }  g6 n7 E3 L
TransD模型:
7 k& M# N' o; I  虽然TransR模型较TransE和TransH有显著改进,它仍然有很多缺点: (1) 在同一个关系:下,头、尾实体共享相同的投影矩阵。然而,一个关系的头、尾实体的类型或属性可能差异巨大.例如,对于三元组(美国,总统,奥巴马),美国和奥巴马的类型完全不同,一个是国家,一个是人物。(2)从实体空间到关系空间的投影是实体和关系之间的交互过程,因此TransR让投影矩阵仅与关系有关是不合理的。(3)与TransE和TransH相比,TransR由于引入了空间投影,使得TransR模型参数急剧增加,计算复杂度大大提高。
- G5 e, }7 t* M1 [9 h" J2 E, H# C4 f) `  为了解决这些问题,Ji等人提出了TransD模型。给定三元组(h, r, t), TransD模型设置了2个分别将头实体和尾实体投影到关系空间的投影矩阵M_r1和M_r2,具体定义如下:
. N' s$ ~9 l0 Q0 V5 lM1r=wrwTh+I,M2r=wrwTt+I. M_r^1=w_r w_h^T+I, M_r^2=w_r w_t^T+I./ H- w! t/ C: L# p- b5 [4 G9 I
M 7 H! e' V( W9 I/ f0 c+ w5 Y
r
- w( n' Z7 a/ S# ]1
' I) K/ k4 o! k4 W​       
1 e) O# U9 W7 K =w
& ?, G2 E  g8 V# t1 E5 yr* O& |5 Z; h; ?  H" J- r6 }0 ~" z
​        & V1 g+ D5 x4 @, c7 D
w
! G* L  d1 o9 |) j. D6 Xh' W. r: t0 n' `# v
T
! Y& s5 S* ^8 v6 a3 b- F. Z​        7 \' ]2 Y; O3 L, D( s
+I,M " r* }4 o6 s& v/ [' j
r' g" @; Q1 \2 J& j% z" E' Y! J. u  o
2
) L! k( A1 G5 m' d- [​        , S! w9 \! Q! T; Q$ T
=w
  E  S/ ]3 @  y  or
! g8 o% ]: V+ |( }+ Y4 p​       
1 k7 L/ ?9 d2 S w % M) X# W$ T' H) E" Q1 ~4 `
t: D$ z- [2 d) u
T
2 U" p" Y6 X/ [% n​       
5 N; [9 H8 W) U +I.
6 S) X" R& O. `3 W' {2 ~h⊥=M1rh,t⊥=M2rt. h_⊥=M_r^1 h, t_⊥=M_r^2 t.* T7 S+ c7 H1 }
h - H/ Y& n7 H: d& D8 m  f$ G  O8 r4 X8 L
. ^9 g, h5 S4 a
​       
  X, u  Q  ^2 B) U; d2 j" W) Y =M
6 [. r7 m4 e6 b. s1 V. P, Hr( U! j3 x0 ~) t
1
8 x" ~( m- J0 G6 W+ j7 B​       
/ d" _- i, a3 r& q/ I$ ] h,t
6 X, `% `  d0 Y8 ^6 U9 W
$ h( w! O. B+ P) F0 n( d" |​       
; U; g( e) G' \" J0 u3 m% V =M
% F( F8 Y/ P2 Q. L; v0 dr5 u; H5 |8 ~5 c0 W2 P- L
27 j' N- e1 e( \4 M
​        + Z6 r9 ~8 A& y$ c( _: V
t.
# x( o9 d7 S0 ^4 g4 z% A5 d7 |* n6 y$ ^0 n7 x( y; c
TransSparse模型:; Y/ U+ f7 g( J0 M5 ]  F
  TranSparse是通过在投影矩阵上强化稀疏性来简化TransR的工作。它有两个版本:TranSparse (共享)和TranSparse (单独)。前者对每个关系r使用相同的稀疏投影矩阵Mr,即:5 S6 P4 u5 ]6 q2 B! Q- U
h⊥=Mr(θr)h,t⊥=Mr(θr)t. h_⊥=M_r (θ_r )h, t_⊥=M_r (θ_r)t.# Y; I: D1 C) H6 {; G7 Z6 A
h
( u0 u7 r+ K' x- P3 X  P* P* H5 }
# p: s' D: t  G8 x7 k​        6 o0 @6 D+ ?6 ]
=M
8 X8 w/ A) R: G" yr
0 u6 v2 h7 Z. Q4 X4 N  n​        0 Z2 n& w  i) ~) ^( c

2 d1 T0 Y. @) G% C. tr- A+ ^2 f1 }& @2 {  k9 T# T# }
​       
, ~7 W$ [) q& _: ? )h,t
& k! w! D4 n, `9 u& M' y
4 n, S3 @, f( o8 K- K2 {  y9 J​       
& Y% b# T2 H2 f =M $ X$ M7 M: a$ h* l6 Z
r
5 z/ b' O# @6 E( O​        # j% r7 h' \) O

/ T  s+ F; r4 }r3 I7 j6 Y6 `4 I: T6 {. W8 C! D
​        ) {: ?1 V% U, e, N% x  f7 L
)t.: c5 @& X5 f; t
后者对于头实体和尾实体分别使用2个不同的投影矩阵Mr1 M_{r1}M ; F! d" Q7 l7 S5 {; m
r1
  u( X' b3 J1 e+ d# Z" M​        5 S. h1 n% L7 \% Y- d8 g9 b/ d2 Z
和Mr2 M_{r2}M   Z% i4 C( ^1 ^6 W$ w. F4 x
r2
. x- ~# p9 B+ E​       
/ S* Q5 @) x+ p9 G$ i' ?2 O* s6 G' X5 [% r. x9 i
h⊥=M1r(θ1r)h,t⊥=M2r(θ2r)t. h_⊥=M_r^1 (θ_r^1 )h, t_⊥=M_r^2 (θ_r^2)t.
7 F* U: p/ H% \5 z# xh
/ |0 R/ k, @7 j7 y+ |2 X: _* q( ^# b+ u, q* X/ m
​       
9 J' Q# Q. H/ @- _: l& s =M
- b9 I3 u; u+ W+ M. E. ~r; k# v0 f( b( E( S' e! o
1
5 |2 c. ~0 L- v) W; N​       
% B: t8 Q6 j  D# f9 v# j
% `- i$ u& ]7 n' D- Wr
* Z) o. T9 V# j1& C  {5 w. W/ c7 W0 D4 v+ S
​       
" B1 ?; o: h' V2 c3 H )h,t ( R, h' j8 `; ~7 F. J) M; J

8 q3 ~0 v) b( t' y4 G​       
+ \5 p+ x+ K" E! W$ d =M
% J1 o$ ?" e  U( v$ Pr
5 D+ Z0 Q# V0 a8 ?8 w: G* [0 U* r6 |2
3 s5 d) U8 k# \( C* h8 B: k​        / i" q2 k; P7 J1 D' H; E

0 ]8 b' `2 s& v" E. ~7 ?r
0 E" Y4 Q9 V4 A4 ]+ m# l2
$ U# z; U$ ]  V- |​       
! I2 S6 l7 I6 ^& i# K )t.
  _5 g* Q$ G" tTransSparse模型评分函数如表1所示。通过引入稀疏投影矩阵,TransSparse模型减少了参数个数。
# \, G9 r5 ]; X/ l' ]" b6 o1 T- K$ h+ o1 v+ V4 O; D
TransM模型:, u  ]* P5 i! V! b3 L/ h' i
  除了允许实体在涉及不同关系时具有不同的嵌入之外,提高TransE模型性能可以从降低h+r≈t的要求研究开始。TransM模型将为每个事实(h,r,t)分配特定的关系权重theta_r,定义的评分函数如表1所示。通过对一对多、多对一和多对多分配较小的权重,TransM模型使得t在上述的复杂关系中离h+r更远。. z, @! t( b# B" x4 b

  O2 u& s$ ?  `' k8 N3 e2 c+ t" Z. hManifoldE模型:
' b; C- f! q: u  ManifoldE模型则是对于每个事实三元组(h,r,t)将h+r≈t 转换为为(h+r-t)的L2范式约等于theta_r的平方。同样地,ManifoldE把t近似地位于流形体上,即一个以h+r为中心半径为theta_r的超球体,而不是接近h+r的精确点。评分函数如表1所示。TransF使用了类似的思想。而不是执行严格的翻译h+r≈t,TransF只需要t与h+r位于同一个方向,同时h与t-r也位于同一个方向。则评分函数(即t和h+r匹配,h也要与t-r匹配)如表1所示。' F( ?1 Y, R  T' i3 B
1 z: M- p2 }4 h" }
TransA模型:/ V- L. Z8 v$ W" b* ~3 M5 n( v
  TransA模型为每个关系r引入一个对称的非负矩阵Mr M_rM
/ r7 f  k9 T; H' Tr2 g/ e4 j, i7 _% k; w2 K
​        " I# ?: \6 F" c; x, ]
,并使用自适应马氏距离定义评分函数,评分函数如表1所示。通过学习距离度量Mr M_rM ( ]& I1 R6 g, g$ C4 v! `; N
r
+ g8 n5 _- I% @​        ; |; I+ H) M1 M5 v2 D4 G' I
, TransA在处理复杂关系时更加灵活。Xiao等人认为TransE及其之后的扩展模型均存在2个重要问题:1)评分函数只采用L1或L2距离,灵活性不够;2)评分函数过于简单,实体和关系向量的每一维等同考虑。为了解决这2个问题,Xiao等人提出TransA模型,将评分函数中的距离度量改用马氏距离,并为每一维学习不同的权重。对于每个三元组(h,r,t),TransA模型定义的评分函数如表1所示。其中Mr为与关系r相关的非负权值矩阵。如图4.2所示,(h1,r1,t1) ( h_1, r_1, t_1)(h
; g. |( b. d; f. C15 \# u6 |: k; r. U; k! G
​          l1 g) }5 W$ O6 ?
,r
' A! Y/ N, s, X( b; m6 _& f  n, o* B1  Q8 v5 G$ B6 A* \( ?
​        / ?$ H9 Z) x8 V: I/ `- O
,t - {9 y4 R* I5 z8 v
1, e6 L7 \; w& O
​        ( |0 o3 ~1 U: ]' J; x% r. ^
)和(h2,r2,t2) (h_2,r_2,t_2)(h ( d8 i( E9 d/ G: M& c9 s/ U
2* h# H, v( C" T7 h' f
​       
0 U3 @# ~# @! J  }3 p: ^2 J ,r
1 l6 A  O) I+ [; \& o0 d) _2, y) n9 |! j( K/ o& c! \! d7 g  E
​       
* m) h  e7 [* R% ]) t1 h ,t 2 ]7 O4 X# c- N+ T1 f) g
2/ X% @3 x' N, z7 P( t# O& w
​        # O$ K) W( r* O
)两个合法的事实三元组,t3是错误的尾实体。如果使用欧氏距离,如图4.2(a)所示,错误的实体t3会被预测出来。而如图4.2(b)所示,TransA模型通过对向量不同维度进行加权,正确的实体由于在x轴或者y轴上距离较近,从而能够被正确预测。
; {! c, |0 I2 F: B" C3 N/ p: V, D" o7 P) p! e6 l7 w  d+ D
/ U8 s1 i7 O7 d& B5 ^! E8 C( I+ P
图4.2:传统模型和TransA模型比较: y6 l) }1 F/ Y0 q
高斯嵌入模型(KG2E模型和TransG模型)4 k& T3 G, E. ^3 e) g; |& Z- m
3 Y! h, e1 H: u
KG2E模型:
0 v7 {, y1 t2 s; L" c  He等人认为,知识库中的关系和实体的语义本身具有不确定性,而过去模型中都忽略这个因素。因此,He等人提出KG2E,使用高斯分布来表示实体和关系。其中高斯分布的均值表示的是实体或关系在语义空间中的中心位置,而高斯分布的协方差则表示该实体或关系的不确定度。图4.3为KG2E模型示例,每个圆圈代表不同实体与关系的表示,它们分别与“比尔·克林顿”构成三元组,其中圆圈大小表示的是不同实体或关系的不确定度,可以看到“国籍”的不确定度远远大于其他关系。$ [6 f% m( c: c$ j; |

+ W+ {2 h7 F$ T0 Q7 H" m1 o5 n8 m7 L* j
图4.3:KG2E模型0 j9 k' g# e8 c  M4 q6 V+ J
KG2E模型将实体和关系表示为从多变量高斯分布中抽取的随机向量" h7 M2 \& M0 ~6 J3 M9 ~- Z
h~N(μh,Σh), h\sim N(μ_h,Σ_h),
( u$ v1 K9 z/ }) b( I) H( Kh~N(μ 1 \. e" {$ j6 V4 \% [0 f1 U
h
7 w9 @. [, F  O( K6 E​        ) {- e1 X, [2 ~% |. o
* }9 {$ O/ j9 k
h
. ~- W4 e$ h* K% |  Q/ N​        : M  E% }2 O, P! g! `
),
, ?7 Z- ?2 ~: }) `; @$ St~N(μt,Σt), t\sim N(μ_t,Σ_t),
# ^# H  w7 {" }3 ]# f1 Jt~N(μ 5 A5 ]* E* M; d9 ~
t  v- O7 h6 }# F7 m9 w/ P  Z  s+ z6 I
​        9 s6 _& @: G6 P8 [1 y6 A
: s2 n8 ^1 Y  I6 G& s
t
1 s  G% o: k! b​       
  x$ ?* K. ?5 E! j2 }- B ),  T# `$ u% A( _
r~N(μr,Σr), r\sim N(μ_r,Σ_r),' N5 F; A/ {& l
r~N(μ   k) f8 G" o; U, Q, f$ }& B
r
, _4 R+ X7 [5 }; a& x1 L& [9 @​        ( p& i! s/ }# Q/ W0 ?+ o5 b; q
' A. D9 {& q; o5 |, ^7 x
r' l% R6 o3 ]" U0 A2 n) |  ^
​       
: l0 O8 R) }' _2 x2 q ),: p. h$ @; k* p$ Q
* K, R, j8 v) j$ z  _4 @
  KG2E模型通过测量t-h和r这两个随机向量之间的距离来为一个事实评分,即N(μt−μh,Σt+Σh) N(μ_t-μ_h,Σ_t+Σ_h)N(μ
' c; J, a% m' l% |2 }, Zt8 p1 E' x4 i$ [+ e0 L
​       
5 o& w( [; Z/ v4 H: a! J* ` −μ
: A% @8 ?$ B5 j2 }3 zh) }2 N+ f& ^" n: d! F
​       
$ J& E: i3 b! x0 s/ D" U0 K- a: g; l; U
( ?+ ]0 C7 ]+ l8 d8 n( ^t, x. Z, y( Y, ~4 H
​        % o" L$ g3 n5 D. E0 B
5 l$ [! v! {- i  m5 t) i
h
1 P4 d. I# @4 \- e* a! H! {​        ! p" ?9 C- q1 v# d- B5 I
)和N(μr,Σr) N(μ_r,Σ_r)N(μ
  W' R$ r% l& ~- |3 h+ jr
1 p+ t$ V0 V  B! b​        8 x! r2 r; T% W; l$ r
7 E4 k! F1 T; B4 z
r
% M3 c, C0 U) `+ U2 d+ {7 K​       
5 d, y! v3 _6 _% ~1 l3 y )这两个分布。通过2种方法来进行测量。一种是通过KL散度(KL距离)来进行测量即:
- y  q" j8 f. Q2 l) V( a5 rfr(h,t)=−∫(Nx(μt−μh,Σt+Σh)lnNx(μt−μh,Σt+Σh)Nx(μr,Σr)dx f_r (h,t)=-∫(N_x (μ_t-μ_h,Σ_t+Σ_h)ln \frac{N_x (μ_t-μ_h,Σ_t+Σ_h )}{N_x (μ_r,Σ_r )}        dx# u. x8 x" j$ i
f
' B. e0 ]0 p0 _! m. X3 n, @; I9 u' Tr
, r: L. g' B- r2 s! K) U5 k​       
  x1 I9 k4 ]3 J0 O# s (h,t)=−∫(N
6 S7 j* ^% j1 P8 B( @* |- lx
- T$ R5 v1 p* x; B# _​        8 q8 \8 |6 C8 d3 k) b

' |/ K* [5 ]- o( C3 S2 h; J' it: u) s7 A/ C! n/ E- B
​        + y2 {. H9 C9 H3 A& Q  H  h
−μ
* e+ X! g8 r( g/ C8 qh9 q/ o5 S0 B% R% F+ m
​       
0 ~& b  }7 ]3 p; I6 O$ d1 o1 [/ k: z5 H# Z5 K- _
t' {, ?* R, Q  H
​       
# M% \; \, X9 y- e- [' \% [1 ]
- W( h/ R1 \3 i2 `% f, Y7 ]- ~h
; c* x6 W! [, q& H8 i, H7 K, h​        / ]& K! {5 N' s+ w
)ln ) v1 G8 t0 q3 H& T
N
. n* W0 t5 P: ex
# [. Q& [  i, c- R. o& \​       
  i/ _/ Z. W! X3 x* Z# @6 z" [: x4 c6 d
r+ N" s. e4 x4 D# e9 w" t9 K: v7 L
​        ; n0 e$ c1 \; E" A; C

! L0 @  a3 L, ^2 n, Mr
( h! g$ O7 j0 c- x​       
: n& E. q9 {3 x5 v/ `" M7 c/ n )( S) F2 ?1 `: R6 v9 M
N
# d: S: l4 O: ix
; S/ E+ W" @6 Z1 t+ B8 o​        3 e5 d, j0 D" a4 Z5 T

  y+ x/ ?" r( r& Q" D; q- z3 e, z* lt
3 H' j8 c6 B  @% @8 N# h1 C$ |​       
# R. |* q' `' w3 R −μ & y3 i8 j( |1 E2 X; b
h, J, c$ i0 u( Q- d" I
​       
# }( c6 @+ Z. h
1 ?2 p$ Y, C+ {. Z6 ^0 E) y' T# [$ Lt
- k3 s- c( ?, i4 `' q% X​        # \) W8 U0 g! z6 V) w

- \0 {  `- I( C& F( Kh; X" }' r7 O- Q/ e" C& m
​        5 g% n5 g+ S9 S- U: t4 D# L; X% W
)
- Z/ V' x% H& V3 ]​       
' z4 ?; P2 Z. e  [+ }% H dx- {2 d9 z' p; ]8 ~+ {$ D0 {* G
∝−tr(Σ−1r(Σt+Σh))−μTΣ−1rμ−lndet(Σr)det(Σt+Σh) ∝-tr(Σ_r^{-1} (Σ_t+Σ_h ))-μ^T Σ_r^{-1} μ-ln \frac{det⁡(Σ_r)}{det⁡(Σ_t+Σ_h)}
# s$ L8 q$ ^9 Q3 u∝−tr(Σ
" c9 k9 U* K  \1 f$ r% ]r
$ W2 ^0 Z6 q, d% U−1
8 K+ }% n' x/ O+ S( v8 B​        : t/ @2 F: M9 B3 }) ]

5 |9 F2 o/ Q" x: v  n; Yt
, s4 U; V8 u) M+ P* Z# x& N​        6 D& x/ I* v  e( S1 i- ^

) S$ b& L, n& F  xh
0 C. c+ O5 X3 A0 h3 O! x6 O# ^​        / @5 s# Q; t6 D8 [5 f% [2 |. C3 b
))−μ
' g% B; H  z% J" Z0 l" |T8 T) G& r! q( J
Σ 5 k- v3 u: D5 H, r; x
r
3 W7 ~% L' X7 v9 X. U0 N" _−1" T* D2 g) Y( Z5 b9 }' P% x+ t$ w
​       
" z1 T. u8 D% F1 h% y μ−ln " m' i* D. d& p
det⁡(Σ
) u+ {0 b4 d0 N# x, Mt
  Z; S: d' E- U& q8 y! B. g9 _* f​       
0 H8 v# C/ x* H3 N/ p
  m5 I( m8 M1 M& s/ ~0 `7 f; {$ ~. r7 wh
% f/ U5 p+ {2 {% U, B​        4 _0 X% q9 l$ n" A  x. X
)' M! I- T; U+ g! t
det⁡(Σ % B9 R$ f6 b* O: V  F* p
r) r$ t4 I$ j' {) P- f
​       
! `- B# B% G3 y1 @2 Q! ~5 D& ] )
% N2 C) K  I+ N5 z) g4 C/ H​       
. r6 m! c8 R; d5 g! }% b  F6 N) h. n
另一种方法是计算概率的内积,即:
# x% u1 {, Y) a! `) e- \fr(h,t)=∫(Nx(μt−μh,Σt+Σh)⋅Nx(μr,Σr)dx f_r (h,t)=∫(N_x (μ_t-μ_h,Σ_t+Σ_h )\cdot N_x (μ_r,Σ_r )dx
+ Z& o3 O7 s5 g: o! @, Hf ) u" B' v0 B9 m3 o! [% e: U
r0 W5 Z- u" J# H/ n/ n
​        % f0 U; `4 c& m, I  E% @- L& v; }4 b
(h,t)=∫(N
( q( Y1 S4 x* @' ^) Ux
. M' x5 n% r* x& y​       
% g: d8 c& C0 f* @& p( \' I
6 ?7 L: t& B9 [  c+ h6 ft& R  ]! P; F4 N2 V3 s2 C
​       
9 O4 y( S1 ]3 F% Q −μ
$ b  U! a) ?2 {1 {6 Rh5 e, O9 @9 ~& W& x# }
​       
- ^5 U7 e, ^, |, b- I( H
6 [1 G- n# a/ E3 Tt
: f/ M" T$ D& I3 r/ ?9 ^​        / k% p# \; I% S# E# I; L" K

9 L; ]" M1 s; }. `) fh3 X/ s. E3 f2 J. c
​        - K' k( }  @5 H1 J  l
)⋅N
6 D/ a. d8 A2 s' Q( `# ~, j) R' x8 Ux( a) s6 u+ u- U( U
​       
# V% r( \2 J3 C! P  k1 a  t, y+ ^% C( W' r, _( I
r
6 G6 z4 g8 B' p5 x0 V9 A$ d, m​          Z! n5 r, ^; g0 ?

; V( F" w- N% }* O3 [r- P% u* I# y0 b, j
​       
# E$ q/ g  W( z6 @2 h/ h  X )dx8 a- c- x5 g0 s$ J+ A) R8 F% \+ q
∝−μTΣ−1rμ−ln(det(Σ)) ∝-μ^T Σ_r^{-1} μ-ln⁡(det⁡(Σ))
5 m5 x2 V* V6 U- F$ O; o: `1 F∝−μ # m4 V* z, N. A4 f
T
: W6 q$ ^$ L! h0 \  o0 X' v Σ
/ a$ m. W: z! B) J3 G. Z6 gr
, c, W- s% j5 Y. j' A; H−1
+ _* g1 ~" A8 G5 D​       
, x. k6 l4 R  K) }# ^ μ−ln⁡(det⁡(Σ))
& E: Z0 n; i8 YKG2E可以有效地对KGs中实体和关系的不确定性进行建模。) U# a1 C. d) r2 x# I1 P9 O

# n4 I3 v+ [7 y$ l0 GTransG模型:: L0 `4 |* P2 b" @' ?
  TransG提出使用高斯混合模型描述头、尾实体之间的关系.该模型认为,一个关系会对应多种语义,每种语义用一个高斯分布来刻画,即:3 p  |" Y5 A% H+ M& W
r=∑iπirμir,μir~N(μt−μh,(σ2h+σ2t)I) r=∑_iπ_r^i μ_r^i , μ_r^i\sim N(μ_t-μ_h,(σ_h^2+σ_t^2)I)
# x3 ^9 H* G) ]- H5 {9 sr= 7 B( H2 B: n0 Z6 P3 \
i+ r: C2 r9 r3 ]/ S& q& y
- U& X9 C; e" t. ~
​        6 o. L6 A7 v" z6 \$ A
π
( `; v) |2 }( b& xr/ E: z' }9 S+ o- A) ^. J* d9 s
i
- W' C4 J4 X1 A; q1 _- F% K$ l5 v6 a​        " r0 F) H1 n# v* K& V+ c
μ
" }) y* n7 ?$ _9 hr7 V; f" Y- x8 T1 a
i, y* d1 p+ D2 M, z+ U
​       
. z  H3 \. D0 p$ s3 y4 L$ ]
6 T: h0 Z$ B% \: Or& \* R: J$ g- U9 Z; \- w: y
i
( u$ L( n4 [. A# b; K) R5 Z  ?​        1 l0 S) o. y. t+ }7 |* c
~N(μ 9 y! J. A; f- L' I" H0 z
t
5 w! }6 N* A3 U5 n0 w. _. E​        % S7 }2 N: W- j: l& i+ i
−μ
% M3 o# @5 A# S! r5 a6 x7 sh; X; b% k+ v4 _3 z' T5 n: o
​       
' r5 n+ O% p* r6 ^) L% F/ Y6 d6 r ,(σ
5 d& `( n7 y' s/ u! U8 g# th
/ V; q9 M3 s! \6 R2; t3 C3 `, ?$ Y5 |" n
​        6 Q, Q0 S5 c6 F
8 ~8 M( p' Z+ ]0 _" y3 I
t
. R& R8 H' e2 m: N% q20 J% n4 h- M4 f( C. G* c
​       
' O, R3 e% Z& {4 f$ ?3 a )I)$ R" P. D5 Y# s2 h" m% o! g
评分函数如表1所示。从评分函数公式可以看出,哪一种平移距离的混合是由关系的不同语义引入的,由关系的不同语义引入。这些语义组合可以通过CRP从数据中自动学习。2 j1 L' X7 X! A, @) s

) m: p' H; j7 {表1:平移距离模型总结5 w7 ^  G. T3 \! ^, Y
0 o; A$ W6 w; l5 L
3 b- P9 \! |( Q' n/ l
4.3.2 基于语义的匹配模型:使用基于相似度的评分函数。* E6 K! |8 {% R2 `& H) z3 s8 }. W
; b/ ?3 z+ m# }9 V
  它们通过匹配实体的潜在语义和向量空间表示中包含的关系来度量事实的可信性。: s/ b3 |0 |$ g4 X% X
% J& ~/ ~0 v" T' Z8 ^8 U# v$ v
RESCAL模型:; a3 a+ S2 L$ ^8 g
  RESCAL(又称双线性模型)通过使用一个向量表示每个实体来获得它的潜在语义。每个关系都表示为一个矩阵,该矩阵对潜在因素之间的成对交互作用进行了建模。它把事实(h,r,t)评分函数定义为一个双线性函数如表2所示。其中h,t表示头尾实体,Mr M_rM + B5 E1 B1 K* r) e1 N, d. q9 |, u0 @
r0 U7 q! `6 k+ W; ~
​        9 K/ X" A6 E4 O* C9 A9 r- U. x
表示关系矩阵。这个分数可以得到 h 和 t 的所有组成部分之间成对的相互作用(也见图5a),对于每个关系都有O(d2) O(d^2)O(d
6 @2 ?( r1 H5 }' _4 D2$ g" j+ `0 @2 ~. J) Y& \. T: W
)个参数。进一步假设对所有的Mr M_rM
$ ~5 v+ W( s/ e# pr' `' k/ W+ C9 k6 F( H3 O
​        2 d) v5 s" X- f$ Q( C
在一组普通的秩-1矩阵上进行分解,即
7 w- r. E, X1 t; Y3 OMr=∑iπiruivTi M_r=∑_iπ_r^i u_i v_i^T; _% c6 ^2 M) u+ ~1 l% }- [3 @9 @
M : @% ~6 l0 s  s0 j
r7 p% j- }8 |4 \; }7 L0 `
​        . {9 |8 J4 \4 O# [" p0 p( l$ Y
=
. l* N9 R$ e  u0 M8 @& Ci: D- N: @! u6 Z. p4 L/ S2 m) F# I

0 L  ~2 d6 g* y. j​        7 s" z( j9 H/ X/ ~& G
π ) m9 C5 O# L1 f% \* E% |! R
r
3 H& Y: M. R4 O1 {- p: M9 Oi
2 [6 E% k$ n! y0 Q8 z" W​        # n: D8 h+ D& R" k+ i, ~# P
u / N- t, {: X7 e+ u2 J
i
, Z# C& |+ Z' L​       
1 N' u7 L5 e' b1 o( f4 t) v( U v ) }% \+ i3 W4 W0 j5 R
i
# F& e( u4 o1 Q4 Q- t* @9 G' `T
, V5 d' u: y% g1 M' l​        ! Y6 ?; p0 w/ J7 M
4 U/ ~9 y3 O5 D. u1 P4 f
  TATEC不仅对三向交互h^T M_r t进行建模,还对双向交互(如实体与关系之间的交互)进行建模。评分函数如表2所示,其中D是所有不同关系共享的对角矩阵。
0 H2 s" r9 u: V# n5 R- _
/ |- r2 c) @: g+ }/ ?DistMult模型:6 k- }/ Y$ a( Q! N
  DistMult通过将Mr限制为对角矩阵来简化RESCAL。对于每一个关系r,它都引入一个向量嵌入r,并要求Mr=diag(r) M_r=diag(r)M ! W  Q* I+ x! H% m
r
6 X' v& N" R: U& h6 F8 r​        ; J) D6 g7 s" K& V+ ^- |; K
=diag(r),评分函数如表2所示。评分函数只捕获沿同一维度的h和t分量之间的成对交互作用(参阅图4.4(b)),并将每一个关系的参数数量减少至O(d)。然而,因为对于任意的h和t,hTdiag(r)t=tTdiag(r)h h^T diag(r)t=t^T diag(r)hh ; F! ^1 }0 `& p0 p: s
T5 L6 u0 M1 n: [+ x
diag(r)t=t
( |5 f- r$ _8 y$ d0 OT
. T! L; e9 A) A" c- y8 ] diag(r)h都是成立的,这种过度简化的模型只能处理对称的关系,这显然对于一般的KGs是不能完全适用的。  M2 }) f; a8 b' B$ e. Z

8 T' z0 M  i) n* V, oHolE模型:+ y! [+ ]$ R, i; k) A+ A
  HolE将RESCAL的表达能力与DistMult的效率和简单性相结合。它把实体和关系都表示为Rd中的向量。给定一个事实(h,r,t),首先使用循环相关操作将实体表示形式组成h∗t∈R h*t∈Rh∗t∈R.
4 r2 A) h& _& d[h⋆t]i=∑d−1k=0[h]k⋅[t](k+i)modd. [h⋆t]_i=∑_{k=0}^{d-1}[h]_k\cdot [t]_{(k+i) mod d}.
& Q% c5 P6 K0 e[h⋆t]
( B* M1 c: m% o+ h3 y  ~* c/ r( li
+ K4 h/ @) C' J% P: c- F6 \​        0 n; D; M* ~0 Q# G& Y
= 5 q( a' X: l5 x# F; e
k=0
% u2 o0 c' }0 v5 z2 ~2 O8 K- R  S! |, B9 E" J5 V: x4 I4 i# `
d−1- ?" [$ O6 t3 W1 F( ]/ S
​       
0 E; k5 t4 q+ C0 @$ I1 O [h]
" ]! q: Z9 w# ^# z+ Ek
1 G0 a$ ?# k+ L& B# h% Z​       
4 j8 Z. z# k, C8 I, ]0 l7 T ⋅[t] 0 h" a7 Z- |( ~2 k9 E7 z
(k+i)modd9 ~! y$ ^+ n1 r8 o3 W+ I
​       
. B& K/ C8 w( Y! W8 s, `' Z .; ~) e: O4 z/ o8 R
  循环相关对成对的相互作用进行压缩(参见图4.4©)。因此,HolE对每个关系只需要O(d)参数,这比RESCAL更有效。与此同时,因为循环相关是不符合交换律的,即h⋆t不等于t⋆h。所以HolE能够像RESCAL那样对不对称关系进行建模。+ N% w$ g& |7 J0 M# G& V

% Z- e# A  K9 f" u+ E1 H" H: C图4.4:RESCAL、DistMult、HolE的简单图解! }: j& P9 ]7 h& ?
ComplEx模型:0 l6 R. F. ~, G! r* D
  ComplEx通过引入复值嵌入来扩展DistMult,以便更好地对非对称关系进行建模。在ComplEx中,实体和关系嵌入h,r, t不再存在于实空间中,而是存在于复空间中。定义事实的评分函数为:
. e0 ?. r& ^/ F% vfr(h,t)=Re(hTdiag(r)tˉ)=Re(∑d−1i=0[r]i⋅[h]i⋅[tˉ]i) f_r (h,t)=Re(h^Tdiag(r)\bar{t})=Re(\sum_{i=0}^{d-1}[r]_i\cdot [h]i\cdot [\bar{t}]_i)% a/ ^! l6 o$ B, K. f0 E2 p
f
/ c/ R3 J- P& X: xr
/ J' T8 [$ K9 _  s0 X​       
" P5 t1 F& ?3 p4 Q9 Y2 a3 ?- u; k (h,t)=Re(h 0 Q- I  i! N7 K( o. {
T
& j; S! a4 D; S# Z. [. Q. I. E diag(r)
4 }9 L( g, W/ lt
" b0 D9 H  o6 T! `* \ˉ
% A& R6 y' [3 h) x$ G )=Re( ( t: i, w' ~' ?
i=0
0 f9 x. }! Z; J& G9 Y' U" w
' U1 @- b3 R& x, ?8 C; nd−11 `& d1 Q' ]; u& U6 D
​       
& Y; L0 B( b: t7 J/ W [r]
5 I  u6 d, c/ @+ Yi
( }, F4 z$ Q* v/ _% U9 k, C+ l( h& e: D​        5 C  Y7 y/ D+ b: q' F! k
⋅[h]i⋅[ 3 T. U" X. O! J$ k; `) q+ {
t
- `8 {! l# l( i) H9 Y* tˉ  v3 [0 K* U) y0 O. s. N3 Y
]
. m# D4 m  \0 L( Yi1 J' g% C) N# J5 |0 D& r7 @
​       
, l% H  G' c, K$ X9 F/ E1 V ): G( _) Q/ S- m- c
  这个评分函数不再是对称的,来自非对称关系的事实可以根据涉及实体的顺序得到不同的分数。最近的研究表明,每个ComplEx都有一个等价的HolE,反之,是在嵌入上施加共轭对称ComplEx包含HolE的特殊情况。
& \8 c0 m( D( E' L. i* }" G; Q3 l8 c
ANALOGY模型:% ]0 m0 r# S7 ~( l1 J2 h- E
  ANALOGY 扩展了RESCAL,从而进一步对实体和关系的类比属性进行建模,例如,AlfredHitchcock之于Psycho,正如JamesCameron之于Avatar。它遵循RESCAL并使用双线性评分函数如表2所示。其中,h,t是对于实体的嵌入向量,Mr是一个与关系相关的线性映。为了对类比结构进行建模,它进一步要求关系线性映射是正规的和符合交换律,即:
. P3 ?8 }: r) u  J6 lnormality:MrMTr=MTrMr,∀r∈IR; normality: M_r M_r^T=M_r^T M_r,∀_r∈IR;
  p$ V# R8 M5 U7 L, cnormality:M
  ]6 _1 q6 o& j+ sr
# i& A& h! X; l" X0 f​        ' u, y3 o& @, b  i4 K- `
M
7 l  X+ I$ }+ T3 a9 zr8 @: i" Q2 q/ l/ t+ k" w5 G1 Y
T
6 H& X' }* c! H7 Z  t' ?/ Q​       
  }/ F9 x& T# G* U* [ =M 5 f. w# k7 T1 i. f4 ~' W/ V2 I
r: N3 a3 `/ g8 ^
T/ i( W. a! _& u  g, ~% V5 c: d) z
​       
& e; u- v' P" r# S M 1 q& l0 s" s/ Z  X2 }% g
r
- t0 [# `, [' K5 u! a: x3 q2 N​       
9 Z8 o/ e% b5 O/ p! g2 ` ,∀   `: i' b' s! c
r) }: s$ K* H) G: T& S) m) ]
​       
- l+ F  E7 n* L, E( t ∈IR;) J) d4 I0 A* `5 j
commutaivity:MrMr′=Mr′Mr,∀r,r′∈IR commutaivity:M_r M_{{r}'}=M_{{r}'}M_r,∀_{r,{r}' }∈IR2 L, [, Y0 z2 u. j
commutaivity:M $ h# U  |2 L6 g8 o! C
r3 g7 S9 j% r+ |% i: Y
​        : r, J6 x& y" |5 \3 o
M
1 f. a% I6 |* X2 a" U/ |2 Cr 3 k, ]' P) U+ ?8 j' Y  _2 ?' D) i

: Y4 U. w7 a: o' u: t5 q
* u" H: g) w' q0 R6 y  `. H3 B0 y​       
( `" F+ x' u. u( B =M
( U$ X9 d8 |7 p8 p1 |( V& Tr
9 @6 n1 H$ p0 D+ c
' H9 d1 z# W( E# z( T: s9 A% L
2 ], C, w. L" I& R* q! z) W​        * C  ~6 P! R+ a* q
M ) U) C" G' m) B: y9 t
r
8 _7 Q- C7 e/ R" ^9 m4 k6 t​       
7 V6 n! A. R0 Y0 I) c3 s- q! T/ |4 { ,∀
. x& e" {4 X1 {% e  V' p3 Mr,r : j* Y* W/ @' W7 p  V9 b  A
( s& A; Z% f  R& d/ E: v! u$ g$ y$ l" o

; M+ i" z$ M: W# V$ }( `( w3 O2 q​       
+ o0 V- s' `8 T: U ∈IR- C: i2 f! D9 P; U# f/ ?/ D
  尽管ANALOGY表示关系为矩阵,这些矩阵可以同时对角化成一组稀疏的准对角矩阵,由每个只有O(d)自由参数。结果表明,前面介绍的DistMult、HolE、ComplEx等方法都可以归为ANALOGY的特例。
, N2 |3 u" Y6 ^6 `6 J7 Z
3 \9 |5 Y' f7 G. w) O2 |基于神经网络匹配
1 s+ ~5 t) u, T/ u
$ E- |9 J4 P5 K" G1 `+ @" T0 ]语义匹配能量模型(SME):
5 D% S) [  A4 b7 L$ w# ?& \6 g: d+ G* N8 N$ B5 z* h# {
  SME采用神经网络结构进行语义匹配。给定一个事实三元组(h,r,t),它首先将实体和关系投影到输入层中的嵌入向量。然后,将关系r与头实体h组合得到gu(h,r) g_u(h,r)g
0 ]/ g) J5 z+ Z) D% }u
$ E. R; O4 W% @5 e& t8 g0 {/ z​       
  l& c( a) M$ B1 X (h,r),并与尾实体t组合,得到隐藏层中的gv(t,r) g_v(t,r)g
  y% l8 h9 m2 t: K! ?v
. l9 [1 l; ~# H: |0 @  M# N* ^​       
4 K: s) @- a; i3 G (t,r)。则该事实的分数最终由它们的点积定义为匹配的gu g_ug $ G4 S" z' ~& m2 c' x
u6 {5 @$ x6 F+ d0 x8 U( V6 n/ w# ?6 z* G
​       
& p& a9 W% ]$ f! H! N0 W7 j  a 和gv g_vg
0 M* }, j, S' L- K4 ~v0 U" @& U4 U3 W! `/ `8 m
​        9 `! K9 J  j' f6 {: V
。即:
- Q& S! p1 ~" t& r! wfr(h,t)=gu(h,r)Tgv(t,r) f_r (h,t)=g_u (h,r)^T g_v (t,r)
: t' V) f! ~6 N3 M6 A' `f 8 j3 A/ @, C! ~2 l, V
r2 X6 ?; u0 Y; f' J4 A! T
​        & H5 c9 P5 {( s" R" ]0 f
(h,t)=g
2 d7 D& `5 G% b: i. w  fu
* a( H9 f- M' a( ^: n​       
1 _6 D: H) ~1 Q# F' Y4 n$ h1 |* v! k (h,r) 7 Z, l; E& d2 S2 Z8 r) `4 L. j
T  {, N9 N4 m  ]1 K, U
g
- O8 V, Q9 ^! ]4 t5 H) ^* S, w; ?v3 a# W4 i& V+ g% P& \9 L+ Y6 A
​        ( a& v9 u  P# U5 z& @2 G+ `" B
(t,r)+ T6 m3 A: V" y& H/ ]- A' m! I& m

3 p) B  x! ~: G/ Q5 h, ]神经张量网络模型(NTN):
5 D+ K* v' |; r! C* F2 \! ]% u- s5 Z
0 `5 a% F1 ]" }; X/ H- f! u  NTN是另外一种神经网络结构,给定一个事实,它首先将实体投影到输入层中的嵌入向量。然后,将这两个实体h,t由关系特有的张量Mr(以及其他参数)组合,并映射到一个非线性隐藏层。最后,一个特定于关系的线性输出层给出了评分,即:  d6 y# T" m" s8 E1 ~
fr(h,t)=rTtanh(hTMˉˉˉˉrt+M1rh+M2rt+br) f_r (h,t)=r^T tanh⁡(h^T\underline{M}_r t+M_r^1 h+M_r^2 t+b_r)
5 [. u: J+ Z4 G( o& S, T6 Af
$ |( m# j0 e. t0 {7 ir/ e; t- _) v8 c0 g9 y
​        ; E* A) }- {4 c1 Y9 t
(h,t)=r
$ }. K5 o% X+ s3 sT
3 G! ?0 g' I- p5 Z+ p+ ]: r1 H) _ tanh⁡(h
$ Y$ p4 ^, |1 ^% p- ^0 F& sT
2 U& Y. N  R6 D0 K0 [$ E+ B
; l: p8 A: b+ u! o1 d& M2 p  PM
# P* O& p8 l6 V! r9 }​       
& a8 s, B! Z8 \6 l) A, J) T, b7 m% Y/ d. z2 O2 y5 `& g( h
r& r- K$ r( F, L0 R
​       
/ ]0 K  Z0 ]6 M) {, K: l  o+ W, k' X t+M 5 c+ n+ y2 c' h0 P+ R
r* X2 [; N2 X7 [2 `. Q* {) g' V
1
1 H' x; v) H, I0 ^" @1 n​        7 r/ I, I# P' `  Y* ]( `' F
h+M 2 ?4 b, Y. l9 w6 _2 b
r  c8 q2 E, b7 ~6 n' h* L" s
2* M5 ~, r! q* J: E7 l4 g- P
​       
8 o& o, v0 e5 F0 C; A) |  s4 M t+b 2 a1 i2 y5 N1 ^; t2 D
r+ V4 z3 F6 P" v
​        1 `. q. B* H5 N
)
& _' F& M: ]' d# o2 ?0 `  通过设置所有Mr=0和br= 0,NTN退化为单层模型(SLM)。尽管NTN是迄今为止最具表达能力的模型,但是,由于它的每个关系的需要O(d2k)个参数,并且不能简单有效地处理大型的KGs。3 s$ h* i. ~$ S% ~6 K$ J

$ V6 k$ O  C: ~; |3 }; e多层感知机(MLP):7 d; _# l' R0 X, O4 z8 {2 A) @

6 _- q0 T) v, l- z! E$ c  MLP是一种更简单的方法,在这种方法中,每个关系(以及实体)都是由一个向量组合而成的。如图6(c)所示,给定一个事实(h,r,t)将嵌入向量h、r和t连接在输入层中,并映射到非线性的隐藏层。然后由线性输出层生成分数,即:
+ C  g. v3 p; Qfr(h,t)=wTtanh(M1h+M2r+M3t) f_r (h,t)=w^T tanh(M^1 h+M^2 r+M^3 t): O" S9 `( @7 r3 ~+ e! i5 m% ~4 o5 M
f   P$ v+ u/ m- P  `" a
r; \3 S( T% P( D: e  h7 Q* u6 m6 O
​       
. K. t, p: m( u/ E/ t* e4 t! H (h,t)=w
# R* |( Q& ?0 s" Y% `' kT
$ W' l+ v! Q) L3 |' \ tanh(M
( K3 y8 k" e% P- E# D1
8 X/ Y' r# a' W* v/ u! x h+M 7 {) J. i% I1 r/ K1 A
2* Z( W6 C" E: n- [1 [9 J, w
r+M * ^, E$ s5 M0 B: l  g  k2 {* Q9 W
33 L# Z! |( d  u9 I
t), p2 M$ z2 Y& h# H
8 c: h6 Z* S& Z- d5 x
神经关联模型(NAM):
" z* J$ L) b/ v# }7 p5 I0 T2 X7 T, g9 v2 ]* a
  NAM使用“深度”架构进行语义匹配,给定一个事实,它首先将头实体的嵌入向量和输入层中的关系连接起来,从而给出z_0=[h,r]。然后输入z_0输入到一个由L个线性隐层组成的深神经网络中,即:, w7 O( [- s; x/ D
a((l))=M(l)z(l−1)+b(l),l=1,…,L, a^((l))=M^{(l)} z^{(l-1)}+b^{(l)},l=1,…,L,
) n4 P1 w& z4 V- V8 z; Q! `a / T9 p1 ]5 ?/ t/ t/ V
(
% e. _4 K0 y7 f6 F  ]3 g8 M (l))=M . u/ D) N% k- S6 f% k3 U
(l)9 z% C" a2 n" r, A2 G7 f
z
, I/ o% D' r% M* B: H(l−1): l/ ~" w( q2 u6 R" |
+b
* I9 c, b8 {2 z) _; I- O5 w(l)& N5 ?6 {7 R' N5 z! N. u* q, X' _
,l=1,…,L,, Z! F0 g! o. H
z(l)=ReLU(a(l)),l=1,…,L, z^{(l)}=ReLU(a^{(l)} ), l=1,…,L,
% l7 ?; o/ o: az 0 \# z% n9 K+ E& B4 a1 q8 {
(l)+ m7 e' ~' A7 y4 L3 t3 s
=ReLU(a
: _9 j' o" [1 J7 ]$ D* C(l)
" g* h6 E! U+ L6 r ),l=1,…,L,
& d; d+ Z; P& ^% p" P4 l3 q# a  在前馈过程之后,通过匹配最后一个隐藏层的输出和尾实体的嵌入向量来给出分数,即:& `& q, b9 l/ _2 n
fr(h,t)=tTz(L) f_r (h,t)=t^T z^{(L)}2 J! V$ T) i! {( }" b
f 1 R' ^( r7 t/ x1 S* j! W) e2 A/ Z" a
r2 C" P* Y# F8 F% F
​       
* ^% L- @3 A! P1 O6 O9 ^- b (h,t)=t
/ m0 }- H# F% gT: z: y& g5 Q$ O) m* O* w3 c
z 4 e5 J8 w( G% t* M: |
(L)$ p" ^2 w, d/ L  T5 s; n: Q

" O% E; w2 K. n9 ?$ E+ V- |
! m0 I- O- u9 k+ m, `5 B4 @1 r- U
; g3 W) G+ J+ E- n$ P. c. N& R图4.5:SME、NTN、MLP和NAM的简单图解
0 {* S, ^$ w: R% `# v( O8 p
8 D, b6 H  d  z0 }, H0 g( o表2 语义匹配模型总结
. L( b0 [" v( O. o# b0 p# n! l
% e! ?! ^" L' r3 N& @" H4 y6 f7 U  T$ I6 W2 o
5. 结合知识图谱特征学习的推荐系统# ?( F1 ^% d% m* c- }/ w* V9 F! v
5 V4 b# {6 @' I& r( b3 I# q
  知识图谱特征学习与推荐系统相结合,往往有以下几种方式:依次训练、联合训练、交替训练。
6 d) W/ c; D$ h- [$ \" {& P* Z5 d% V, B6 J5 P
/ h- D/ f( w5 I* L/ J2 n+ i
图5.1:知识图谱特征学习2 L: c1 }# r3 z, h) @4 O6 l
5.1        依次训练
! m, r* [$ s7 y: Z0 ^9 k/ ?2 |
论文名称:DKN: Deep Knowledge-Aware Network for News Recommendation$ R; B; J# j  P2 u+ Q
  在线新闻推荐系统旨在解决新闻信息爆炸(文章的数量对用户来说是压倒性的)和为用户制定个性化推荐。新闻推荐是高度浓缩的,充满了知识实体和常识,但是以往的模型却较少考虑新闻包含的外部知识,仅仅从语义层面(semantic level)进行表示学习,没有充分挖掘新闻文本在知识层面(knowledge level)的联系。此外,新闻具有很强的时效性,一个好的新闻推荐算法应该能随用户的兴趣的改变做出相应的变化。为解决上述问题,本文提出了DKN模型。首先使用一种融合了知识的卷积神经网络KCNN(knowledge-aware convolutional neural network),将新闻的语义表示与知识表示融合起来形成新的嵌入表示,再建立从用户的新闻点击历史到候选新闻的注意力机制,选出得分较高的新闻推荐给用户。并且在真实的线上新闻数据集上做了大量的实验,实验结果表示,DKN模型在F1-score,AUC等指标上超过了现有的基线模型。
8 l9 d# m; o. S# q  DKN解决了新闻推荐中的三大挑战:(1)与协同过滤等基于身份的方法不同,DKN是一种基于内容的点击率预测深度模型,适合于时间敏感度较高的新闻。(2) 为了充分利用新闻内容中的知识实体和常识,我们在DKN中设计了一个KCNN模块,共同学习新闻的语义层和知识层表示。单词和实体的多通道和对齐使得KCNN能够结合来自异构源的信息,并保持每个单词不同嵌入的对应关系。(3) 为了模拟用户不同的历史兴趣对当前候选新闻的不同影响,DKN使用注意模块动态计算用户的聚合历史表示。
# U! Q: q3 R$ s7 ~* _& _
/ x! F. t9 U# b5 b2 I0 w3 C! D
5 o5 g; h: _5 Y8 c7 R" c图5.2:DKN框架图
9 f2 w" R" y/ I! x; ~5.2        联合训练, `" N, U4 g% S
6 s& h& u  I* y4 c5 j
论文名称:RippleNet: Propagating User Preferences on the Knowledge Graph for Recommender Systems# m, u& Z2 c) n- C7 ?! ?+ \. g5 U
  为了解决协同过滤的稀疏性和冷启动问题,研究者通常利用社会网络或项目属性等辅助信息来提高推荐性能。本文将知识图作为边信息的来源。为了解决现有的基于嵌入和基于路径的知识图感知推荐方法的局限性,我们提出了一种端到端框架,它自然地将知识图结合到推荐系统中。与在水上传播的实际涟漪类似,RippleNet通过沿着知识图中的链接自动迭代地扩展用户的潜在兴趣,来刺激用户偏好在知识实体集上的传播。因此,由用户的历史点击项激活的多个“涟漪”被叠加以形成用户相对于候选项的偏好分布,该偏好分布可用于预测最终点击概率。通过在真实世界数据集上的大量实验,我们证明RippleNet在各种场景(包括电影、书籍和新闻推荐)中都能在多个最先进的基线上获得实质性的收益。
9 U, S. f& `* }* y( _4 ?  本文的贡献:据我们所知,这是将基于嵌入和基于路径的方法结合到KG感知推荐中的第一项工作。我们建议使用的RippleNet,这是一个端到端的框架,利用KG来帮助推荐系统。RippleNet通过在KG中迭代传播用户的偏好,自动发现用户的分层潜在兴趣。我们在三个真实的推荐场景上进行了实验,结果证明了RippleNet在几个最新基线上的有效性。1 Q* }- d  W. x* ~4 S

( ]$ s7 }4 _: f1 C$ `0 h: @6 [  |; T' J2 X2 I3 Z' X3 }/ {/ Q
图5.3:RippleNet框架图. o+ s; i$ ~/ B" @, d- i3 f! K* M
5.3        交替训练+ B( O5 R% Q5 Y  s+ P6 V- q
, y3 B* _0 S! n1 X, b& B  T( w
  在实际的推荐场景中,协同过滤往往存在稀疏性和冷启动问题,因此,研究者和工程人员通常利用辅助信息来解决这些问题,提高推荐系统的性能。本文将知识图作为辅助信息的来源。提出了一种多任务特征学习的知识图增强推荐方法MKR。MKR是一个利用知识图嵌入任务辅助推荐任务的深度端到端框架。这两个任务通过交叉和压缩单元相关联,自动共享潜在特征,学习推荐系统中项目与知识图中实体之间的高阶交互。我们证明了交叉压缩单元具有足够的多项式逼近能力,并表明MKR是推荐系统和多任务学习的几种典型方法的通用框架。通过对真实世界数据集的大量实验,我们证明MKR在电影、书籍、音乐和新闻推荐方面取得了显著的进步,超过了最新技术的基线。MKR也被证明能够保持良好的性能,即使用户项交互是稀疏的。
* p4 {7 n4 s" O9 ?  本文的贡献:本文研究的问题也可以建模为跨域推荐或转移学习,因为我们更关心推荐任务的执行情况。然而,关键的观察是,虽然跨域推荐和转移学习对于目标域只有一个目标,但是它们的损失函数仍然包含测量源域中数据分布或两个域之间相似性的约束项。在我们提出的MKR中,KGE任务明确地作为约束项,为推荐系统提供正则化。我们要强调的是,本文的主要贡献是将问题精确地建模为多任务学习:我们比跨域推荐和转移学习更进一步,理论分析和实验结果表明,发现任务间的相似性不仅有助于推荐系统,而且有助于知识图嵌入。
0 x* ^5 C: J( e# K  N/ n4 A& G+ {; m- R; v6 D8 _7 G
6 H. o5 y8 p/ V- ?& E% n8 T: ]
图5.4:MKR框架
& Y$ U6 q$ z* `* T6 I# n( n6.        结合知识图谱推荐系统的机遇与挑战+ W+ B2 X& Q& J# R) h7 u& b( I

8 I/ M! t2 G) e2 S4 Q/ ~7 I6 t* \6.1        基于知识图谱推荐的重点和难点' w) R* c6 |& M' w( P8 J! b
8 z% B. D" f' n  R* q0 m# w
  (1)对用户偏好的精准建模问题。知识图谱可以融合多源异构信息,包括丰富的用户信息及用户与项目的交互信息;如何全面考虑用户与用户、用户与项目之间的联系,进一步提高推荐的 准确度,是未来的研究重点。3 \+ T9 c$ s( l5 e: G! O+ b
  (2)对大数据的高效处理问题。由于数据生成速度快,而且多源数据融合过程中引入了更多的噪声和冗余,使得传统推荐算法中采用的精确计 算方式越来越难以应对,概率模型统计方法将可 能发挥更为重要的作用。; |" h( u2 u2 m& G$ p
  (3)推荐系统的效用评价问题。对传统推荐系 统的评价指标主要是准确度和效率,通常采用的 方法有MAE、RMSE、关联度等。这些指标当然也可以用于基于知识图谱的推荐系统,例如文献采用了准确率和召回率来表征推荐系统的准确 度。然而,由于不同领域的推荐系统面临的实际 问题不同,相应地使用了不同的数据集,使得难以形成统一的效用评价标准。' K' ?" \0 i+ H
  (4)如何通过深度挖掘和相关性知识发现提高推荐效果。由于知识图谱本身的特点,相对于因果关系挖掘,其更适合于相关关系挖掘。通过从知识图谱中深度挖掘项目之间、用户之间、以及 项目与用户间的深层次关系,获得更多的相关性 结果,有助于为用户进行个性化推荐,在提高推 荐结果多样性的同时保持较高的推荐准确性。
$ e5 [5 A9 y# r' K# f& k  (5)推荐系统的可扩展性。可扩展性一直是推荐系统应用中面临的难点问题。在传统推荐系统中,随着用户与项目数量的增加,会使得计算量显著增大。目前主要的解决方法有聚类、数据集缩减、降维等。在知识图谱中,用户之间、用户 与项目之间随时随地的信息互动会产生大规模的 数据集;将这些数据集融入知识图谱后会急剧增加计算复杂度。如何将用户之间产生的数据动态、快速地融入知识图谱并提高推荐系统的可扩 展性,是未来需要解决的难点问题。( C# e4 P" O: \0 E0 l$ x
  (6)社交网络信息的充分利用问题。传统的推荐系统假设用户之间是独立同分布的,忽略了 用户之间的社会交互及联系。知识图谱中用户与户、用户与项目、项目与项目之间都存在一定的 联系,用户不再是单一的用户需要进一步挖掘彼 此之间的联系以发现更多的隐含信息。因此结合社交网络关系也是今后的一个研究重点。
- M' C! H& X2 ]' f* q
, S1 l  R4 N, z1 ?6 m, z6.2        知识图谱现有研究的局限性# f/ b3 m+ c6 _3 H3 Y7 l7 f9 X* m

8 p5 Q) @/ t5 z. N  将推荐算法与知识图谱的图计算方法相结合已逐渐成为学术热点,前景广阔。然而现有方法仍有一定局限,有充分的研究空间。& j0 r- p/ [+ Z
  (1)现有模型都属于统计学习模型,即挖掘网络中的统计学信息并以此进行推断。一个困难但更有研究前景的方向是在网络中进行推理,将图推理与推荐系统相结合。% ~& y$ N+ U0 D8 A6 k& z, r  o: l
  (2)如何设计出性能优秀且运行效率高的算法,也是潜在的研究方向。现有模型并不涉及计算引擎层面、系统层面甚至硬件层面的考量,如何将上层算法和底层架构进行联合设计和优化,是实际应用中一个亟待研究的问题。8 Z. }. Z$ @3 H: Q' G! b7 H
  (3)现有的模型网络结构都是静态的,而在真实场景中,知识图谱具有一定的时效。如何刻画这种时间演变的网络,并在推荐时充分考虑时序信息,也值得我们未来研究。/ |* M1 `- F& K2 y* r" H6 Q. V# h
; L$ P  ~/ \/ _( f
参考文献:
, u2 h1 d) H8 ]
+ [) {% |- x% H2 i9 Q+ ]# d8 kQuan Wang, Zhendong Mao, Bin Wang, and Li Guo, 2017. Knowledge Graph Embedding: A Survey of Approaches and Applications. IEEE9 F; G1 @5 ~4 V7 G* m" u  j$ \
Hongwei Wang, Fuzheng Zhang, Xing Xie, andMinyiGuo. 2018. DKN: Deep Knowledge-Aware Network for News Recommendation. In Proceedings of the 2018 World Wide Web Conference on World Wide Web. International World Wide Web Conferences Steering Committee, 1835–1844.' G1 I( y0 F& a6 }. j- m, ~" T7 {
Hongwei Wang, Fuzheng Zhang, Jialin Wang, Miao Zhao, Wenjie Li, Xing Xie, and MinyiGuo. 2018. RippleNet: Propagating User Preferences on the Knowledge Graph for Recommender Systems. In Proceedings of the 27th ACM International Conference on Information and Knowledge Management. ACM.
, ?: s6 i* Z4 J* w+ `! KHongwei Wang, Fuzheng Zhang, MiaoZ hao, Wenjie Li, XingXie, and MinyiGuo. 2019. Multi-Task Feature Learning for Knowledge Graph Enhanced Recommendation. WWW 2019, May 13–17.' o7 w0 l; O% a7 S; }2 K# v0 b
CHANG Liang, ZHANG Weitao, GU Tianlong, et al. Review of recommendation systems based on knowledge graph[J]. CAAI transactions on intelligent systems, 2019, 14(2): 207–216.
: o# G: @: P4 |https://cloud.tencent.com/developer/article/1370084.) N: q- R0 Z- f7 F% a5 o  O
————————————————
4 x( ~- g: ^8 R1 O. G版权声明:本文为CSDN博主「lisa丶」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
( g8 T3 F6 N+ G7 s0 h原文链接:https://blog.csdn.net/weixin_42341986/article/details/1057733764 t! _. Z8 E# ^
' O8 n. ?  E1 V/ k# J& q
% ^; {% G6 W5 R0 T8 K' F





欢迎光临 数学建模社区-数学中国 (http://www.madio.net/) Powered by Discuz! X2.5