' l8 e c6 m$ i! s5 f7 hANALOGY模型:& o9 t; S; ^; s" J. d
ANALOGY 扩展了RESCAL,从而进一步对实体和关系的类比属性进行建模,例如,AlfredHitchcock之于Psycho,正如JamesCameron之于Avatar。它遵循RESCAL并使用双线性评分函数如表2所示。其中,h,t是对于实体的嵌入向量,Mr是一个与关系相关的线性映。为了对类比结构进行建模,它进一步要求关系线性映射是正规的和符合交换律,即:6 N9 A b. g0 K7 t5 n
normality:MrMTr=MTrMr,∀r∈IR; normality: M_r M_r^T=M_r^T M_r,∀_r∈IR; 0 p! l0 V6 E" V' D2 q3 y. N% {normality:M 5 G1 X0 c, E4 R) C8 Kr$ Y" q4 r J" G* A
( Q9 d# d. P2 d2 j+ D9 c X
M 0 B n) }1 a& a+ wr% V4 Z4 d: Z1 t/ [" z
T ( K) G! A! k3 E7 H( R8 p, G ; i$ S1 C8 Y6 [: j! | =M ; k1 f3 ?, j0 ]( }8 tr" n* s& O& @3 H# E0 |
T ' e2 ~" S7 y0 d& N+ \+ K5 {& J @' V: \, H' s) F, x
M 1 w$ g" t7 u4 `. _7 i4 {
r / U9 [! B; _6 u& A# ` * \2 }4 K9 e7 m1 T
,∀ - S" a( s4 A: d( ~% Kr , o- T/ Q% ]' L' O" v9 X$ H# {0 w " o" j. R0 ^' k0 k5 _ ∈IR;& X1 a0 ^7 H; G: l( A
commutaivity:MrMr′=Mr′Mr,∀r,r′∈IR commutaivity:M_r M_{{r}'}=M_{{r}'}M_r,∀_{r,{r}' }∈IR 6 F( O; r& z P( N1 n6 i7 v3 ]/ scommutaivity:M ) `% D* Z5 p8 yr 9 w4 S8 N! M7 T' j6 B. m # @8 S4 E( D0 U% D; H0 l
M 9 ~9 E5 V6 ~6 e* X- W
r & F$ n! e. }5 G- M7 c′ x6 d1 U/ _) |- X! Q- k2 X/ C( J; J
4 n6 F5 Y- S9 t
=M . [& k* v; I' \2 ]r " g7 C$ p- j# x/ \6 [3 \" V! O5 k′% o$ B' ?% N; H4 X) ?7 F
" \/ e7 m. h$ m5 z& j$ G ; ]+ R, H0 M; l3 P8 ?8 t$ X% \
M ( \, @: }( w0 L4 nr6 ]- Q O5 J9 K& H# g( I0 A
9 E4 D3 i5 l+ i5 U ,∀ 2 M+ G5 m* l7 W/ w3 |
r,r & Y9 k* h! i" J/ d
′: f. p5 O4 U. w6 v6 ~; D+ B2 B
3 } n# ^1 |; N3 r( U6 M' I( e ; g* q! ]5 K" B5 t
∈IR # ]& [: v9 C* b3 f6 o3 U1 H; H1 @) b 尽管ANALOGY表示关系为矩阵,这些矩阵可以同时对角化成一组稀疏的准对角矩阵,由每个只有O(d)自由参数。结果表明,前面介绍的DistMult、HolE、ComplEx等方法都可以归为ANALOGY的特例。 % d4 {, |5 ~: ^7 n q) `! x$ P) O. ^: B! f
基于神经网络匹配 4 K9 c! b0 r6 l3 n/ G# @% z6 L) I% `+ |. z: Y0 j8 }
语义匹配能量模型(SME):7 n8 o( v4 ~+ q6 X. ?
" Y2 h& A `, h+ {/ |3 o* z
SME采用神经网络结构进行语义匹配。给定一个事实三元组(h,r,t),它首先将实体和关系投影到输入层中的嵌入向量。然后,将关系r与头实体h组合得到gu(h,r) g_u(h,r)g 9 K- |& @; R: [% I; X2 _& Y3 X5 x) [' k4 Nu - h$ U+ K5 O t: o) O 9 r4 X+ i: }( e; E, Y$ P3 ^
(h,r),并与尾实体t组合,得到隐藏层中的gv(t,r) g_v(t,r)g 0 G: j% _1 H; v9 K$ Qv , f E# L" k3 e' w / B6 t. H9 t/ O- @" W (t,r)。则该事实的分数最终由它们的点积定义为匹配的gu g_ug - J7 J( Y; f4 v# @5 a' }
u ]) y/ L& e$ T! k
/ a1 N& T9 g' a) p 和gv g_vg / c2 V3 }, k. U/ E/ y
v : }3 n0 t9 R& s5 p7 K0 S0 a 7 O9 |0 ^6 _3 F! i f9 b 。即: ' ^1 A7 g) K4 }1 ?$ O Y) G& sfr(h,t)=gu(h,r)Tgv(t,r) f_r (h,t)=g_u (h,r)^T g_v (t,r) " U5 x/ ?3 g) ]3 F3 L+ [# tf 4 B/ Z3 _6 N( h. S! {r8 i+ F! ]& A1 b: y6 k V
# s; A" w* w, B, S (h,t)=g X s* s3 O! Y1 q. Fu 8 K4 b0 v! X5 v' { / S9 x) y% s" e0 `
(h,r) 9 e7 K* Q7 T' K/ e- }3 R/ e1 n
T6 Z8 i! C9 y. i) ~4 m5 x
g 0 F5 {2 U) }# V, y3 p
v " T6 b$ E) N5 ~ $ |6 J7 ]! x7 I3 B5 \ (t,r)4 e4 r! N/ a9 B8 F& f
: L% w) }$ \0 d& [, G$ D$ y* C神经张量网络模型(NTN):7 q* B+ m$ t0 F& q1 h$ f
7 O% {& g& E9 i" s4 J$ o
NTN是另外一种神经网络结构,给定一个事实,它首先将实体投影到输入层中的嵌入向量。然后,将这两个实体h,t由关系特有的张量Mr(以及其他参数)组合,并映射到一个非线性隐藏层。最后,一个特定于关系的线性输出层给出了评分,即:9 Z. S0 Q( J9 w3 B
fr(h,t)=rTtanh(hTMˉˉˉˉrt+M1rh+M2rt+br) f_r (h,t)=r^T tanh(h^T\underline{M}_r t+M_r^1 h+M_r^2 t+b_r) % g3 q+ h. i, r/ Y" Vf ! ]2 U- M [8 t( U: }r ! \+ f8 b( I7 A 2 k' U* w6 ?& V) o0 R E% t1 c
(h,t)=r % x8 |1 N: e4 e# y/ T
T7 F9 C8 [3 M: e8 P$ H& r4 S) l
tanh(h O( Q% x+ }3 M* J
T 8 b- ?+ }, _/ f# x) m- I5 N3 \% m; n1 E
M . M# y3 X* A! P, V / l& P% `3 N! i8 T8 v
" u, C: m7 c- S9 c+ |: |. {* k2 Ar4 T" X( ]) z! W5 K$ |# X
% [/ @0 M& q. W5 m. U( ?, @4 a
t+M 8 B: b% v+ p9 s/ [
r % Y) u6 R! C5 _$ Z7 V5 {. Z6 g1 7 H/ U9 f( [% ]. g3 C2 u2 p8 k0 h ' ^6 [! y( o8 o N" I1 g( @ h+M ; T2 D! \. Y9 b4 {/ z* q
r ' k- x: ], f& G) ~: q/ d2 2 T# [8 ~- F1 z. I: N3 E7 f ! z6 b* a# a' |1 |' Y' d, F t+b $ ~3 ^, C' B: _4 n3 N( A- @r 2 {! {6 ]3 k# ^8 x, m1 X8 ^: N: i# ] $ J5 M+ n! \3 w: ^- ?2 d ) 4 |, m" L! X2 A. u& w 通过设置所有Mr=0和br= 0,NTN退化为单层模型(SLM)。尽管NTN是迄今为止最具表达能力的模型,但是,由于它的每个关系的需要O(d2k)个参数,并且不能简单有效地处理大型的KGs。 5 C9 B- a$ z, o. _1 r, h a" n8 ^$ w
多层感知机(MLP):& d. r/ X* `! d
1 o& V2 U5 V; v, E6 J4 l
MLP是一种更简单的方法,在这种方法中,每个关系(以及实体)都是由一个向量组合而成的。如图6(c)所示,给定一个事实(h,r,t)将嵌入向量h、r和t连接在输入层中,并映射到非线性的隐藏层。然后由线性输出层生成分数,即:( G/ W4 m0 R/ {# Z& P! M1 D" ]
fr(h,t)=wTtanh(M1h+M2r+M3t) f_r (h,t)=w^T tanh(M^1 h+M^2 r+M^3 t)" t' l7 y: l9 B1 V) s7 W
f 0 [" p7 E4 a- y! f+ P: N( H. s
r0 b; R( E8 h/ L1 p
) t0 R, w( Z6 x) v' J5 i. W, N (h,t)=w 1 H$ s1 r' ]. o
T- A" O( @1 }7 R' W$ n
tanh(M % |/ b$ e+ M8 }+ ]
1 % u, W& i2 \% p* D9 I& q h+M ; k9 K% G. ~1 g2 " C7 B9 v8 h( k4 J8 l r+M ( k$ g9 @" Y0 {, ~. n; I7 ]
30 b( L5 @# P4 | h' ]9 M7 r5 s+ Q
t): a! A4 Q. {, b( `6 y3 m4 N! o4 J
0 Y5 i6 @, u. t I, ]4 i" n9 k
神经关联模型(NAM):2 L% }' h2 U1 t3 H/ ?7 ]1 n* s
* z3 ^$ R6 {7 U- `. y/ B NAM使用“深度”架构进行语义匹配,给定一个事实,它首先将头实体的嵌入向量和输入层中的关系连接起来,从而给出z_0=[h,r]。然后输入z_0输入到一个由L个线性隐层组成的深神经网络中,即:* Y! t: K( w) Y( e+ l
a((l))=M(l)z(l−1)+b(l),l=1,…,L, a^((l))=M^{(l)} z^{(l-1)}+b^{(l)},l=1,…,L,' _1 X. X6 c1 @) Z$ O* I! K* n
a ! X$ f4 y/ `8 n% H3 W5 _
( / h3 N4 Y8 k) ] (l))=M 8 N1 |9 X' f( X- [! X; e(l)' L0 W6 d$ k7 c( r' F# [: K0 Q0 E
z 0 q! o5 {. l6 v" ]$ |
(l−1) + ?2 \5 a- w. \' [ +b " x" z: _, v$ l
(l)( Y% B4 Y$ a/ q6 m. G1 p# s
,l=1,…,L, 1 L% `) w$ C% r0 J' S5 g4 T8 P) Az(l)=ReLU(a(l)),l=1,…,L, z^{(l)}=ReLU(a^{(l)} ), l=1,…,L, / P5 K: ?7 O( b$ U0 N2 A3 v; lz 8 h, M ?. g) X' E
(l) 9 C/ Z) ~4 X/ b =ReLU(a . d ]+ l) I/ w# M E, |1 u
(l) 8 p, v: b) a. l' P; B- ~ ),l=1,…,L,( V6 Q* `6 b7 u, t
在前馈过程之后,通过匹配最后一个隐藏层的输出和尾实体的嵌入向量来给出分数,即: / O3 t3 z7 j! j" e1 k& N; V/ f9 Sfr(h,t)=tTz(L) f_r (h,t)=t^T z^{(L)} 1 I& v4 G9 }% N7 @0 f2 ]% ]f 1 T! @, i6 E" w; Z5 |r5 F P t4 I( {) M% ~6 {; r
! w: S6 r* p" R, C: o5 w9 l5 [6 K" p/ ]7 ^ (h,t)=t , q, H% e7 w' h. GT ( J$ f z& s* I5 d# R6 [4 M; s z - {( J$ s" k( h# O(L)6 ]) f+ `6 _ o+ B/ ~0 ^+ Q. U
7 m) t3 `# u* a" m8 y6 R . O/ {9 o2 A( X8 t0 v; s( B8 D3 r+ x% Q* x0 ?' Z
图4.5:SME、NTN、MLP和NAM的简单图解& r$ c& S& S3 p. G/ J
: v# p2 B1 G8 t9 B# X5 W表2 语义匹配模型总结 & }/ s0 \, s1 P5 l1 g & l1 x( y% O w& t- h! y ; T; g- d4 i5 ^5. 结合知识图谱特征学习的推荐系统 7 d9 U( v1 T+ W* [/ s 6 w. K' v H' f6 t" V+ A4 K0 h 知识图谱特征学习与推荐系统相结合,往往有以下几种方式:依次训练、联合训练、交替训练。! l: m% J- ^, T6 I6 O
/ e- C0 y3 w3 }. G& h
: I7 f4 h: P' ]$ k+ ]5 [2 Z图5.1:知识图谱特征学习 5 V: w K, }- l- S$ t1 X% l5.1 依次训练 ; K- P1 `7 ~; l . u! M0 F+ G G5 I% G0 s( G7 e# A论文名称:DKN: Deep Knowledge-Aware Network for News Recommendation, T! \$ T6 L! t( J% A5 \7 P( W+ M
在线新闻推荐系统旨在解决新闻信息爆炸(文章的数量对用户来说是压倒性的)和为用户制定个性化推荐。新闻推荐是高度浓缩的,充满了知识实体和常识,但是以往的模型却较少考虑新闻包含的外部知识,仅仅从语义层面(semantic level)进行表示学习,没有充分挖掘新闻文本在知识层面(knowledge level)的联系。此外,新闻具有很强的时效性,一个好的新闻推荐算法应该能随用户的兴趣的改变做出相应的变化。为解决上述问题,本文提出了DKN模型。首先使用一种融合了知识的卷积神经网络KCNN(knowledge-aware convolutional neural network),将新闻的语义表示与知识表示融合起来形成新的嵌入表示,再建立从用户的新闻点击历史到候选新闻的注意力机制,选出得分较高的新闻推荐给用户。并且在真实的线上新闻数据集上做了大量的实验,实验结果表示,DKN模型在F1-score,AUC等指标上超过了现有的基线模型。. V$ b6 Y. H8 a
DKN解决了新闻推荐中的三大挑战:(1)与协同过滤等基于身份的方法不同,DKN是一种基于内容的点击率预测深度模型,适合于时间敏感度较高的新闻。(2) 为了充分利用新闻内容中的知识实体和常识,我们在DKN中设计了一个KCNN模块,共同学习新闻的语义层和知识层表示。单词和实体的多通道和对齐使得KCNN能够结合来自异构源的信息,并保持每个单词不同嵌入的对应关系。(3) 为了模拟用户不同的历史兴趣对当前候选新闻的不同影响,DKN使用注意模块动态计算用户的聚合历史表示。4 {2 W+ w* P4 x, X2 e
8 i' U- N/ C8 n6 w) N# A$ R5 [: n9 r
& Q' k% m M" G
图5.2:DKN框架图8 j- @; F w" p& x- U: Y2 t
5.2 联合训练5 p* \( T I$ c1 ?, e6 F) y
/ V. p4 G& f, N- S) t论文名称:RippleNet: Propagating User Preferences on the Knowledge Graph for Recommender Systems 7 B# o: s% w0 ^2 [+ S4 e' H! L+ ? 为了解决协同过滤的稀疏性和冷启动问题,研究者通常利用社会网络或项目属性等辅助信息来提高推荐性能。本文将知识图作为边信息的来源。为了解决现有的基于嵌入和基于路径的知识图感知推荐方法的局限性,我们提出了一种端到端框架,它自然地将知识图结合到推荐系统中。与在水上传播的实际涟漪类似,RippleNet通过沿着知识图中的链接自动迭代地扩展用户的潜在兴趣,来刺激用户偏好在知识实体集上的传播。因此,由用户的历史点击项激活的多个“涟漪”被叠加以形成用户相对于候选项的偏好分布,该偏好分布可用于预测最终点击概率。通过在真实世界数据集上的大量实验,我们证明RippleNet在各种场景(包括电影、书籍和新闻推荐)中都能在多个最先进的基线上获得实质性的收益。 $ A+ Z7 R) x1 w. Y X 本文的贡献:据我们所知,这是将基于嵌入和基于路径的方法结合到KG感知推荐中的第一项工作。我们建议使用的RippleNet,这是一个端到端的框架,利用KG来帮助推荐系统。RippleNet通过在KG中迭代传播用户的偏好,自动发现用户的分层潜在兴趣。我们在三个真实的推荐场景上进行了实验,结果证明了RippleNet在几个最新基线上的有效性。 }$ L: f' V8 N% x
+ W( y8 O! Z! P# m: R; f8 m+ ^3 p; N8 b% d
图5.3:RippleNet框架图 ; D W7 Q. F( G* y6 Q) m- ]& G5.3 交替训练 9 O$ m3 q6 n# z9 z2 M! o( Y 1 C5 H+ n( m. k5 x) n 在实际的推荐场景中,协同过滤往往存在稀疏性和冷启动问题,因此,研究者和工程人员通常利用辅助信息来解决这些问题,提高推荐系统的性能。本文将知识图作为辅助信息的来源。提出了一种多任务特征学习的知识图增强推荐方法MKR。MKR是一个利用知识图嵌入任务辅助推荐任务的深度端到端框架。这两个任务通过交叉和压缩单元相关联,自动共享潜在特征,学习推荐系统中项目与知识图中实体之间的高阶交互。我们证明了交叉压缩单元具有足够的多项式逼近能力,并表明MKR是推荐系统和多任务学习的几种典型方法的通用框架。通过对真实世界数据集的大量实验,我们证明MKR在电影、书籍、音乐和新闻推荐方面取得了显著的进步,超过了最新技术的基线。MKR也被证明能够保持良好的性能,即使用户项交互是稀疏的。 |9 i' {4 h4 E
本文的贡献:本文研究的问题也可以建模为跨域推荐或转移学习,因为我们更关心推荐任务的执行情况。然而,关键的观察是,虽然跨域推荐和转移学习对于目标域只有一个目标,但是它们的损失函数仍然包含测量源域中数据分布或两个域之间相似性的约束项。在我们提出的MKR中,KGE任务明确地作为约束项,为推荐系统提供正则化。我们要强调的是,本文的主要贡献是将问题精确地建模为多任务学习:我们比跨域推荐和转移学习更进一步,理论分析和实验结果表明,发现任务间的相似性不仅有助于推荐系统,而且有助于知识图嵌入。' Y! f" p7 r6 T2 X; x' T2 g n
# G6 o6 w8 x! G. P: M
2 M7 Y- n- b* l6 X) N图5.4:MKR框架1 H" m8 b' q M5 F$ ?1 i m2 M
6. 结合知识图谱推荐系统的机遇与挑战( W4 [( f% U7 |( \* \& d6 B; |0 D
4 T1 o( z9 M- P0 g+ ^' a
6.1 基于知识图谱推荐的重点和难点+ I! i/ Z1 G9 N, e0 b$ H- u e
! T8 P" h/ F) i6 O (1)对用户偏好的精准建模问题。知识图谱可以融合多源异构信息,包括丰富的用户信息及用户与项目的交互信息;如何全面考虑用户与用户、用户与项目之间的联系,进一步提高推荐的 准确度,是未来的研究重点。 % m9 [% c1 _) i& m: M- Y# m3 v (2)对大数据的高效处理问题。由于数据生成速度快,而且多源数据融合过程中引入了更多的噪声和冗余,使得传统推荐算法中采用的精确计 算方式越来越难以应对,概率模型统计方法将可 能发挥更为重要的作用。& c2 _* X( U; f9 O
(3)推荐系统的效用评价问题。对传统推荐系 统的评价指标主要是准确度和效率,通常采用的 方法有MAE、RMSE、关联度等。这些指标当然也可以用于基于知识图谱的推荐系统,例如文献采用了准确率和召回率来表征推荐系统的准确 度。然而,由于不同领域的推荐系统面临的实际 问题不同,相应地使用了不同的数据集,使得难以形成统一的效用评价标准。( r: b+ w, ~& d; `9 z
(4)如何通过深度挖掘和相关性知识发现提高推荐效果。由于知识图谱本身的特点,相对于因果关系挖掘,其更适合于相关关系挖掘。通过从知识图谱中深度挖掘项目之间、用户之间、以及 项目与用户间的深层次关系,获得更多的相关性 结果,有助于为用户进行个性化推荐,在提高推 荐结果多样性的同时保持较高的推荐准确性。 ; l% G# s- \. j! a$ n (5)推荐系统的可扩展性。可扩展性一直是推荐系统应用中面临的难点问题。在传统推荐系统中,随着用户与项目数量的增加,会使得计算量显著增大。目前主要的解决方法有聚类、数据集缩减、降维等。在知识图谱中,用户之间、用户 与项目之间随时随地的信息互动会产生大规模的 数据集;将这些数据集融入知识图谱后会急剧增加计算复杂度。如何将用户之间产生的数据动态、快速地融入知识图谱并提高推荐系统的可扩 展性,是未来需要解决的难点问题。2 e1 V' V# D# O& ~: h' F# W
(6)社交网络信息的充分利用问题。传统的推荐系统假设用户之间是独立同分布的,忽略了 用户之间的社会交互及联系。知识图谱中用户与户、用户与项目、项目与项目之间都存在一定的 联系,用户不再是单一的用户需要进一步挖掘彼 此之间的联系以发现更多的隐含信息。因此结合社交网络关系也是今后的一个研究重点。 6 a: @/ C, R# O5 a4 f& ?4 { 9 L1 C& e8 W3 u& }; I7 g- b6.2 知识图谱现有研究的局限性 ; _9 u0 T: v# U& \" Q& r * g8 b% l; B9 p1 U 将推荐算法与知识图谱的图计算方法相结合已逐渐成为学术热点,前景广阔。然而现有方法仍有一定局限,有充分的研究空间。 & C& p+ d: L. Z( e1 U$ X' y (1)现有模型都属于统计学习模型,即挖掘网络中的统计学信息并以此进行推断。一个困难但更有研究前景的方向是在网络中进行推理,将图推理与推荐系统相结合。 ; F2 w( U/ B U$ U" `* M# O (2)如何设计出性能优秀且运行效率高的算法,也是潜在的研究方向。现有模型并不涉及计算引擎层面、系统层面甚至硬件层面的考量,如何将上层算法和底层架构进行联合设计和优化,是实际应用中一个亟待研究的问题。/ ]7 m/ n0 b8 u$ Z1 W* x
(3)现有的模型网络结构都是静态的,而在真实场景中,知识图谱具有一定的时效。如何刻画这种时间演变的网络,并在推荐时充分考虑时序信息,也值得我们未来研究。 2 ~, ]$ m4 J/ Z1 }" w; m+ t" t( q0 X# ^2 @- T! }# K
参考文献: 0 y$ n- x! b1 p7 B; U$ O; L3 P' Y' {1 a7 [ ^; Z0 i" X
Quan Wang, Zhendong Mao, Bin Wang, and Li Guo, 2017. Knowledge Graph Embedding: A Survey of Approaches and Applications. IEEE 8 V& }) S+ W! L; y( SHongwei Wang, Fuzheng Zhang, Xing Xie, andMinyiGuo. 2018. DKN: Deep Knowledge-Aware Network for News Recommendation. In Proceedings of the 2018 World Wide Web Conference on World Wide Web. International World Wide Web Conferences Steering Committee, 1835–1844.7 l5 _$ E6 p j, |& A$ a+ k
Hongwei Wang, Fuzheng Zhang, Jialin Wang, Miao Zhao, Wenjie Li, Xing Xie, and MinyiGuo. 2018. RippleNet: Propagating User Preferences on the Knowledge Graph for Recommender Systems. In Proceedings of the 27th ACM International Conference on Information and Knowledge Management. ACM. . K4 r/ k. T3 B" B; [Hongwei Wang, Fuzheng Zhang, MiaoZ hao, Wenjie Li, XingXie, and MinyiGuo. 2019. Multi-Task Feature Learning for Knowledge Graph Enhanced Recommendation. WWW 2019, May 13–17. / j6 |% X5 _, o ?' g9 RCHANG Liang, ZHANG Weitao, GU Tianlong, et al. Review of recommendation systems based on knowledge graph[J]. CAAI transactions on intelligent systems, 2019, 14(2): 207–216. & V" _0 f8 B+ B4 j; {- p9 J3 Chttps://cloud.tencent.com/developer/article/1370084.. Z* e* f l& H; o6 J9 O8 d* O
————————————————4 p1 j" w/ z0 s7 H) r* j
版权声明:本文为CSDN博主「lisa丶」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 . @( P \! d2 e, \! A5 H( Q4 e1 z原文链接:https://blog.csdn.net/weixin_42341986/article/details/105773376) u3 z! p) Z, r K% O0 }