QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2831|回复: 0
打印 上一主题 下一主题

【文本匹配】交互型模型

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2023-4-13 21:16 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    【文本匹配】交互型模型  j/ W& j8 O- j! s. ?5 J

    0 P5 F' {: F; g6 O+ ~2 X表示型的文本匹配模型存在两大问题:(1)对各文本抽取的仅仅是最后的语义向量,其中的信息损失难以衡量;(2)缺乏对文本pair间词法、句法信息的比较5 b9 m& ^0 X$ p* V' `. Q

    , I$ A/ p, I, h9 s( h( e而交互型的文本匹配模型通过尽早在文本pair间进行信息交互,能够改善上述问题。
    9 o3 u/ E, B- _3 [# n6 j* ?6 v$ n1 {1 g' n( U& ]
    基于交互的匹配模型的基本结构包括:; {5 j& ^, f  A) D! M% F

    * H/ R, V! @5 `: {(1)嵌入层,即文本细粒度的嵌入表示;% U7 k0 S3 J2 m  h! a. ^! v1 ^+ i
    " i; N6 X; u4 O9 p, T$ u% j1 U8 o8 `
    (2)编码层,在嵌入表示的基础上进一步编码;9 i; b$ W) n( L1 l
    ! b: G- c! g% L  @* o$ Z; }
    (3)匹配层:将文本对的编码层输出进行交互、对比,得到各文本强化后的向量表征,或者直接得到统一的向量表征;) A2 r8 O! u% X+ e9 o- k: e1 N# B
    . z6 o7 z! o! m, u
    (4)融合层:对匹配层输出向量进一步压缩、融合;
    2 Q  m( e) n1 H2 ^' L! |/ D6 q* k6 P9 S8 k1 a1 ^5 Z
    (5)预测层:基于文本对融合后的向量进行文本关系的预测。# q( C3 X7 w& X' J8 D0 e

    # H! r7 m  o( x
    0 i- _! Y# [; T. H' Q
    + f$ B4 n, G9 L8 w/ o. O2 [6 ]1. ARC-II
    2 s. ~3 K& I+ f/ u3 k! U! o" hARC-II模型是和表示型模型ARC-I模型在同一篇论文中提出的姊妹模型,采用pair-wise ranking loss的目标函数。5 M! t1 h( Z- ?; z- D+ f8 U

    " t) Y) w; u  ]- e" A- d其核心结构为匹配层的设计:( O6 Y0 K: |9 d( [6 ?+ F

    $ c/ D! l' ~+ r% k2 x) |! d5 G, _" m1 p(1)对文本pair的n-gram Embedding结果进行拼接,然后利用1-D CNN得到文本S_X中任一token i和文本S_Y中任一token j的交互张量元素M_{ij}。该操作既然考虑了n-gram滑动窗口对于local信息的捕捉,也通过拼接实现了文本pair间低层级的交互。
    - ~: g8 g: X. c+ z& j" Y+ d" t( \# e' N+ h! }4 a5 s0 C
    (2)对交互张量进行堆叠的global max-pooling和2D-CNN操作,从而扩大感受野。  c, j" P( S. {' v) p
    " N/ {6 G$ d8 L3 [
    2. PairCNN
    & g$ b8 g/ \" J( W* R6 L- R4 ^, YPairCNN并没有选择在Embedding后直接进行query-doc间的交互,而是首先通过TextCNN的方式分别得到query和doc的向量表征,然后通过一个中间Matrix对query和doc向量进行交互得到pair的相似度向量,然后将query的向量表征、doc的向量表征、相似度向量以及其它的特征向量进行拼接,最后经过两层的MPL得到最后的二分类向量。/ r( D( l, ~: ^! m; {$ D# f
    , m4 H: {9 c& ^
    PairCNN的模型架构中的亮点在于各View向量的拼接,既能利用原始的语义向量,还能够很便捷的融入外部特征。7 c0 y2 F) s7 r$ F1 ^  t! ?% ?! s3 d4 P
    ; Z* B" P' @5 P
    3. MatchPyramid8 F) B4 Z6 |3 p# J, l" _. k
    无论是ARC-II中的n-gram拼接+1D conv还是Pair-CNN中的中间Matrix虽然均通过运算最终达到了信息交互的作用,但其定义还不够显式和明确,MatchPyramid借鉴图像卷积网络的思想,更加显式的定义了细粒度交互的过程。- P2 y( B# u# D6 L+ `2 ?: w
    MatchPyramid通过两文本各token embedding间的直接交互构造出匹配矩阵,然后将其视为图片进行2D卷积和2D池化,最后Flatten接MLP计算得匹配分数。本文共提出了三种匹配矩阵的构造方式:1 T% V: B& R7 z9 U6 f  `

    ! y8 i% O9 p* d$ K* p(1)Indicator:0-1型,即一样的token取1,否则取0;这种做法无法涵盖同义多词的情况;- q& h# u2 X0 i9 [; W, P. Q- N  i6 q

    + l, I5 g+ l. e7 a1 Y(2)Cosine:即词向量的夹角余弦;
    ( d$ w5 f7 M5 R1 R6 @" l0 F8 g4 j% {/ v# q' R9 P: o$ u# \$ c" J
    (3)Dot Product:即词向量的内积, b- u! _9 v5 @3 R

      _, H8 q8 I  r3 N" Z此外值得注意的是因为各个文本pair中句子长度的不一致,本文并没有采用padding到max-lenght的惯用做法,而是采用了更灵活的动态池化层,以保证MPL层参数个数的固定。3 H) ]/ p" t8 F# t& L, }* ?0 a4 n: P* s
    , }: g( D: f& {! i9 |& |; C$ Y9 ~
    4. DecAtt8 W/ C& V9 D0 G" O( ^# |
    DecAtt将注意力机制引入到交互型文本匹配模型中,从而得到各token信息交互后增强后的向量表征。
    4 A! e" w) p2 E/ o) v6 I
    " G! a! s% M  c, k模型被概括为如下层级模块:
    3 N5 J* D6 q  w' q5 S" e6 K" B9 ?' w
    ; J0 b8 I! ?" |1 P4 G(1)Attend层:文章提供了两种注意力方案,分别为文本间的cross-attention,以及各文本内的intra-attention。具体而言,分别采用前向网络F和F_{intra}对文本token embedding进行编码,然后通过F(x)F(y)计算cross-attention的score,以及F_{intra}(x)F_{intra}(y)计算self-attention的score。然后利用softmax将attention score进行归一化,再对各token embedding进行加权平均,得到当前query token处的增强表征,最后与原始token embedding进行拼接计为attend后的最终embedding。: C, X- H$ g  c
    & X4 B3 b0 q0 y. M9 m9 Z6 V/ u
    (2)Compare层:将前序Attend层计算得到的最终embedding,喂入一个全连接层进行向量维度的压缩。$ T6 V2 j! [3 Z; T% Q; g
    + c! R  N# ?# d: Y- h) Q" C/ u
    (3)Aggregate层:将每个文本各token处压缩后的向量进行简单的求和,再拼接起来通过MPL得到最后的匹配得分。' r; D. H, A  `2 C1 Q: M, P0 x* e$ u

    & {/ w- N9 m$ n0 [5. CompAgg6 A' [) d0 t3 z6 z; o
    CompAgg详细对比了在文本间cross-attention得到的各token向量表征与原始token向量进行compare的各种方案。8 i6 G5 [* u+ S8 O

    # ^9 y/ F' {6 r+ Q' g该模型的主要结构包括:
    + J% b* ^6 z7 P3 P
    , _0 i+ m; ?: q$ K- k6 u1 z(1)reprocessing层:采用类似于LSTM/GRU的神经网络得到token的深层表示(图中的\bar a_i);
    ' Q" \/ V- V  j9 u3 |* u+ x- g2 j4 v, Y& {8 h! D
    (2)Attention层:利用软注意力机制计算文本间的cross-attention(与DecAtt相同),从而得到各token处交互后的向量表示(图中的h_i);7 h9 E% q2 H  ^/ B
    * }0 Q; ~. l# l/ t! o
    (3)Comparison层:通过各种网络结构或计算将\bar a_i和h_i计算求得各token的最终表征。+ m) g) j: r# o) J* T( G

    : b( C# N1 X+ r$ W+ q+ }; I. M(4)Aggregation层:利用CNN网络对Comparison层的输出进行计算,得到最后的匹配得分。
    . ~: d5 _2 l* }, [- a7 ?& Z/ e' k. @  G( S/ p
    其中Comparison层的构造方式包括:+ x! U! M+ ^" Q, Z, |
    ) H5 t; {- \7 B6 F2 H! }6 _
    (1)矩阵乘法,类似于Pair-CNN中的中间Matrix2 G; \3 ?7 f: U/ ~  r$ {% |; G7 t

    9 u, t: g9 }) e(2)前向神经网络,即将\bar a_i和h_i进行拼接,然后利用输入FFN;
    : M: q7 _7 V# g  P  R
    ! W& X8 `, t$ G7 Q9 j* W3 L; [(3)分别计算cosine和欧式距离,然后拼接;
    ) q+ n0 @* w: g, @' Z  ?3 A& [" t8 w" v( D) p8 P
    (4)各维度进行减法;
    2 Q: X+ y5 m  A' Z# q; R8 g8 @+ |2 c' u" q9 F% n: P9 o2 B. X4 N
    (5)各维度进行乘法;: |# P3 z9 a3 Z& x! V- R' E
    1 s* l  m4 u( C7 G- ~7 Q+ l
    (6)各维度进行减法和乘法,然后再接一个前向网络。
    5 J( Q+ q/ |2 B  d. A0 @4 @) n! ^7 f# M+ ?1 q7 b' y
    6. ABCNN
    ) [5 R( Z9 V+ [8 }8 `$ a1 rABCNN是将Attention机制作用于BCNN架构的文本匹配模型。
      ?5 J% }5 a. g  i) t! q- Y6 C4 @  p! m" K
    6.1 BCNN( c; S4 k% L! Y9 r( Z
    首先简单介绍下BCNN架构:) ^, J0 }/ b+ {

    % j' R& e0 Z: h/ Y! JBCNN的整体结构比较简单:(1)输入层;(2)卷积层,因为采用了反卷积的形式,所以在size上会增加;- [) j9 R1 M! k

    9 @3 _2 E- v; c* s# k(3)池化层,采用了两种池化模式,在模型开始阶段采用的是local平均池化,在最后句子向量的抽取时采用了global平均池化;(4)预测层,句子向量拼接后采用LR得到最后的匹配得分。; ^+ F* a& F5 i/ @2 T( r: M
    7 n4 r: U' V3 |1 v9 p
    ABCNN共包括三种变形,下面依次介绍。
    2 l  N8 m' h& L. U1 X9 P+ E& G
    * |. a& N0 Y3 `6.2 ABCNN7 g& a8 Q. F6 h9 Y. ^
    # B* W0 N, B- W3 M- R; Z
    ABCNN-1直接将Attention机制作用于word embedding层,得到phrase 级的词向量表示。区别于CompAgg中的软注意力机制,ABCNN-1直接基于下式得到注意力矩阵: A i j = 1 1 + ∣ x i − y j ∣ A_{ij}=\frac{1}{1+|x_i-y_j|} A
    ; R: c3 y. ]2 ~9 Qij8 a1 t# M9 u, \7 j, g
    ​        & C. Y$ z( u/ f
    = * @* |+ ?* U' x& q
    1+∣x - x( r) K- x7 ~* X
    i
    0 s+ `. S: V# @/ J7 S4 F( B7 k​       
    , l! N: ~: S, s* W −y
    * f( }* ~6 W1 a. M  f# [j7 Q. g8 b) y2 D& {9 S5 Z) t
    ​       
    4 v  l* N8 j3 `0 Y
    % ^! d! |2 k4 ]) r2 d; m1
    " v# o" t. M, ^6 E6 [​       
    . r* I' O! ^7 D  x ,然后分别乘以可学习的权重矩阵 W 0 W_0 W ; i1 M4 J% ?' x; ?) z+ ]
    0
    2 h! r  D+ C0 A0 C+ H: L7 n2 R& I​        0 Z7 ?! N. z6 t
    和 W 1 W_1 W   q, I3 q% _  o  @* {. x& `3 \, m
    1& Q8 j# ?7 Z1 {2 N0 I
    ​        0 h8 A  Z( r# C/ y3 f( U
    得到attetion feature map。
    * u- _1 _9 C  x: U4 p+ d
    7 E; ~, c( r: d2 d' w& e. l6.3 ABCNN-23 o% ]9 O: W- [' Q

    ) M+ w' t9 a) gABCNN-2将Attention机制作用于word embedding层后的反卷积层的输出结果,其中注意力矩阵的计算原理与ABCNN-1一致。然后将注意力矩阵沿着row和col的方向分别求和,分别代表着各文本token的attention socre;接着将反卷积层的输出结果与attention socre进行加权平均池化,得到与输入层相同shape的特征图。
    4 k& I7 V% \1 x: U7 e! N4 H1 H& d
    6.4 ABCNN-3
    % ~" C  p0 r: o% [$ q" n  _  |% n  M3 I- m
    ABCNN-3的基本模块可视为ABCNN-1和ABCNN-2的堆叠,即在嵌入层和卷积层上面都引入了attention的机制用来增强对token向量的表示。9 Y" ~: a7 |; E) C

    2 S$ V6 D( [3 o7. ESIM0 }. @0 b, u( w( n% h
    ESIM模型基于NLI任务给出了一种强有力的交互型匹配方法。其采用了BiLSTM和Tree-LSTM分别对文本序列和文本解析树进行编码,其亮点在于:
    2 m: a' E* Z0 C; k8 r$ q
    % U1 w* f6 v* L0 {- G' C; k(1)匹配层定义了cross-attention得到各token的向量表示与原token向量间的详细交互关系,即采用 [ a ˉ , a ^ , a ˉ − a ^ , a ˉ ∗ a ^ ] [\bar a, \hat a,\bar a-\hat a,\bar a* \hat a] [ $ ^% f& B: }# ]$ R! ~$ I
    a7 M. y0 N/ p+ {7 V8 i# p# W
    ˉ0 N: r7 P$ \: e* V! ~6 p% w
    , + ^: N" t1 N) Z, B
    a8 y- X# Y3 J& @$ {; x
    ^3 ?3 \7 ~! c" r$ K, ~$ [
    ,
    3 x- a$ ~( }0 D0 ua: ^$ X, b/ K( l+ y
    ˉ
    ' C3 L  _1 ]6 H
    . u1 ?* b( {$ Y4 c9 \. w; Fa
    . W3 v9 O4 k8 N3 r, a+ Q^; u; U: I/ M! o
    , - C7 ^! D5 U9 q2 g/ ^
    a
      y9 ?8 H4 l8 e) H7 cˉ7 G  N8 x, p6 W  m" Q. j1 M

    - ?* j+ T: \' R$ H2 M5 k8 Wa
    ! t! v7 t% F, E4 x: x. i' X% f^9 z6 K! U2 d9 a/ m3 s
    ]作为最终文本token的向量表示,这也成为后续文本匹配模型的惯用做法。
    4 z; _4 @& A' a/ [. W5 x2 \2 d" r& x- ]
    (2)聚合层通过BiLSTM得到各文本token的编码,从而进一步增强了文本序列的信息传递;% M7 ?# F* A6 K3 G+ w

    / e5 L8 Z9 q" `; B: N& f(3)预测层通过拼接各文本token编码的max-pooling和mean-pooling结果,再经过MPL进行匹配预测。
    3 V' C" H! M3 G6 W& d. r' P$ y* z, r5 R) p

    : G( f; I8 l, Z" M6 X; a. @* S
    ; m6 {3 z, A: j* k- Q2 K( R8. Bimpm
    ) F! r, f: B: `& r3 X1 l$ hBimpm可视为对之前各类交互型文本匹配模型的一次总结。
    * H  {& K7 H: E, R, N: L5 a& d) x8 ?+ F1 K  ]
    该模型在各层的具体做法总结如下:, L9 {9 S9 |  B3 }( q: B
    6 n4 F5 N) z$ m: a; r
    (1)编码层采用BiLSTM得到每个token隐层的向量表示;$ E$ I/ p: M4 ^

    7 v3 M! @5 u' k/ P8 ~- _, G0 _0 q0 }5 s(2)匹配层遵循 m k = c o s i n e ( W k ∗ v 1 , W k ∗ v 2 ) m_k=cosine(W_k*v_1,W_k*v_2) m 0 Y( R+ Y6 z# O% P* O
    k
    1 U7 k8 U% a. i$ M​        + i0 h  B+ x  V5 y
    =cosine(W 8 {3 M+ E$ g. r
    k/ p0 x3 X% p7 ^
    ​        - w$ _0 R1 ?9 t- ~" \' n- }
    ∗v
    3 f8 C! ]' T, j6 {* `1
    $ V- D8 ^. C2 n7 I, a1 k​        , Q* z  }. n( ]: J) B
    ,W   o; v; [7 `/ U7 u* \- S) B$ A! M6 I3 x
    k& e7 t$ ?9 s. f2 S
    ​       
    . |4 W+ A. P. C- s) v6 H ∗v " ^0 g/ ^& f+ x1 ?2 l0 n
    2* X' y6 G. O) L8 D0 c
    ​       
    , r  u+ Y& `$ C- x. `! l )的方式可以得到两个文本的任意token pair之间在第k个view下的匹配关系,至于 v 1 v_1 v ; y9 g; y9 R* H: }  r3 k
    1% u7 f2 y8 Z: _' _0 \
    ​       
    ! R; h7 r/ e4 K! h 和 v 2 v_2 v
      i3 e4 }5 Y1 E8 `2" G& f+ g3 H. t7 f& O: g: ]* R
    ​       
    % ?' ?; g: X) d 如何取,文章提供了4种策略:
    : M4 K" {6 s8 C+ ~, q; C
    - e+ t6 Q# F: v- x) ^- Y+ Y策略一:其中一个句子取各token隐层的向量表示,另一个句子采用隐层最后时间步处的输出;
    + ^' U' M7 a: t8 s- u策略二:其中一个句子取各token隐层的向量表示,另一个句子采用隐层各时间步输出与之匹配后取再取Max-Pooling值;
    ' i. g, q6 w# P6 k4 S策略三:其中一个句子取各token隐层的向量表示,另一个句子采用cross-attentive后得到的加权句子向量;0 D" X! i0 m  @* k9 W% {" u
    策略四:其中一个句子取各token隐层的向量表示,另一个句子采用cross-attentive后attention score最高处token的向量作为句子向量。: ~2 |' Z0 `2 L- e
    这四种策略的区别在于对句子向量的计算不同。/ ?8 {7 c, B/ E4 `' q# {' h

    / S; [0 n; G$ i) ]2 Y/ @  F6 R6 T7 m% U% ^7 x1 t
    (3)聚合层,首先对上面各种策略得到的输出层再通过一层BiLSTM层,然后将各策略下最后时间步的输出进行拼接,得到最后的聚合向量;
    9 W2 F* @1 G' X8 h, P8 E  }- s0 b* a) Q/ {. k: B8 _4 M( ~- F
    (4)预测层:两层MPL+softmax
    3 \/ K# h! Z' f" s" C. o* v# X, Z- Y% L! A5 d5 P
    9. HCAN
    + Q/ U7 T, D' M& ?4 RHCAN是除Bert类模型外在文本匹配领域表现最为优异的深度模型之一,其采用了较为复杂的模型结构。
    . f% v' U6 O- G% Z" l9 n5 ~) ^
    2 J9 h! u! Q+ [1 K0 C$ j$ G  I3 g针对于信息抽取问题,文章首先分析了相关性匹配和语义匹配的差异:
    ' M6 i) w0 K3 s9 y% _' p# E. ^  m6 I* b* W" W. A$ O/ {/ v0 K
    (1)相关性匹配主要关注于关键词的对比,因此更关注低层级词法、语法结构层面的匹配性;& L) ~# |) q' `. z3 y
    $ d- G! p1 c2 {; {& E! V
    (2)语义匹配代表着文本的平均意义,因此其关注更高、更丑想的语义层面的匹配性。
    0 g7 ?+ O- R; C; X7 B4 o) @2 C  f
    该模型首先采用三类混合的编码器对query和context进行编码:9 c1 i2 j) p9 J9 `0 }1 @& F$ E4 E

    4 j0 Q6 z+ i; f) K' a(1)深层相同卷积核大小的CNN编码器;( d+ Z+ ~4 _! Q( P) p
    ( C5 w: s$ q9 E
    (2)不同卷积核大小的CNN编码器的并行编码;
    " E+ S. S1 V; ~1 \! U4 `4 u* `1 q3 C; y
    (3)沿着时序方向的stacked BiLSTM编码;4 h( Z  {% m# T1 j
    2 ]6 Q  ~8 E1 b+ ]* r$ W1 y
    对于前两者,通过控制卷积核的大小可以更好的捕捉词法和句法特征,即符合相关性匹配的目的;而对于后者,其能表征更长距离的文本意义,满足语义匹配的目的。, y- a, d9 k3 O5 g

    $ q6 \% R  N9 [在这三类编码器的编码结果基础上,模型分别进行了相关性匹配和语义匹配操作。其中相关性匹配主要采用各phrase间内积+max pooling/mean pooling的方式获取相关性特征,并通过IDF指进行各phrase的权重调整。而在语义匹配中,模型采用了精心设计的co-attention机制,并最终通过BiLSTM层输出结果。( V3 m" \. z! O, A+ e

    4 V4 g! J( `. [$ |0 m最后的预测层仍采用MPL+softmax进行预测。( p: r, ^( o" ^; K( a! }

    0 }0 D8 U; Y- c9 I10. 小结
    5 [7 E6 Z9 L8 X# o  K. O1 i交互型语言匹配模型由于引入各种花式attention,其模型的精细度和复杂度普遍强于表示型语言模型。交互型语言匹配模型通过尽早让文本进行交互(可以发生在Embedding和/或Encoding之后)实现了词法、句法层面信息的匹配,因此其效果也普遍较表示型语言模型更好。
    8 X- H4 j' Z$ |( I( t! J/ f& i* T) X; w2 t9 w
    【Reference】
    ' |% O3 `0 n) I' Q; F# k" M- @# l3 [7 F( ~7 q
    ARC-II: Convolutional Neural Network Architectures for Matching Natural Language Sentences
    # Y7 w: U- y) M9 X! w1 e  A, t" S: P9 K! g) x5 }. w( a, E
    PairCNN: Learning to Rank Short Text Pairs with Convolutional Deep Neural Networks9 A% T6 V8 G5 t) `/ ^% R3 Y, |3 g
    3 m3 I9 V* X* c. x! @
    MatchPyramid: Text Matching as Image Recognition
    ( O; s2 d2 T3 h4 L* M+ l% k' s! o
    , v- O. T7 k1 i: _  BDecAtt: A Decomposable Attention Model for Natural Language Inference
    6 z* u; Q: d- ]  u1 U' M) v$ t
    . s% n+ G# G! s4 V7 \/ BCompAgg: A Compare-Aggregate Model for Matching Text Sequences; F$ W3 `) a$ j4 B2 P
    1 g- P0 |8 a* |$ T
    ABCNN: ABCNN: Attention-Based Convolutional Neural Network8 S+ d& `- ]) v+ I6 U  u0 C/ m
    for Modeling Sentence Pairs0 ?7 W) l2 Y4 `5 D1 X, D$ O

    2 Q' w# S, d3 N) Y5 X: rESIM: Enhanced LSTM for Natural Language Inference
    ' W0 _% O/ ]3 r2 ]
    / d; u) G- x0 o  K9 }Bimpm: Bilateral Multi-Perspective Matching for Natural Language Sentences8 r% Z( k% E. C" J6 }" ^7 i

    & I( V- n# o! K% V4 a  c% sHCAN: Bridging the Gap Between Relevance Matching and Semantic Matching
    ! w7 @  C$ u2 B( V, rfor Short Text Similarity Modeling
    " T/ I" }7 Q& O- M4 P1 e3 i8 n/ S- t! ?1 O. J6 |8 k
    文本匹配相关方向打卡点总结(数据,场景,论文,开源工具)1 |& p8 Y$ a* y

    ( c. s# V. M! a5 B. C* z谈谈文本匹配和多轮检索2 v4 K3 y  F3 H

    ' m. q) D" d/ ^* g贝壳找房【深度语义匹配模型 】原理篇一:表示型+ A) B. |3 v" Q: @2 o7 p7 I
    ————————————————
    8 e9 g- l! }4 b" a7 {版权声明:本文为CSDN博主「guofei_fly」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。: C6 h! s5 I! Y, ^, _" f% M; d
    原文链接:https://blog.csdn.net/guofei_fly/article/details/107501276( w# N8 I; F9 Z* T% H/ Z: R

    1 L$ D+ w  J# x. [7 p* O8 K
    6 j7 I( Z% [( w$ ^- G
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-8-31 15:44 , Processed in 0.364547 second(s), 51 queries .

    回顶部