QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 2800|回复: 0
打印 上一主题 下一主题

【文本匹配】交互型模型

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2023-4-13 21:16 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    【文本匹配】交互型模型
    * t5 s' b, a6 K9 V
    0 q7 w( Y6 |- r+ t3 b1 c+ ^, w表示型的文本匹配模型存在两大问题:(1)对各文本抽取的仅仅是最后的语义向量,其中的信息损失难以衡量;(2)缺乏对文本pair间词法、句法信息的比较+ z" ~4 Y6 {6 ^% R$ W- ~4 C
      M- V% d+ o$ `# E) ~: A0 Y8 U% x2 {
    而交互型的文本匹配模型通过尽早在文本pair间进行信息交互,能够改善上述问题。# K) F# h$ z! |# P

    ( o/ `4 `+ e3 G& H2 y6 C. y& S基于交互的匹配模型的基本结构包括:
    ( x7 d) F" b0 H% A2 [& Q7 c: m" G" P; i& F" c7 e
    (1)嵌入层,即文本细粒度的嵌入表示;8 w$ }  [1 S" l6 o9 g2 L/ r. i! ^
    * b3 j/ g) F* O' D4 @6 \; |! d
    (2)编码层,在嵌入表示的基础上进一步编码;" T- h9 Q% N9 t  x' o2 S

    : o+ S# R$ d) [: `6 C; b! G7 v( P7 k- g(3)匹配层:将文本对的编码层输出进行交互、对比,得到各文本强化后的向量表征,或者直接得到统一的向量表征;0 j% I( D! R5 q' u

    8 H' T  E& m" d(4)融合层:对匹配层输出向量进一步压缩、融合;, [) ^; P5 B2 Z6 b4 R1 N
    - G4 |2 U5 ?+ \/ A7 v* ^- A6 T
    (5)预测层:基于文本对融合后的向量进行文本关系的预测。# V/ S7 T! U3 ~9 t1 l, }* L
    9 \  f8 s  C) K# ^! c
    1 X0 @/ y, @" N. i: C6 K

    9 r) ~- Q( i- T, F0 e5 b1. ARC-II4 [' X9 N: ]( I8 l, a
    ARC-II模型是和表示型模型ARC-I模型在同一篇论文中提出的姊妹模型,采用pair-wise ranking loss的目标函数。
    4 z. S! y$ O3 [0 k6 \, x& P5 a  \8 Y6 @
    其核心结构为匹配层的设计:8 q- @8 _, R9 [

    4 c" K3 z+ r: S" h" Z(1)对文本pair的n-gram Embedding结果进行拼接,然后利用1-D CNN得到文本S_X中任一token i和文本S_Y中任一token j的交互张量元素M_{ij}。该操作既然考虑了n-gram滑动窗口对于local信息的捕捉,也通过拼接实现了文本pair间低层级的交互。% S6 ^4 J' f2 B5 F

    ; |$ e9 x! n% _, \(2)对交互张量进行堆叠的global max-pooling和2D-CNN操作,从而扩大感受野。3 P5 `( e9 O7 I
    6 q- x4 m7 U& v1 A2 v
    2. PairCNN4 c& N: }. ?; U2 y0 W3 x
    PairCNN并没有选择在Embedding后直接进行query-doc间的交互,而是首先通过TextCNN的方式分别得到query和doc的向量表征,然后通过一个中间Matrix对query和doc向量进行交互得到pair的相似度向量,然后将query的向量表征、doc的向量表征、相似度向量以及其它的特征向量进行拼接,最后经过两层的MPL得到最后的二分类向量。
    4 w& U' W* K+ }* c9 f- N
    % W2 R9 S2 ?) N$ ]PairCNN的模型架构中的亮点在于各View向量的拼接,既能利用原始的语义向量,还能够很便捷的融入外部特征。
    4 x9 Z# a; a* T  ?" Y
    ! w" T- D" e5 j3. MatchPyramid/ V; D: V0 s' [
    无论是ARC-II中的n-gram拼接+1D conv还是Pair-CNN中的中间Matrix虽然均通过运算最终达到了信息交互的作用,但其定义还不够显式和明确,MatchPyramid借鉴图像卷积网络的思想,更加显式的定义了细粒度交互的过程。
    " H" E: ]) P: G, f$ R( BMatchPyramid通过两文本各token embedding间的直接交互构造出匹配矩阵,然后将其视为图片进行2D卷积和2D池化,最后Flatten接MLP计算得匹配分数。本文共提出了三种匹配矩阵的构造方式:
    8 c7 x$ l0 L/ Z/ }. p
    3 T1 m; Z1 W; [' M, Z8 n# P(1)Indicator:0-1型,即一样的token取1,否则取0;这种做法无法涵盖同义多词的情况;
    9 Y! W' N; ^5 ?/ ~* Y" i
    ' F* F; U: c- d6 }, W& _/ n  m(2)Cosine:即词向量的夹角余弦;# u3 ~7 Z8 G7 T5 Y* @4 i/ W+ G

    3 ?" w1 [5 v% c: R! D(3)Dot Product:即词向量的内积
    : k6 R, S! E8 ]
    : A7 L9 ^& H! ?- \/ S5 T此外值得注意的是因为各个文本pair中句子长度的不一致,本文并没有采用padding到max-lenght的惯用做法,而是采用了更灵活的动态池化层,以保证MPL层参数个数的固定。0 H! _7 N/ @, F- S7 T

    5 O" F! d: Y. S# N6 h( ~$ L: N4. DecAtt# R( Q4 G& Z& j  u1 M
    DecAtt将注意力机制引入到交互型文本匹配模型中,从而得到各token信息交互后增强后的向量表征。
    , b, B6 R3 H/ a( O3 S' Q1 c% F  Q$ M3 K( H- X+ E) S
    模型被概括为如下层级模块:
    8 p7 P, r, _6 X' u3 q* C" N# ~$ ?. q/ m  J: c! W
    (1)Attend层:文章提供了两种注意力方案,分别为文本间的cross-attention,以及各文本内的intra-attention。具体而言,分别采用前向网络F和F_{intra}对文本token embedding进行编码,然后通过F(x)F(y)计算cross-attention的score,以及F_{intra}(x)F_{intra}(y)计算self-attention的score。然后利用softmax将attention score进行归一化,再对各token embedding进行加权平均,得到当前query token处的增强表征,最后与原始token embedding进行拼接计为attend后的最终embedding。
    % e4 e1 L: H4 m. ~+ Y: I) }$ d# t- d' b/ H
    (2)Compare层:将前序Attend层计算得到的最终embedding,喂入一个全连接层进行向量维度的压缩。
    # _4 l. S8 Q2 w2 ^" B% p. a: f3 b! v8 V7 j: a5 K: C
    (3)Aggregate层:将每个文本各token处压缩后的向量进行简单的求和,再拼接起来通过MPL得到最后的匹配得分。
    % f: j# l, m! j' l; i
    . L! S6 d2 g, O4 i; p/ }1 H! p5. CompAgg: K7 h4 M: r, z0 r! b
    CompAgg详细对比了在文本间cross-attention得到的各token向量表征与原始token向量进行compare的各种方案。
    ) g+ g1 C  [; h. i( c1 g" o( q4 H0 _8 q; t- {# g1 @- v3 B, T
    该模型的主要结构包括:
    # Z0 Y) C$ n, G
    ) U5 a' L6 P# @(1)reprocessing层:采用类似于LSTM/GRU的神经网络得到token的深层表示(图中的\bar a_i);( B# b* {; C& A5 l4 w& e

    5 D; R( w  W  N' Y2 ^. W(2)Attention层:利用软注意力机制计算文本间的cross-attention(与DecAtt相同),从而得到各token处交互后的向量表示(图中的h_i);- h* Y" a- x" Y5 v) A
    - T, H$ }; A! N0 W1 S
    (3)Comparison层:通过各种网络结构或计算将\bar a_i和h_i计算求得各token的最终表征。
      g3 B& I! i( L4 H0 M' r$ T
    ( ^+ ?- \  L% U0 R: E* Y(4)Aggregation层:利用CNN网络对Comparison层的输出进行计算,得到最后的匹配得分。7 W9 ]3 {' G1 i2 `6 s- T
    1 m6 q* ~5 A9 x- A& p1 ]
    其中Comparison层的构造方式包括:
    ; U* u2 [) O4 g9 \, [
    9 a& F& X, X  {4 d$ i  Z(1)矩阵乘法,类似于Pair-CNN中的中间Matrix
    , f- i1 h: `0 i0 I" Z
    / W8 E5 i/ E9 J- {' q: k( o(2)前向神经网络,即将\bar a_i和h_i进行拼接,然后利用输入FFN;
    ' E+ [; n' s( G& O1 A  ]  @: |4 A) \) [* C: L9 \+ g
    (3)分别计算cosine和欧式距离,然后拼接;
    3 j8 r) v6 l7 g
    " J# Q( G5 z2 R" y(4)各维度进行减法;  J3 S8 X0 g) d! h
    6 x/ R' @4 F) M+ U% H
    (5)各维度进行乘法;/ k  w4 T3 k2 R$ F

    2 D: ^, f4 P9 j& m3 P(6)各维度进行减法和乘法,然后再接一个前向网络。# k# e: H" Q" h  _

    / ^4 y; Q" b8 z  k( ~6. ABCNN0 {% k: N6 _- u+ E9 ~
    ABCNN是将Attention机制作用于BCNN架构的文本匹配模型。0 _; r1 ~6 H: u$ ^: h5 w
    + J5 _, E- G5 C5 W- E
    6.1 BCNN9 j% y( U# X( G
    首先简单介绍下BCNN架构:
    ! ^7 x9 W4 Y* B0 J: x- C& U6 g, c; _
    BCNN的整体结构比较简单:(1)输入层;(2)卷积层,因为采用了反卷积的形式,所以在size上会增加;3 O: I7 k6 P0 {) v/ K) J0 J! d; q1 O/ f

    ( j7 j; f- n9 g+ g! s6 j(3)池化层,采用了两种池化模式,在模型开始阶段采用的是local平均池化,在最后句子向量的抽取时采用了global平均池化;(4)预测层,句子向量拼接后采用LR得到最后的匹配得分。& w  ~, N7 e8 J6 U: w! [
    4 h6 H! p$ c% q; ]
    ABCNN共包括三种变形,下面依次介绍。- J' {4 U% ^) k2 W# Z! J
    * A# F% v: d; l# ~$ S
    6.2 ABCNN3 y. x* R" ~/ S8 `( ]0 y4 d

    0 E3 Y) ]6 i0 JABCNN-1直接将Attention机制作用于word embedding层,得到phrase 级的词向量表示。区别于CompAgg中的软注意力机制,ABCNN-1直接基于下式得到注意力矩阵: A i j = 1 1 + ∣ x i − y j ∣ A_{ij}=\frac{1}{1+|x_i-y_j|} A : l& E2 g7 u3 j/ l* w3 \
    ij
    % V/ Z1 ^7 ^! E  `  Y$ B& v. P6 K​        " n) n. [3 Z  \7 W4 |0 w
    =
    4 [  p& T6 w6 P+ h: q. ~1+∣x . ~4 \, g# }# l
    i
    ; H# @, e% E' D! L2 W& Q- ?​        + U5 A/ P  S5 s0 i1 B6 C0 q6 h
    −y + h5 ]- y8 W7 L) L4 ^( |
    j  H$ e: q' a% @  a+ l+ s
    ​        ( F) e  \$ L5 {0 o- d

    ; I% m$ s' J" O1
    : W0 a) d1 b& {4 {9 ?' F1 B​       
    + x5 m7 A8 x, b& {9 z( I8 ` ,然后分别乘以可学习的权重矩阵 W 0 W_0 W
    3 n8 r# P, L7 f* f7 m+ l* L) S0. ^9 |. H! ]0 T' y# b/ [
    ​       
      Q0 F; @# T" x4 v 和 W 1 W_1 W 8 a( U8 k. b/ ]+ p( x6 F
    1
      c, i; y: M3 f0 |) u9 I​        2 k9 T9 y4 {, m5 {2 x
    得到attetion feature map。0 Y1 c! @2 w% c  t2 Z, r6 c- U! [8 M
    4 P; L8 @% w' A5 G# x
    6.3 ABCNN-20 h2 d& N9 R- h" A/ N
    " Y% w) _  H/ W5 A8 O0 |7 g2 N
    ABCNN-2将Attention机制作用于word embedding层后的反卷积层的输出结果,其中注意力矩阵的计算原理与ABCNN-1一致。然后将注意力矩阵沿着row和col的方向分别求和,分别代表着各文本token的attention socre;接着将反卷积层的输出结果与attention socre进行加权平均池化,得到与输入层相同shape的特征图。# K4 t- h& A9 h; \- ?& i
    " `! y3 |3 U( _
    6.4 ABCNN-38 C; e$ ~% K5 D0 d9 H& |
    4 Q  U2 Y: D; T; I1 I
    ABCNN-3的基本模块可视为ABCNN-1和ABCNN-2的堆叠,即在嵌入层和卷积层上面都引入了attention的机制用来增强对token向量的表示。
    3 n, K9 ^4 U3 a0 E5 e
    ( C2 ?5 ]/ h& r7. ESIM
    % h3 R. Q. m# Y; U) mESIM模型基于NLI任务给出了一种强有力的交互型匹配方法。其采用了BiLSTM和Tree-LSTM分别对文本序列和文本解析树进行编码,其亮点在于:
    ) A' o  R1 |1 z# r2 f
    : t% R& ~+ Z# Q" p0 Y* j2 f' ](1)匹配层定义了cross-attention得到各token的向量表示与原token向量间的详细交互关系,即采用 [ a ˉ , a ^ , a ˉ − a ^ , a ˉ ∗ a ^ ] [\bar a, \hat a,\bar a-\hat a,\bar a* \hat a] [ / f- F8 Y! L- a% c) U4 b
    a
    % x+ G# A6 [. ]ˉ
    # T% u6 Q9 O- A+ W5 k# i , , I* Y% x  [3 G  A
    a5 \: Q* b/ ~. G
    ^5 j" @7 V( d4 _, }: T/ D
    , ! Q4 R/ `/ x& |4 ]. n7 l  ^5 c9 w
    a% O+ X# C8 D$ ?( b. g( B8 [
    ˉ
    0 Q/ L' D( \1 D( q8 ~3 z
    ( |4 W( ^6 o0 u/ P( y1 La
    1 ]# O2 r) k. M4 L% P* T/ ^" W^8 o8 j& K1 q' W3 Q7 e; L" W' O' O
    ,
    ! T. p( V# p8 \8 u' E& t/ U0 G1 Ka5 e: p1 A- R3 q" C0 a: F) X4 m  u
    ˉ
    7 h8 W! l/ F$ I: O' u/ U0 p/ a( G# M
    . N! c+ w6 s  Za
    % }) f* T3 e% a^- n5 d% y) V/ B' B0 E) o( ~. i0 J0 h
    ]作为最终文本token的向量表示,这也成为后续文本匹配模型的惯用做法。! ?/ p  p; u7 \+ r- t

    % y$ J+ a: a# N- `8 }7 v(2)聚合层通过BiLSTM得到各文本token的编码,从而进一步增强了文本序列的信息传递;
    & B0 p, Y* V: b! Y# ^
    9 x9 b9 B6 {, G0 \1 `9 t0 I4 i(3)预测层通过拼接各文本token编码的max-pooling和mean-pooling结果,再经过MPL进行匹配预测。0 L- f! i  U, ^: B' T; ~0 ?) v, Q

    0 ~2 R3 A# k* G# h" ?- e" z( Y: ?0 y- x' }1 V4 \

    $ M! K& T1 l' R" s4 M! L8. Bimpm
    & _2 k; i: m9 g; F3 v  O$ s4 KBimpm可视为对之前各类交互型文本匹配模型的一次总结。
    & [- W4 V3 @7 a' c( T4 A) F1 j* v1 C$ x9 h7 K
    该模型在各层的具体做法总结如下:; h( s* G7 C% J. Q5 v/ [

    4 y9 K; D# t& p(1)编码层采用BiLSTM得到每个token隐层的向量表示;) H( {+ l! u* U" G$ ]/ e
    , m. B6 l& n7 R: Z; C, ^
    (2)匹配层遵循 m k = c o s i n e ( W k ∗ v 1 , W k ∗ v 2 ) m_k=cosine(W_k*v_1,W_k*v_2) m
    + k+ |' w8 Z" A/ z$ ik# c! j7 v8 l6 }7 N
    ​        7 ^; _& m8 ^, l
    =cosine(W 2 b8 ?' i; y8 J: l
    k& Q+ ^& H! y4 b- @1 z
    ​       
    9 b8 v3 J7 m3 R: m. k, Z; a ∗v 2 I3 h4 q$ R2 A- [
    1; N, c5 w6 ~+ k  w# q
    ​       
    , f: o! K% D  c8 i6 O) x6 Y ,W
    5 [* T/ Y3 B* r! n1 g! Dk
    8 r$ P! a! d6 I9 O$ f! t' g+ x$ c​        7 t2 r! A9 l% h; S/ o% ]
    ∗v
    ; j0 V5 X1 F, ]- x- ~8 \2# `2 `% z+ R4 V# q8 _$ n% V0 g/ ^% Q
    ​        * [2 f7 p0 ?( J' x3 L
    )的方式可以得到两个文本的任意token pair之间在第k个view下的匹配关系,至于 v 1 v_1 v 6 x7 ?% j+ J0 V+ j: S( e% t0 [
    1# R) Y$ M1 C6 P+ r5 u2 A6 I/ Q! z# [
    ​        2 B5 N! m" d3 k! e- Z
    和 v 2 v_2 v
    6 ~9 U2 H8 J! {( @" S. K' Y+ s& g' F% r2& F" h0 e) |8 I! g1 t* e. a
    ​       
    & G+ C, @8 _# g0 p- K0 G0 ?& w/ {2 X  ~ 如何取,文章提供了4种策略:
    ' U8 a9 D- n6 I; d: }/ H8 f4 r6 q& L. j- `: ^+ I9 I
    策略一:其中一个句子取各token隐层的向量表示,另一个句子采用隐层最后时间步处的输出;
    9 [& u* {, P7 Z  F+ n策略二:其中一个句子取各token隐层的向量表示,另一个句子采用隐层各时间步输出与之匹配后取再取Max-Pooling值;7 n7 [0 X! Z+ w1 ~& i
    策略三:其中一个句子取各token隐层的向量表示,另一个句子采用cross-attentive后得到的加权句子向量;2 M1 @5 T" |* R# A1 c
    策略四:其中一个句子取各token隐层的向量表示,另一个句子采用cross-attentive后attention score最高处token的向量作为句子向量。
    $ O" A0 G2 M6 S; P; H/ x这四种策略的区别在于对句子向量的计算不同。
    " M2 G5 K$ h$ P- g" E; Z* ^0 t9 E* Z. ~* r+ R- t

    . [# ^: m0 m' M; z; q(3)聚合层,首先对上面各种策略得到的输出层再通过一层BiLSTM层,然后将各策略下最后时间步的输出进行拼接,得到最后的聚合向量;
    , F3 B' c) S3 L
    $ u! Y0 l. z- A+ z1 Z; f7 J(4)预测层:两层MPL+softmax. E/ w9 k' a4 P, o; H
    . U2 u0 \0 e! ?3 q( w  N
    9. HCAN
    ( w  I: s# t- WHCAN是除Bert类模型外在文本匹配领域表现最为优异的深度模型之一,其采用了较为复杂的模型结构。; `+ }+ Z" M* B8 b4 }$ h

      H/ H6 J( V  f( q针对于信息抽取问题,文章首先分析了相关性匹配和语义匹配的差异:; W) B1 R% S* _( t( ]. I

    : e$ z7 ~9 _# L7 h, y(1)相关性匹配主要关注于关键词的对比,因此更关注低层级词法、语法结构层面的匹配性;
    * y1 h' @6 f3 h; Y+ i; E! j4 t7 A- X! s" `% v. D
    (2)语义匹配代表着文本的平均意义,因此其关注更高、更丑想的语义层面的匹配性。
    , G3 S% w% _7 z3 `1 n+ G! V; P1 c7 w8 m
    该模型首先采用三类混合的编码器对query和context进行编码:1 x/ b: c( E/ \; h) _

    % o! j; R6 I9 O+ \" d1 h$ v4 a(1)深层相同卷积核大小的CNN编码器;/ K6 r2 ?0 @" ^. t

    . j7 S$ d  ~$ q(2)不同卷积核大小的CNN编码器的并行编码;5 J9 Y6 R: G4 u

    0 x5 z8 @2 O. v; \1 |9 [6 Q(3)沿着时序方向的stacked BiLSTM编码;- v( j9 e; B1 P6 C

    9 n% n& ^8 t. P* S+ a9 c, d对于前两者,通过控制卷积核的大小可以更好的捕捉词法和句法特征,即符合相关性匹配的目的;而对于后者,其能表征更长距离的文本意义,满足语义匹配的目的。2 e( W: O2 G  O" S# p. [+ j! G! z

    % p( X; i6 |; f/ p3 b在这三类编码器的编码结果基础上,模型分别进行了相关性匹配和语义匹配操作。其中相关性匹配主要采用各phrase间内积+max pooling/mean pooling的方式获取相关性特征,并通过IDF指进行各phrase的权重调整。而在语义匹配中,模型采用了精心设计的co-attention机制,并最终通过BiLSTM层输出结果。( v3 F- C3 @  Z8 D- U+ d: v; f7 w

    0 q1 Q1 J: Z! r' @. w( X最后的预测层仍采用MPL+softmax进行预测。/ ~4 e+ O/ r" g' D) [: ]

    1 l3 G8 }6 ]) ]: m8 O7 Z. `10. 小结5 e( M2 w/ Y$ \1 F5 a7 {3 q6 s& _& b7 k
    交互型语言匹配模型由于引入各种花式attention,其模型的精细度和复杂度普遍强于表示型语言模型。交互型语言匹配模型通过尽早让文本进行交互(可以发生在Embedding和/或Encoding之后)实现了词法、句法层面信息的匹配,因此其效果也普遍较表示型语言模型更好。
    5 E: [1 N( C6 L5 ?# @
    . w. x% z" f  \3 ~【Reference】
    5 @/ {+ b6 c6 T2 _0 x3 |" \# I
    1 T- _4 e6 S! T/ B0 wARC-II: Convolutional Neural Network Architectures for Matching Natural Language Sentences
    % V5 k" }/ b" X, @. u& y& b2 Y+ ~4 y' W) t; @
    PairCNN: Learning to Rank Short Text Pairs with Convolutional Deep Neural Networks
    , |( n9 `, h1 I; [0 P7 o: A, \5 F0 O: g: a% J- T3 V
    MatchPyramid: Text Matching as Image Recognition
    ; r! _8 G" s6 L! k# A6 E# n
    2 G. G* D; {5 j/ v8 DDecAtt: A Decomposable Attention Model for Natural Language Inference+ z$ r- v- y, q) D, K
    , x5 E2 Z! n- t5 s9 r
    CompAgg: A Compare-Aggregate Model for Matching Text Sequences
    0 s6 Y8 U3 ^! N4 f: [+ O. v3 W) Y# M0 w0 U) a& i7 y# O7 C
    ABCNN: ABCNN: Attention-Based Convolutional Neural Network
    & ~. H' a8 P& Z% ~; \9 Lfor Modeling Sentence Pairs# i( h: T0 W5 \  l# F  C/ s' R' r
      f2 j1 x- ^2 u: d3 D& e4 Z
    ESIM: Enhanced LSTM for Natural Language Inference
    4 y" Q  W6 j3 O. \" @5 c  u+ L& U9 w
    Bimpm: Bilateral Multi-Perspective Matching for Natural Language Sentences' c2 b. l5 {6 Y

    & M9 [' s8 j) D* lHCAN: Bridging the Gap Between Relevance Matching and Semantic Matching
    / _9 I( ~$ N1 W- afor Short Text Similarity Modeling5 i! j& A" {4 a, N" A
    2 r) b) m1 Z5 h* I3 i. U
    文本匹配相关方向打卡点总结(数据,场景,论文,开源工具), x( Y9 @. m# \+ g0 N" c

    3 j+ m0 ]1 j% A9 h谈谈文本匹配和多轮检索
    , O  P6 X9 E6 W' e; S7 k& k' Z& P7 }  W# k
    贝壳找房【深度语义匹配模型 】原理篇一:表示型, T4 A4 n! b+ B# G
    ————————————————
    4 m% k8 Y* ~3 Q8 \9 Y8 r版权声明:本文为CSDN博主「guofei_fly」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    ! j1 k7 L, L0 g) i原文链接:https://blog.csdn.net/guofei_fly/article/details/107501276
    1 \: U0 ~* ?5 }- Q1 Z
    0 {2 t2 P) p; B, {8 P5 @- L
    ! p- c8 C7 K! x" S* D# Q& Z9 ?
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-8-15 10:12 , Processed in 0.377281 second(s), 50 queries .

    回顶部