QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 1266|回复: 0
打印 上一主题 下一主题

【声纹识别】attention在声纹识别中的应用

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

81

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2020-4-23 15:06 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta
    3 F) S5 c# r6 h- U$ q$ o
    【声纹识别】attention在声纹识别中的应用
    3 Q6 n$ J$ Z* ]3 [# I+ U) P  B0 t; l4 q: `: k8 o1 W0 c4 c3 j
    【声纹识别】attention在声纹识别中的应用3 A1 u8 s, {& v$ F8 F# y4 I

    . D# o* J  m3 E, ~Paper1:Attentive Statistics Pooling for Deep Speaker Embedding
    " V8 ]1 x0 ~1 j- `# zAbstract& Q: Y/ P: J1 g, ^+ J$ p# H
    Introduction
    , M8 q0 U% u. e8 Z4 mEvaluation
    6 t; \" ?1 c$ g2 i7 FConclusion4 o" |0 ~5 I3 B# N
    Paper2:Self-Attentive Speaker Embeddings for Text-Independent Speaker Verification
    , x* B. a' i+ P( vAbstract
    4 e' w2 d8 ?. k& PIntroduction
    ! C7 {0 m8 v& t! r4 p, O: W6 tSpeaker verification system
    8 g: I/ A6 \) w$ W- AExperiment3 }% d) a% w" K3 r% u. c6 n5 \4 r) b
    补充知识6 l/ V/ j) V- z' L) w. r4 Y
    什么是x-vector的baseline系统?The x-vector baseline system
    2 i& q3 c0 X5 p1 y0 o最小检测代价(Minimum Detection Cost Function, minDCF):
    / ]6 l. N: n5 u4 w* m9 d8 yEvaluation
    . K% U2 V/ L) G* M# rConclusion
    5 L  k5 l! M# w& i# d: u; tReference/ A( M  U8 Y1 j) f9 ~
    Paper1:Attentive Statistics Pooling for Deep Speaker Embedding9 z  S, x: ?+ \( ^6 [

    ' K- ~/ o, q7 f$ N/ QAbstract" b5 [- B; i* q4 O/ E+ N; v

    ; V6 g4 @8 e/ V7 j1 k6 ~这篇paper提出了对于深度说话人嵌入(deep speaker embedding)的注意力统计池。在传统的说话人嵌入中,帧级特征(frame-level features)是在单个话语的所有帧上平均以形成话语水平特征(utterance-level feature)。文章的方法是使用注意力机制给不同的帧不同的权重,并且同时生成加权平均数、加权标准差。在这种方式下,它可以有效地捕获到更长期的说话人特征变化。最终在NIST SRE 2012评测和VoxCeleb数据集上的表现证明了模型的对于speaker recognition有效性。0 i* K. C* s2 g: @" t5 s1 Q& n
    8 i/ T& o9 S1 N
    Introduction
    : p+ R# J/ c0 w1 I" E1 U; N' j5 g( x& U
    ' a# U9 ^( B. t2 _7 K这一部分列了一些说话人识别的发展历史、背景的介绍
    ) e% k9 K/ ^0 a
    ) @1 A% T: t7 O3 u说话人识别结合i-vector发展的非常快,i-vector主要是把说话人表征在固定低维度的特征向量。& ~" b/ @* v, V3 R% _/ B
    深度学习用于speech中的特征提取。但是这和GMM-UBM模型对比的差别还是依赖于大量的语音数据。才能提出比较鲁棒、好的特征,但是语音的数据标注很麻烦、非常贵。
    7 J, H: v  Q% K9 q近年来,DNNs可以独立于i-vector框架,单独提取说话人识别特征向量。这种方法取得更好的效果,特别是在短时间的话语条件下。如果文本相关(text-dependent)
    ' [7 h( `/ m+ @3 Z; w) Q* y文本无关说话人认证中,加入了一个平均池化层使得输入不定长语音的帧级特征可以被整合为语句级别特征
    7 {+ |3 y( u# D. A5 {' B注意力机制从一开始用于NLP,目前也在逐渐被应用到这个领域。
    0 M7 z# |3 z/ \% v$ J/ K提出了一种新的池化方式,叫做注意力统计池化能够输出权重标准差、帧级特征的权重平均值,规避了上面3说到的DNN提特征方法往往对于短时语音效果的缺点,即也可以应用于长时语音。4 u; _  \; N; |7 v) H
    8 w) u( \( M- G. ?
    上图中首先是我们的音频会分成很多帧,由帧级特征提取器提出不同的帧,帧级特征进入池化层,池化层的作用就是把这些帧级特征平均,得到言语级的特征。再根据言语级的特征辨识出说话人的特征。
    0 N+ L, U) d% m9 Q/ C0 h" I$ ~' {/ S
    8 |, ]  @" ^. x$ M7 Z( U那么,是如何进行统计池化的呢?首先统计帧级特征的平均值如(1)式所示;计算基于帧级特征ht的标准差。8 G# U. L3 P6 n+ E' B
    - {+ [5 g( [- |9 w$ {( a6 c& K
    注意力模型在原始的DNN,并且为帧级特征计算了大量分数et,其中v转置不知道?f(Wht+b)+k是一个激活函数。就像tanh或者ReLU等函数。
      e* P# s8 J$ s; e4 A; p) G3 q9 r9 W6 b4 _" b+ S  j2 n3 P
    接下来这个et通过softmax激活函数后,可以得到at。
    9 R/ t) g; r7 D+ I
    2 Q2 O& [. p2 S$ z8 @. z& n3 X# ]经过at ht的激活函数结果是平均值u( |# ]0 z( I& F3 b! ~" i

    # t! q; t( [$ T由此得到加权后的平均值和标准差5 z( ]8 q- Q" X5 X) w, i

    % v# y8 B) p4 [+ V3 {) [2 J4 @6 v+ D9 V% Y3 |& c7 X: x) \
    & b! g4 |. I, Y; D& [2 x
    Evaluation! I! h, h$ O; a: o  r3 B! Y9 p
    2 X# T/ I0 d/ }2 H0 I3 r& V
    下面采用了5种embedding的方法,测试NIST SRE2012 通用场景2; NIST SRE2012 说话时长; VoxCeleb共三种情况。% w- i. ~+ [+ C. a
    比较神奇的是i-vector经常作为一种baseline方案,居然有如此低的EER,文中给出的解释是NIST 2012数据集中的数据语音本身就比较长。2 i, X7 X) k6 t; R, L# L1 p& o

    5 q+ Y; D7 u  e1 T1 j" D' o) V' f5 s) k7 l: {8 }

    3 I; C0 h( ]. N' P5 K: b; u
    ( H. \& y/ D4 a& O! ZConclusion" R' {7 v8 \7 _  N/ i! \8 c) J

    " {# A8 ~* H' I4 |( G我们已经提出了注意力统计池化方式来提取deep speaker embedding,**池化层计算的是经过注意力机制作用的加权特征平均值、加权特征标准差。**这使得说话人其纳入能够focus重要的帧。不仅如此,长时间的偏差能够被说话人统计在标准差中。比如结合了注意力机制和标准差提供了协同效应。+ `( G! ?' H' b! g  _
      w$ [7 v4 H  R( D- I' h& b) ?
    Paper2:Self-Attentive Speaker Embeddings for Text-Independent Speaker Verification
    9 F/ T2 G4 [8 H! Y0 a+ S) @: V6 d; Z0 q* r- d% ]
    Abstract
    3 o/ l& {& x/ j7 h0 S8 U
    . k5 r6 i: \, p; P/ \  }  }* V5 g+ X) E这篇文章提出了一种文本无关场景说话人场景用DNN提取特征。通常,说话人嵌入是分类DNN平均了说话人帧上的隐藏向量;所有帧产生的隐藏向量被认为是同等重要的。我们反驳了这一假设,将说话人嵌入作为帧级隐藏向量的加权平均值进行计算。其权重是由自相关机制自动确定的。多个注意头对说话人输入语音不同方面的影响,最后,用PLDA分类器比较嵌入对。在NIST SRE 2016上,将提出的自相关说话人嵌入系统和强大的DNN嵌入baseline进行比较。我们发现,self-attentive的embedding具有卓越的性能,其改进对于长时、短时的语音都有不错的效果。6 ^, ^# d7 [- b
    4 }0 {. ~: s% w# F+ n9 ~+ r3 U( t
    Introduction- |6 Q; n( L! \/ y; v0 A
    & }1 R/ p1 o) w( }- G
    说话人识别(声纹识别)的目的是从几句人说的话来确认一个人的身份。有两种系统:一种是文本相关、一种文本无关。3 V8 z& r" H% f+ Q. p8 Q! D6 n+ w3 J
    近些年对于文本无关的声纹识别方案主要是:结合i-vectors和使用PLDA(概率线性判别分析)6 O2 P; i# k4 b4 r+ P3 i; J
    另外,将训练好的DNN用于ASR或者其他方案。不仅如此,这个方案的成功率已经主要地独立于英语数据集! {+ F' I; C% N* @& T* v
    ICASSP 2016【End-to-end text-dependent speaker verification】 提出了一种端到端系统,用于文本相关的说话人识别任务,联合的训练来匹配说话人嵌入的帧级特征,并且学习一些相似度比较尺度来匹配embedding pairs。( {) [/ C0 j' C8 A5 k, t, z# w2 t
    Interspeech 2017【Deep neural network embeddings for text-independent speaker verification】 将端到端系统分为两个部分:a. 产生说话人嵌入的DNN; b. 比较嵌入对的单独训练的PLDA分类器。与端到端方法相比,该方法需要的有效数据更少,并且有利于重用多年来开发的用于处理和比较i-vector的方法的附加好处。! h$ K8 l3 y4 J' v4 G
    大多数基于DNN的声纹识别系统使用池化机制来匹配可变长度的语音->定长的embeddings。在一个前馈架构【啥是前馈结构??】里,这通常被池化层使能,并且能够在全语音输入部分平均一些帧级DNN的特征。早期的系统中,如d-vector,DNN是在帧级别上训练的,并且通过对输入话语的所有帧上的最后一个隐藏层
    8 g+ m  X7 d6 a  J( T# R: ~6 i- m这篇文章提出了一种x-vector的架构。为了更好地在输入语音中使用说话人信息,我们提出用结构化的自注意力机制帧级权重,用自注意机制和加权的统计池化层。不同于STL 2016 【End-to-end attention based text-dependent speaker verification】, 这篇文章的工作是文本无关并且是训练、测试数据不同的。因此语音信息可能没有帮助甚至无法使用。/ D- g0 z8 x5 e1 _+ B
    然而在最先进的工作中,这些池化机制分配同等权重和帧级特征。张等人提出了一种注意力模型来对于文本相关的说话人识别应用,结合帧级特征。8 e! ?2 F& w$ a1 |& U
    Speaker verification system
    5 _' Y* g& E1 X
    * R  a' h9 X" ]& ^* v, @" k" \# J作者把自己的方案和两个x-vector的baseline方案进行了对比。5 Z% G, V+ z* N1 o  p& ]
    + {! b( z1 i# h  `/ U
    其中图一这个网络结构:L1~ L5使用了时延神经网络,tdnn可以很大程度上保留上下文信息,起到取代rnn的作用,而且tdnn是卷积网络,可以并行计算,rnn不行,tdnn比rnn快,kaldi里面也是强推tdnn,具体L1~ L5的操作如下图所示:
    6 g1 C6 C- ?3 k6 Q1 B  lxv每次卷积计算的时候第一层只取输入的5帧,第二层取第一层的3帧,但是这三帧是隔一帧取一帧,第三层取第二层的三帧,隔两帧取一帧。
    * O3 i7 {5 \) d0 B2 _# x. ^% N  n3 w7 N( _  F+ G' S: h
    然后统计池化层聚合了所有帧级输出向量,计算他们的平均值和标准差。池化的作用使DNN可以从变化长度的语音中产生定长的表征向量。平均和标准偏差合并在一起,然后向前传送到L6和L7,最后输出到softmax层。
    2 h0 o  s) |, [; C' s6 G
    1 g# j" _3 {; `1 T5 s: D: h比如一段说话时长为T的语音,其输出向量为H = {h1, h2, …, hT},ht是输入帧xt的隐藏表征(通过了L1 ~ L5的TDNN时延神经网络的隐含表示)。我们认为ht的维度是dh。那么,整个H语音隐含向量是dhT。自注意力机制将整个隐含表达H向量作为input,并且输出矩阵A:8 D0 ?' K- a& v5 l! V1 L/ _* c

    ; W$ D1 B4 @2 \. {' qH维度dhT;W1维度dhda;W2维度dadr,另外dr是一个超参数,表达注意力机制的多头个数。g(·)是ReLU,softmax是column-wise (按照列分类的)。所以最后得,softmax(T*dr维) => dr维的行向量结果。. T5 N  Z& a5 }
    6 S9 T6 `% ~1 z, j8 O7 j7 y. O
    因为由(1)知道,A是自注意后得到的权重矩阵,每一个A矩阵的列向量是符号向量,表示了不同ht的权重。当注意力头数是1时,就是一个简单从H中计算得来的加权平均向量。3 Z( W' A* O: X) A- N2 d: U
    ( g" I6 V8 b5 e
    很明显的是,不同说话人特征不同的原因有多个方面,特别是当语音片段很长的时候。通过增加dr,我们能够轻松的获得多注意力头来学习一个说话人语音的不同方面。为了增加向量的多样性,因此每个注意力透能够从相同的语音片段中获得不同的信息。一个惩罚函数表示如下:
    2 G1 P1 H( g% [# S5 L: m) x/ L& G6 E. P
    P和L2范式非常接近,所以它是想让这个A的权重平方越来越小。2 ]2 e$ b) {8 ]- U

    ; t/ _8 `2 X0 v. \Experiment
    / f! T/ N* e- C" d- G: k8 E3 y/ }4 J/ O5 }9 ^, h

    0 S9 [  u4 Y& m. j! c# J对于baseline的i-vector方案来说(最后一行)广东话的错误率8.3%,DCF16最小检测代价指标0.549;对于菲律宾语迁移能力差一些,pool是指将两者测试集混合起来。
    $ X4 z8 j" `- S+ ?/ l
    - _6 a% r% ~! g/ D& i  g+ S补充知识: T7 f% }# k( Z$ f; S

    $ a; D, d/ \# h什么是x-vector的baseline系统?The x-vector baseline system
      }* \, G, f: D) x% H) t/ q& C- V# _7 `0 p
    可以认为x-vector baseline system就是训练了一个专门的DNN模型,能够把输入的语音转化为输出的speaker embedding向量,把这个向量称为x-vector,然后经过PLDA模型是用来进行比较这些speaker embedding,最终转化为结果的。5 a" V5 c% w2 q; \! u! n. L6 ~6 b
    - R, |0 o  ?/ h( g- h, O5 ?7 v: {
    最小检测代价(Minimum Detection Cost Function, minDCF):
    3 Y* M( e5 W' n" ]* F# O/ O
    7 S5 |( N" ~" O# r* g【转载自https://blog.csdn.net/qq_33811075/article/details/85101874】# }, }, m4 O# ~  V
    DCF 是 NIST SRE 中定义且常用的一种性能评定方法。其定义为:! m1 F9 o! Y! ^: d. @+ B4 s
    ) [# t. m# k' g* p( p4 Z/ B
    其中 CFR和 CFA 分别代表错误拒绝和错误接受的惩罚代价,Ptarget和1 − Ptarget 分别为真实说话测试和冒认测试的先验概率。可以根据不同的应用环境来设定它们的值。比如在军事门禁系统中,我们希望严格控制出入人员,即希望错误接受的概率比较小,那么可以增大 CFA 的值;在监控犯罪人员的语音时,我们希望不漏掉可能的目标语音,则可以增大CFR 的值。当 CFR、CFA 、Ptarget 和 1 − Ptarget取定后,EFR 与 EFA 的某一组取值使得 DCF 最小,此时的 DCF 成为 minDCF 。) _. W1 @0 _+ ?7 V5 s) `
    在日常使用 DCF 时,通常以 NIST SRE 2008 设定的CFR = 10,CFA = 1,Ptarget= 0.01 为准。minDCF 不仅考虑了两类错误的不同代价,还考虑了两种测试情况的先验概率,比 EER 更合理。
    4 |4 c( J* b; L9 N' Z2 W
    % [# S; a3 S( P3 T% U( v' [- UEvaluation
    0 [* Y9 A6 g$ K/ w1 Y( f+ Q5 S, _$ U" w  W. h/ m  ^. N
    下图代表的是只做平均处理的系统,当SRE16数据集中的粤语+菲律宾语混合做为测试集时。两者会融合起来,DET曲线的横纵轴将FAR和FER转为对数度量,这时候曲线越靠近原点,说明系统的EER错误识别率越小,性能越好。
      E1 p+ S, m" c5 p7 A9 q! |: i& N% C8 r* c; B% @2 S
    下图代表的是使用平均化且拼接标准差的系统,当SRE16数据集中的粤语+菲律宾语混合做为测试集时。两者会融合起来,DET曲线的横纵轴将FAR和FER转为对数度量,这时候曲线越靠近原点,说明系统的EER错误识别率越小,性能越好。' W7 z! j! \0 ^6 ^1 G0 o1 s
    ( [+ E. S7 \. ]7 J7 Q
    除了在模型上的评估。文章还对语音的长度影响做了评判:得到了3个意料之内的结果:
    $ {+ M: a% k& }' \+ h8 y% e
    " {& H' `' s* s; C8 \自注意机制嵌入能够带来性能提高,不论是什么语音长度。
    5 c2 B7 n/ V& |2 Y1 d, B0 W持续时间长的语音识别效果更好,因为说的话越多,speaker的信息就越充分。
    . o( l% [' x6 A: L  c自注意机制如果有比较多的注意头会性能更优秀。
    9 W8 g9 r+ N' [# _8 J2 j0 d
    : n7 I; ~% Z5 pConclusion5 o( |! j$ V, e0 K  X. }/ w" k

    8 w5 x+ t9 F$ K, p: b我们提出了一种提取说话人embedding的方法,对于文本无关的说话人验证,通过把self-attention机制加入到DNN embedding中。这种新的speaker embedding方法成功地在SRE 16上面进行评测,这个数据集的难点在于训练数据是说英语的,但是测试数据是用广东话或者菲律宾语的。结果当然是这个文中提出的方法好于基于传统i-vector和DNN embedding的方案啦…通过增加attention heads数,效果更好了。
    * {) c$ ]+ O; e8 R% P6 f8 |6 O9 @/ q
    - Z7 ]9 Q; X6 p1 F: Zfuture works: 我们打算通过调整训练策略,比如使用更大的数据集。另外,调研不同的多头注意力惩罚机制。9 P, |" v" b( \; ]) Y

    / ]' h9 a# x% D4 iReference
    ' i  _) @; ]: G9 M6 o, k& s% {, m) s
    ' W5 a" k5 J5 T! V$ n( o+ S[1]: Attentive Statistics Pooling for Deep Speaker Embedding
    ) y2 `' v5 t0 M  _[2]: Self-Attentive Speaker Embeddings for Text-Independent Speaker Verification+ P8 x# r/ d/ r" i" K6 ^
    ————————————————7 O1 l; l2 ~6 |8 _( `2 r
    版权声明:本文为CSDN博主「letterli」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    ( u% }& p9 C; p1 B5 B3 v原文链接:https://blog.csdn.net/qq_37221583/article/details/105677379/ E' |$ i& n  k

    0 R1 K: ]: j2 F! N3 b$ K/ j- b: z3 }# o1 |2 d
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-5-16 04:48 , Processed in 0.341968 second(s), 50 queries .

    回顶部