在线时间 1630 小时 最后登录 2024-1-29 注册时间 2017-5-16 听众数 82 收听数 1 能力 120 分 体力 557240 点 威望 12 点 阅读权限 255 积分 172545 相册 1 日志 0 记录 0 帖子 5313 主题 5273 精华 18 分享 0 好友 163
TA的每日心情 开心 2021-8-11 17:59
签到天数: 17 天
[LV.4]偶尔看看III
网络挑战赛参赛者
网络挑战赛参赛者
自我介绍 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
群组 : 2018美赛大象算法课程
群组 : 2018美赛护航培训课程
群组 : 2019年 数学中国站长建
群组 : 2019年数据分析师课程
群组 : 2018年大象老师国赛优
' j' P8 v5 p& I& t" R% z$ h" V 距离你解决小样本/少数据难题,只差这篇文章 ( I6 U+ n/ H8 i% Y: H
文章目录 & s2 c+ j) S$ P
什么是小样本学习? $ C! a: i2 d1 G S
小样本学习变体 ' K1 U$ ?9 V. |# Z3 s, j& u
Zero-Shot Learning (ZSL)
; @; |+ Y2 S+ y/ Z, p One-Shot和Few-Shot
1 V$ ]: `( h! L8 a 小样本学习方法 % o9 R- f. Y" d3 v. B2 W, f
数据级方法
; \' {% h4 U5 n6 B- j# k! B. n+ S+ \ 参数级方法 2 t* D# _2 E6 O. h# }; o- w' m* v
Few-Show目标检测
, f5 U& n0 ^/ j$ e YOLOMAML
" m3 H$ F, r4 \1 j/ h# n; P( I 小样本解决方法进阶 7 J Y- O4 |, V" N2 v" A
总结
3 _1 F9 s& B* Z) v 如今,在使用数十亿张图像来解决特定任务方面,计算机可以做到超过人类。尽管如此,在现实世界中,很少能构建或找到包含这么多样本的数据集。 / q- i; U" @3 f" ~# o, y/ t: m
2 P* T8 A, K" q
6 W! Q! T5 P& G9 }5 K & V; o k1 \! N- F0 ]* l0 D
|& ?0 E4 p6 e& @+ ~ 我们如何克服这个问题? 在计算机视觉领域,我们可以使用数据增强 (DA),或者收集和标记额外的数据。DA 是一个强大的技术,可能是解决方案的重要组成部分。标记额外的样本是一项耗时且昂贵的任务,但它确实提供了更好的结果。 / n2 r) Q8 j+ G( ~
. V5 |/ V4 L. y) y/ X 1 S! T9 a- l- i6 @! k
如果数据集真的很小,这两种技术可能都无济于事。 想象一个任务,我们需要建立一个分类,每个类只有一两个样本,而每个样本都非常难以找到。
$ _7 P6 E' x- u$ X( x5 F 0 W! T) E& F0 B- p8 w: `
( u3 I5 r% W6 T* Z, B. s
这将需要创新的方法。小样本学习(Few-Shot Learning, FSL)就是其中之一。 & I2 R- n7 W o# @) W
; \# X$ \$ R" @( i% u
& G' O4 C" y$ v) ]3 K / N: n1 n" i1 t' n
7 n8 y& X8 K, y" \7 j
, I# V6 a0 E4 l1 Y: y% j! h- z
% Y/ r9 J# @& D1 _& H1 N 少样本学习(few-shot learning)是一个未来 AI 的发展方向之一。 : e9 V+ Y5 N- P6 p& l0 H; e" v$ p
) A! |6 N9 {3 y7 u) _- a
: @! X/ J% g% E: V s+ F, V" B5 c 首先现在深度学习和人类智能有一个显著性的差异,以图片分类为例,我们人类可以: (1). 从很少的图片中抽象出一个新的概念,比如我们可以在看过几张拉布拉多和柯基图片之后(假设我们之前不知道这两种狗的特征),快速分辨后续图片中的拉布拉多和柯基。(2). 甚至可以不看图片就可以得到新的概念,比如告诉你条纹马叫做斑马;但是我们现有的常见的深度学习模型则需要大量的图片来训练模型,比如常见的 MNIST 数据集,一般训练集为 6000 张图片,但其实只分类 0-9 的图片 (我们人类需要吗?)。这一巨大的差异就导致很多人研究少样本学习中来。以上两种情况就是常见的 few-shot 和 zero-shot 的场景。
p; l8 N h5 u a9 B t4 A7 v 3 J. H4 h+ ]9 D* B, [1 O
' A% @5 Q7 h; k t: Y( v$ x4 T7 g8 ~ 以 MNIST 的 few-shot 为例,我们只要一个类各一张图片,也就是 10*1 = 10 张图片来训练我们的模型,就可以分类剩余的所有图片,如果可以到这一步,深度学习和人类智能的差距会缩小很大一部分。这个问题的难点在于训练样本的数量对于深度学习来说太少了,很容易过拟合。 " u# F, d1 w2 s! P. |, Y# D# m
1 `4 C1 y- J, d" }3 ~1 v* q 8 h- r0 ^4 c7 t5 w# \& n
解决方法:
* {5 {6 t* T7 ^9 h8 w4 L* J - T! u6 e3 U, e `/ x
! f+ |- F0 F$ b0 ?
(1) 数据增强和正则化:第一种思路很直接,既然训练数据少,那我们就增加训练数据,例如我们经常看到的 Omniglot 数据集中的图片旋转 90° 的倍数来增加数据集中训练样本的数量(虽然本意不是用于解决 few-shot 问题)。还有就是既然会过拟合,那就加一个正则化项来缓解过拟合的问题。 , k( N- d- }; V+ T$ D/ F5 ^
6 l8 `) E! Q3 m& J/ B
* W4 Q/ b: ?% S5 ~ (2) Meta-learning(元学习):这是现在主流的方案,元学习的目标是利用已经学到的知识来解决新的问题。这也是基于人类学习的机制,我们学习都是基于已有知识的,而不像深度学习一样都是从 0 开始学习的。如果我们已有的先验知识来帮助我们解决新的问题,那么我们对于新的问题就可以不需要那么多的样本,从而解决 few-shot 问题。但是元学习需要用一些别的数据来学习这个先验知识,例如分类 MiniImagenet,其中有 100 个类,我们用其中 60 个类来学习先验知识,20个做 validation,剩余 20 个做测试。**注意我们测试的 20 个类和前面 80 各类是完全不同的,也就是新的类、新的概念、新的问题,并且这 20 个类每个类只有很少的几张图片 (few-shot 问题)!**然后前面的 80 个类用来用来训练模型和确定超参数,也就是学习帮助我们解决新问题的先验知识。
) W. Z: B; Y* x# o
% I) N- A5 {& v 7 B, C7 m L* f4 |% \
我们可以发现如果我们需要解决上述的 MNIST 少样本分类问题,可以直接用方法 1,但是方法 2 不行,因为我们没有别的类来做先验知识的学习,这确实可以看成一个问题。但是元学习有自己的方法:我们可以在另一个数据集上面训练学习先验知识(前面的 MiniImagenet 中的 100 个类都是一个数据集),例如从 Omniglot 中学习先验知识,用于 MNIST 的少样本分类(因为有种说法 Omniglot 可以看做 MNIST 的一种扩展)。当然这种方法的效果和两个数据集的相似度有关,两个数据集相似度很好,那么学到的先验知识可以很好地解决新数据集的 few-shot 问题,如果差异很大,可能效果会很一般。
, B& P! A: l1 N$ T f7 f% e
: Z: o. u. Q& n. R$ b7 m
7 n1 c6 F9 T; ^' s! d, x& Q$ N
; ^9 a& v2 J3 Y/ Y% ?4 _ 1 H. {3 m/ z" f5 |/ D* {% b
6 [6 {/ \/ |6 X& i& t. D0 p4 [
1 {8 q+ W8 v# ~5 n) g1 |
什么是小样本学习? : u: o1 v/ t, B) r' G
$ H0 ]5 d: s- W- h* x
P4 u. M% K2 [ _7 X' r9 H5 Y
4 ^) a4 k& J) h- @% c9 B% ^
2 r0 e) t1 N, P s* c$ h3 f" h Few-Shot Learning(以下简称FSL)是机器学习的一个子领域。在只有少数具有监督信息的训练样本情况下,训练模型实现对新数据进行分类。 0 r7 c+ B* ^' K Z1 v* ~ @
( C2 a3 R4 U# H$ |1 ?7 d) `5 H ' [9 h% X% E: K& J
FSL 是一个相当年轻的领域,需要更多的研究和完善。计算机视觉模型可以在相对较少的训练样本下很好地工作。在本文中,我们将重点关注计算机视觉中的 FSL。
& T0 F4 u/ Q a 9 @" F* }8 w" I8 ^8 x4 a3 e
" a' ]& O6 P" n; o
例如:假设我们在医疗保健行业工作,在通过 X 射线照片对骨骼疾病进行分类时遇到问题。 7 D8 r0 ]6 k5 C' {" I
: @- p- @- Y& L# x8 i. W
" \! ]" r6 S* ?* f" ^( U; Z! Q0 S 一些罕见的病理可能缺乏足够的图像用于训练集中。这正是可以通过构建 FSL 分类器解决的问题类型。 & C1 e+ @8 d, v9 i- k
* p5 T3 @# J: V3 l* H & L% [+ |8 x# N8 T j( l: S" h8 d
小样本学习变体 ! h* d( Y9 F+ W, N* a: v! q. l
9 J7 w, ?$ Z# D" q6 g
/ h* y. o" |7 b6 S
# v9 I5 x$ ~4 |3 k
4 q9 ]; f" ]7 q8 c5 s 根据FSL的不同变化和极端情况可以分为四种类型: C3 h% O* j1 \8 ]& g
" K7 g2 |+ \: Y3 b) B% c
6 T# w( E' [5 ]. S1 N N-Shot Learning (NSL) ; n9 q$ p, j& k; V+ c8 H
8 U' [: Y5 }% B 8 M ]; L. q5 i# m
Few-shot Learning (FSL) 3 z9 ]3 @4 O j/ T( p
# b$ @" ?8 f- S% k6 Q+ W
" n8 e1 p! G$ P: d" [ One-Shot Learning (OSL) 9 k& }; i a0 o! S# ^! A) m) C
9 C* l4 u# h! \& A2 U$ Y- k - h; N m2 E4 s& h
Zero-Shot Learning (ZSL)
* y/ B5 o3 S0 ]: I* u
$ ]% ^/ z0 @" W2 [ ) g+ g$ ?' s& J* h' Y0 y) a$ B
当我们谈论 FSL 时,我们通常指的是 N-way-K-Shot-classification。
- S) F3 e1 i" e# {+ h! A5 R 5 ~1 [2 y% `9 |1 G% U% C0 a
9 i4 n( O4 f8 I
N 代表类别的数量,K 代表每个类别要训练的样本数量。 1 R# `9 M+ m9 K
6 X7 P9 c" Y; X; D9 E
8 p0 O6 j" d0 b/ D6 L4 ^8 O N-Shot 学习被视为比所有其他概念更广泛的概念。这意味着,Few-Shot、One-Shot 和 Zero-Shot Learning 是 NSL 的子领域。
( [7 _+ u& E) @' F& \5 C, ^5 \ $ ]9 X5 k) z( z) J) M& b6 l {
, E2 M5 p5 ^* t1 r, x; b7 J4 m) Q Zero-Shot Learning (ZSL)
, @/ u* q# \" o2 M n3 Q Zero-Shot Learning 的目标是在没有任何训练样本的情况下对看不见的类进行分类。 ; Z6 O$ V; I" l- U7 s: H
! c; n" u7 o) `$ T! a+ O
6 q' N; n8 h7 m. E 这可能看起来有点牛逼,可以这样想:你能在没有看到物体的情况下对它进行分类吗? 如果你对一个对象、它的外观、属性和功能有一个大致的了解,那应该不成问题。这是在进行 ZSL 时使用的方法,根据当前的趋势,零样本学习将很快变得更加有效。
) H9 }& L! J# L4 B" [8 w" q4 ~! t ' }# I! b$ v5 f& B2 C" c1 i7 d/ [
, `* O+ }* X0 A+ V) o) y
One-Shot和Few-Shot
; ~6 R1 u) R% |) ^: Q+ B 在One-Shot Learning中,每个类只有一个样本。Few-Shot 每个类有 2 到 5 个样本,使其成为更灵活的 OSL 版本。
e7 E# g6 A1 V# e) } # e: n8 S+ y* ?% l; e- n
, B5 K! ]& Y' Q" e 当我们谈论整体概念时,我们使用Few-Shot Learning术语。但是这个领域还很年轻,所以人们会以不同的方式使用这些术语。
! f* w! H4 o5 M$ e" ^' y' _& Q
. R2 ? R: V$ j
) L. v, B& V3 c$ k/ B 小样本学习方法 & R% G/ S( _ C" d8 \* U4 G
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-etTvIL89-1624719145926)(data:image/gif;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABCAYAAAAfFcSJAAAADUlEQVQImWNgYGBgAAAABQABh6FO1AAAAABJRU5ErkJggg==)]
1 r3 d$ S4 J0 q7 R
3 A3 m: R; g W, K; ]
% r" q$ k" C) V1 P 首先,让我们定义一个 N-way-K-Shot-分类问题。
" G, Z5 {$ k# G + ~& V7 ~& h6 s, E. e2 J2 [
/ f9 ?- G' G# t* M
假定一个训练集,包括N 类标签,每类K个标记图像(少量,每类少于十个样本),Q张测试图片。 $ b4 k- F8 f5 H8 K3 z l
2 m+ K! f8 ~' W- E2 d
2 i/ e2 m0 ~! \ 我们想在 N 个类别中对 Q 张测试图片进行分类。 训练集中的 N * K 个样本是我们仅有的样本。这里的主要问题是没有足够的训练数据。 / `, G, q2 P0 h( e9 l! @
% n8 N2 _$ k# s8 k
/ |! T- B2 I6 G
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cCXhSj92-1624719145930)(data:image/gif;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABCAYAAAAfFcSJAAAADUlEQVQImWNgYGBgAAAABQABh6FO1AAAAABJRU5ErkJggg==)] - F% G9 [, ~% @: m
& b1 U# g. O) L5 d. ?# \
* z; T" ?( C; t7 F6 H' Q/ b
FSL 任务的第一步是从其他类似问题中获得经验。这就是为什么少样本学习被描述为元学习问题的原因。 ; e* V2 @& Y0 D3 `) P0 w
( o4 c! `7 Z3 D/ Q
6 n2 \# S& O& @5 O 在传统的分类问题中,我们尝试从训练数据中学习如何分类,并使用测试数据进行评估。在元学习中,我们学习如何学习给定一组训练数据进行分类。 我们将一组分类问题用于其他不相关的集合。
* t; M5 s- {6 X% Z6 k3 w- P 7 @5 L5 M5 s0 `1 C+ O; Y
9 P o4 w7 l% }! r4 d6 `0 U: e 在解决 FSL 问题时,通常考虑两种方法:
: l6 l! e' r' q1 U + H0 ^) p4 x$ e* \4 ^9 z& A8 I
" M( M4 q8 ?7 a% N2 [- @ 数据级方法 (Data-level approach,DLA)
1 f) K9 c1 i$ U/ |! W
# J& `0 J2 Y; }" H s9 N0 {0 s
/ s9 [+ N% ?, x6 F7 z% b1 n 参数级方法 (Parameter-level approach,PLA)
& W2 Z" y$ Q$ i) A6 g8 @
% u9 O! U) E' r* v3 f5 h 5 p) h6 F) B) u$ M$ h
数据级方法
: L9 w4 z u7 }5 g* ^& W 这个方法真的很简单。 它基于这样一个概念:如果没有足够的数据来构建可靠的模型并避免过度拟合和欠拟合,只需要简单地添加更多数据。
% R# S; M1 q2 d & D: [9 I. X6 F2 O: w
7 j5 @' H* A! m3 Z3 J @# w% S I 这就是为什么通过使用来自大型基础数据集的附加信息来解决许多 FSL 问题的原因。基础数据集的关键特征是它没有在训练集中为Few-Show任务提供的类。 例如,如果想对特定鸟类进行分类,基础数据集可以包含许多其他鸟类的图像。
. t* B2 F, R- F! M " c: Z( [( q4 f2 N, Y- H$ c9 _
# l$ ~" b# C O 我们也可以自己产生更多的数据。为了达到这个目标,我们可以使用数据增强,甚至生成对抗网络(GAN)。 : o8 V& K8 L: j3 l: H# r
$ i q$ e4 l; `- v( p
( d# I: s* A; a0 P& K; g2 r2 p* r 参数级方法
, p' j6 }# f3 y) q/ W4 N$ b 从参数级别的角度来看,Few-Shot Learning 样本很容易过拟合,因为它们t通常具有广泛的高维空间。
* q, p8 f$ c% R+ W0 f5 f [ & ]" D& d4 Q% V: U
8 K! A" [) h6 ~$ @! K
为了克服这个问题,我们应该限制参数空间并使用正则化和适当的损失函数。 该模型将对有限数量的训练样本具有泛化能力。
/ i% R5 \7 f8 H+ ]
2 `- ^7 d* U) V, d% `
. e6 V/ T p' m 另一方面,我们可以通过将其引导到广泛的参数空间来提高模型性能。 如果我们使用标准的优化算法,由于训练数据量很少,它可能无法给出可靠的结果。 4 ^( j, |5 R) b" t* {6 Z) k7 J
" g5 O! }3 e& v: \0 L$ y! s7 i
* `$ ~- b+ f0 o0 d* Q% b- u 这就是为什么在参数级别上训练的模型以在参数空间中找到最佳路线以提供最佳预测结果。正如我们上面已经提到的,这种技术称为元学习。 ( g' M! B% v, x8 c' s* A
# [ Q2 G: ?. l! v& J
) X2 b7 P( ~! S1 C Few-Show目标检测
z& _# o/ E/ |9 F: m' h 很明显,我们可能会在所有计算机视觉任务中遇到 FSL 问题。 . ]& S. j( y/ ^+ i
$ ~; A* \) n% X* v; n
$ Z6 }" ?% m/ b
一个 N-way-K-Shot 目标检测任务包括一个训练集:N个类标签,对于每一类,包含至少一个属于该类的对象的 K 个标记图像,Q张测试图片。 ) g/ x" D% l6 \7 k( T H! D
4 Y: n0 Q, S' t* j8 A8 i
6 A" [9 L' T* o 注意,与Few-Shot 图像分类问题有一个关键区别,因为目标检测任务存在一张图像包含属于N 个类别中的一个或多个的多个目标的情况。因此可能会面临类不平衡问题,因为算法对每个类的至少 K 个样本目标进行训练。 / @* P9 V1 y% M5 U! S
$ ^2 Q, s2 m" Z( a- |4 ~( v C
. a2 F8 l0 Y- a7 A8 g$ z YOLOMAML + K9 |# b) B% `1 z2 ]% C
Few-Shot目标检测领域正在迅速发展,但有效的解决方案并不多。这个问题最稳定的解决方案是YOLOMAML 算法。
5 |/ X+ J7 i: c+ p5 }7 K' C
1 v' n% @' F. t' l
: `! H, \* ]7 \0 ~ x0 u3 K YOLOMAML 有两个混合部分:YOLOv3 对象检测架构和 MAML 算法。
9 R* }7 ^& p- k8 X3 E + b4 I/ `6 E$ e3 w
( F* {( d! B% L4 N/ r
如前所述,MAML 可以应用于多种深度神经网络,这就是为什么开发人员很容易将这两部分结合起来。
: a, x* U1 Z3 F2 X
& K2 ?1 J/ H5 g
2 b( {$ n0 d6 s1 Y$ Y6 g/ j6 a5 V1 B YOLOMAML 是 MAML 算法在 YOLO 检测器上的直接应用。如果想了解更多信息,请查看官方 Github 存储库。 . w2 Z! B j8 O' N
3 @# A! Z4 \6 I- G# M$ R
% T/ z( G5 d" ^) w
https://github.com/ebennequin/FewShotVision + U- n g! g' w+ k* Q* d
- r+ y' b2 A7 C3 v1 w
) v; F" b+ u( x0 w' { 2 r8 v& }- f* |: b
, n2 y Q3 P6 W, g2 d& ?
& Y/ x! B# r# u ! M( U9 _4 c5 o7 Q; R6 G7 ?
小样本解决方法进阶 ; K; f, C0 k1 h+ z
迁移学习如何,利用在数据集ImageNet上预训练好的模型,迁移到小样本上进行微调?
! r' f$ y" L0 T- B M, A* e0 E
- Z* [1 I- g1 ?# n- @8 _/ m' t" q + ]) [* A. u! ?* w8 i6 O/ x
答:仍然存在跨域问题,但考虑到ImageNet上的数据集可能包含的知识丰富,可以尝试。
' N1 R+ b, q! T+ P8 P0 V4 T 9 c. g8 ]: g x: g: m7 m* O
2 r$ P A6 h: `( e, S8 y' ^ 方法一:针对COCO数据集中包含小目标的图片数量少的问题,使用过采样OverSampling策略。
1 \+ Z6 `( Y; D8 H 方法二:针对同一张图片里面包含小目标数量少的问题,在图片内用分割的Mask抠出小目标图片再使用复制粘贴的方法(当然,也加上了一些旋转和缩放,另外要注意不要遮挡到别的目标)。
k( R' L- s: Y
2 Y6 I/ {; x6 ~& j 9 p, V. @- d6 I, t0 c
4 X$ O" Z4 N& T( {
( r. x3 u1 y# B, t- g5 m 2 Q5 C+ C& h5 l9 s' J# N7 \
$ Y/ {5 g. ?/ u
2.传统的图像金字塔和多尺度滑动窗口检测
* J! H% r1 t/ L4 v! z1 u z 最开始在深度学习方法流行之前,对于不同尺度的目标,大家普遍使用将原图build出不同分辨率的图像金字塔,再对每层金字塔用固定输入分辨率的分类器在该层滑动来检测目标,以求在金字塔底部检测出小目标;或者只用一个原图,在原图上,用不同分辨率的分类器来检测目标,以求在比较小的窗口分类器中检测到小目标。著名的人脸检测器[MTCNN](Joint Face Detect ion and Alignment using Multi-task Cascaded Convolutional Networks)中,就使用了图像金字塔的方法来检测不同分辨率的人脸目标。
1 l6 ^9 x- }3 N% _* [
4 L6 ?1 v3 N( ~6 X: K ! P- P1 c/ @. |0 ]0 q. `1 U
# B1 ~+ D ]9 S3 I # v% B8 `5 M, x2 y1 o5 R8 {
0 E7 j, V; S1 M% o% G; A( _
5 s( H& Z- h' a+ D& L9 T 这种方式虽然一定程度上可以提升检测精度,但由于多个尺度完全并行,耗时巨大。当前的多尺度训练(Multi Scale Training,MST)通常是指设置几种不同的图片输入尺度,训练时从多个尺度中随机选取一种尺度,将输入图片缩放到该尺度并送入网络中,是一种简单又有效的提升多尺度物体检测的方法。虽然一次迭代时都是单一尺度的,但每次都各不相同,增加了网络的鲁棒性,又不至于增加过多的计算量。而在测试时,为了得到更为精准的检测结果,也可以将测试图片的尺度放大,例如放大4倍,这样可以避免过多的小物体。多尺度训练是一种十分有效的trick方法,放大了小物体的尺度,同时增加了多尺度物体的多样性,在多个检测算法中都可以直接嵌入,在不要求速度的场合或者各大物体检测竞赛中尤为常见。
& E7 V9 Y& g- O. @- x# e 2 @/ R# ~. s( }" V7 E
4 [% T0 x" d+ l0 f, o
( }1 p. n: r3 ^' L/ @0 y' R # \( z3 U+ S# Y" u3 @
6 t; ~: y, ^2 ?
1 F4 ]6 g' _- V 总结 ; v/ b+ _; H( V- N
在本文中,我们已经弄清楚了什么是Few-Shot Learning,有哪些 FSL 变体和问题解决方法,以及可以使用哪些算法来解决图像分类和目标检测 FSL 任务。 ' }2 a4 x- V7 e; |. J: u
& h6 K) L& x0 Q3 t. D" F' I
5 a% n$ Z6 P6 @, J# N" a. O4 z( e Few-Shot Learning 是一个快速发展和有前途的领域,但仍然非常具有挑战性和未经研究,还有很多工作要做、研究和开发。 . K0 h) D$ ]$ I- Z. @6 R4 C- N) ?1 X
———————————————— 4 v! \5 J4 s/ W/ P8 |
版权声明:本文为CSDN博主「cv君」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
; F# G3 g( ` D* D+ F 原文链接:https://blog.csdn.net/qq_46098574/article/details/118255956 ! L3 w4 x- B" _& L; i& @3 H
& n" ~, r6 p& r
9 c$ @6 K6 _$ F- C' Y
zan