开放科学(资源服务)标志码(OSID):
肠胃道疾病对公众健康造成巨大威胁,及时发现肠胃道异常可降低患病几率,无线胶囊内镜(Wireless Capsule Endoscopy,WCE)[1]能够以无创伤、无痛的方式直接检查患者的肠胃部分。一个患者的WCE检查过程将会持续8~11 h,摄像头以2 frame/s的速度拍摄5~8万张图像,WCE图像多达上万张,但是,复杂的胃肠道环境因为碎片、散焦、气泡和光线等干扰因素产生了大量质量较低的WCE图像,可用作诊断分析的WCE图像只占所收集图像的5%。目前,许多方法被应用于WCE图像的辅助诊断,且多数方法都是针对单一异常进行检测,包括出血[2]、息肉[3]、溃疡[4]以及克罗恩病检测[5]。但是,真实环境中一个患者的肠胃道常具有多种异常,WCE图像的多分类在临床实践中具有重要意义,只有很少的方法被应用于WCE图像的多分类任务[6-8]。WCE图像因数据分散、数据采集困难、隐私保护等原因通常只有少量的标注数据,与小样本自然图像分类不同,WCE图像分类还面临类间相似、类内变异度高等问题。
为了解决小样本WCE图像的多分类问题,本文提出一种基于注意力关系网络(Attention Relational Networks,ARNs)的小样本WCE图像分类方法。该方法将关系网络[9]、注意力机制以及元学习训练策略相结合,以在少量标记样本下对WCE图像进行有效分类。构造基于注意力机制的嵌入模块提取WCE图像的特征,将提取到的查询样本特征与支持样本特征进行级联并输入到关系模块中,根据关系模块输出的关系评分得到查询样本所属的类别,采用元学习的训练策略训练网络。在多个数据集上进行实验,采用准确率、特异性和敏感度评价指标对本文模型进行评估,并将其与其他小样本学习方法以及WCE图像多分类方法进行性能比较。
1 相关研究 1.1 小样本学习方法小样本学习能够应对标记数据不足的问题,对于训练过程中只给出极少量的标注样本的类别,模型也能够正确识别。度量学习是一种主流的小样本学习解决方案,基于度量学习的小样本学习方法通过学习一个特征映射函数,将样本投射到一个特征空间使得同类样本聚集,异类样本分离,然后比较样本在特征空间的距离以判别样本所属的类别。在度量学习研究领域,具有代表性的网络包括孪生网络[10]、匹配网络[11]、原型网络[12]以及关系网络。
孪生网络模型构造不同的样本对并输入到网络进行训练,通过比较网络中输出特征的距离来判断样本对是否属于同一类,并产生相应的概率分布。匹配网络采用支持集和查询集构造不同的编码器,最终分类器的输出是支持集和查询集之间预测值的加权求和。原型网络通过学习一个度量空间,在度量空间内以每类样本特征的均值作为类的原型表达,计算样本特征与每个类原型的欧式距离以进行分类。关系网络采用卷积神经网络来学习如何度量2个样本间的相似性,相比于人为设定的距离度量方法,其能够较好地判断2个样本间的相似性,原因是关系网络基于训练集训练网络对于样本的比较能力,然后利用网络进行小样本识别。
1.2 注意力机制注意力机制被广泛应用于图像分类任务,在卷积神经网络中添加注意力机制可有效提高网络的特征表达能力。目前,图像分类领域主要有通道注意力机制、空间注意力机制以及混合注意力机制3种。SE(Squeeze & Excitation)[13]即通道注意力机制,SE模块通过全局池化层对特征图的不同通道进行空间域压缩后沿着通道域进行重新加权,其中,权重大小表示各个通道的重要程度。空间注意力机制即在空间域内添加注意力机制,Non-local Nerual Networks[14]利用特征图中所有位置的特征加权和计算一个位置的响应。本文的注意力模块(CBAM)[15]采用混合注意力机制,其将空间注意力和通道注意力同时加入模块中。
2 基于ARNs的WCE图像分类方法 2.1 ARNs模型结构深度学习在计算机视觉领域取得了优异成果,然而,深度卷积神经网络参数量巨大,需要大量的标注数据进行训练,WCE图像由于标注成本大、隐私保护等原因只有少量标注数据,且WCE图像分类还存在类间相似、类内变异度高等问题。如图 1所示,不同类WCE图像的差异集中在图像的部分区域,同类WCE图像类内变异度高。
![]() |
Download:
|
图 1 不同类的WCE图像 Fig. 1 WCE images of different classes |
本文采用基于度量学习的小样本分类方法完成WCE图像多分类任务,其中ARNs模型结构如图 2所示,整体架构分为嵌入模块和关系模块。嵌入模块是基于注意力机制的特征提取模块,其将支持样本和查询样本映射到某个特征空间以得到两者的嵌入向量。关系模块首先将查询样本和支持样本在特征空间的嵌入向量进行级联,然后将级联后的特征向量输入到卷积神经网络中,根据网络输出的关系得分来判别查询样本所属的类别。
![]() |
Download:
|
图 2 ARNs模型结构 Fig. 2 Structure of ARNs model |
关系网络模型采用顺序连接的卷积神经网络结构作为模型的嵌入模块以进行图像特征提取,但是,顺序连接的卷积网络在卷积层数较少时难以获得具有较强表征能力的特征,随着网络的加深,在网络中反向传播的梯度会因连乘变得不稳定从而出现梯度消失的问题,导致网络的性能下降。ResNet[16]通过加入残差块来解决深度网络中网络性能下降的问题,残差块采用跨层连接的方法,可以让浅层特征过渡到深层继续被重复地学习使用。残差块结构如图 3所示,其中,
![]() |
Download:
|
图 3 残差块结构 Fig. 3 Structure of residual block |
残差函数表示为:
$ F\left(\boldsymbol{x}, \boldsymbol{w}\right)={\boldsymbol{w}}^{2}·g\left({\boldsymbol{w}}^{1}\boldsymbol{x}+{\boldsymbol{b}}^{1}\right)+{\boldsymbol{b}}^{2} $ | (1) |
其中,
$ H\left(\boldsymbol{x}, \boldsymbol{w}\right)=g\left(F\left(\boldsymbol{x}, \boldsymbol{w}\right)+\boldsymbol{x}\right) $ | (2) |
残差网络的学习目标是通过恒等映射的学习,将残差函数的结果逼近于0,使得残差块的输入近似于输出,即浅层的特征能够过渡到网络的深层,从而解决梯度消失的问题,保证网络的层数增加但性能不会下降。
注意力可以利用人类视觉机制进行直观解释,人类视觉系统倾向于关注图像中辅助判断的部分信息,忽略掉不相关的信息。在计算机视觉信息处理过程中,输入图像的某些部分会比其他部分更有助于决策,在计算机视觉中添加注意力可以将有限的计算资源分配给图像中有助于预测图像类别的部分。WCE各类图像之间的差异往往只集中在图像的部分区域,并且各类图像之间的差异非常细微。准确分类WCE图像的关键在于将网络的特征提取聚焦于图像中具有足够区分度的关键区域,在WCE图像分类中,捕获到具有判别性的局部特征非常重要。为了关注WCE图像中重要的局部信息,过滤掉不重要的局部信息,本文采用CBAM注意力模块。CBAM是一个简单有效的注意力模块,可添加到前向传播的卷积神经网络模型中,并与模型一起进行端到端的训练。对于网络的中间层特征,CBAM模块分别通过空间和通道2个维度获取到3维的注意力特征图,这种分离的注意力特征图生成过程只需要少量的参数和计算资源。本文采用ResNet作为嵌入模块的主干网络,在此基础上加入CBAM模块,ResNet网络通过多层的卷积实现对WCE图像特征的提取,CBAM模块可以提高对WCE图像中关键特征的敏感度,从而提高嵌入模块的特征表达能力。
ResNet层数可以选择18、34、50、101、152等,在经过实验对比以及综合考虑网络各层的特征表示能力、计算量等因素的基础上,本文根据文献[16]的方法,将CBAM添加到ResNet18中,即在ResNet的每个残差块中插入CBAM。具体做法如图 4所示,ResNet中的前一个卷积块输出的特征向量
![]() |
Download:
|
图 4 ResNet中加入CBAM的结构示意图 Fig. 4 Structure diagram of adding CBAM in ResNet |
$ \begin{array}{c} {{\boldsymbol{M}}_C}\left( {\boldsymbol{F}} \right) = \sigma ({\rm{MLP}}\left( {{\rm{AvgPool}}\left( {\boldsymbol{F}} \right)} \right) + \\ {\rm{MLP}}\left( {{\rm{MaxPool}}\left( {\boldsymbol{F}} \right)} \right) \end{array} $ | (3) |
通道注意力可以理解为通道的权重,包含重要特征的通道权重大,包含不重要特征的通道权重小。将通道注意力特征向量
$ {\boldsymbol{F}}{\rm{' = }}{{\boldsymbol{M}}_{\textit{C}}}\left( {\boldsymbol{F}} \right) \otimes {\boldsymbol{F}} $ | (4) |
$ {\boldsymbol{M}}_{S}\left(\boldsymbol{F}\right)=\sigma \left({f}^{7\times 7}\left[\mathrm{A}\mathrm{v}\mathrm{g}\mathrm{P}\mathrm{o}\mathrm{o}\mathrm{l}\left(\boldsymbol{F}\right);\mathrm{M}\mathrm{a}\mathrm{x}\mathrm{P}\mathrm{o}\mathrm{o}\mathrm{l}\left(\boldsymbol{F}\right)\right]\right) $ | (5) |
空间注意力特征可以理解为通道上每个像素的权重,包含重要信息的像素权重大,包含不重要信息的像素权重小。将空间注意力特征图
$ {\boldsymbol{F''}}={{\boldsymbol{M}}_{\textit{S}}}\left( {\boldsymbol{F'}} \right) \otimes {\boldsymbol{F'}} $ | (6) |
CBAM模块分别学习通道注意力和空间注意力,通道注意力集中关注特征的含义,空间注意力关注重要特征的位置,从而使得网络聚焦于WCE图像的重要特征。通道注意力机制通过共享的全连接层实现,由于池化层没有引入可学习参数,因此CBAM模块是一个轻量级模块,减小了使用注意力机制所需要的参数量,使卷积神经网络模型的训练过程变得更加高效,因此,本文采用结合CBAM的ResNet18作为ARNs的嵌入模块,添加了CBAM的ResNet18在取得更好特征表达能力的同时,并没有引入过多的参数量和计算量。如图 5(a)所示,嵌入模块主要由4个卷积单元组成,其中,layer1、layer2、layer3和layer4都包含2个如图 5(b)所示的ResNetBlock+CBAM模块。各层网络的卷积核参数如表 1所示。
![]() |
Download:
|
图 5 嵌入模块结构 Fig. 5 Embedded module structure |
![]() |
下载CSV 表 1 卷积核参数 Table 1 Convolution kernel parameters |
目前,基于度量学习的小样本学习方法主要采用一种固定的距离度量方法(如欧式距离和余玄距离)来衡量查询样本与支持样本之间的相似性,这种方法主要集中构造一个可学习的嵌入模块,以适应预先指定的距离度量函数,但是,当嵌入模块学习到的特征区分信息不充分时网络的性能将受到限制,关系网络的关系模块采用卷积神经网络学习样本之间的相似性,以数据驱动的方式学习一个度量函数,相比于固定的度量函数,其可以更好地比较2个样本之间的相似性。关系模块以查询样本和支持样本的级联作为输入,生成一个0~1的分数表示查询样本与支持样本之间的相似性。本文采用关系网络中的关系模块作为ARNs的关系模块,其结构如图 6所示,关系网络中的关系模块包含2个卷积块、2个全连接层和1个Sigmoid函数,每个卷积块后接1个最大池化层。关系模块的输入特征是一个3维的特征图,3维的特征图包含图像的信息,适用于卷积神经网络学习特征之间的关系,根据输入特征的大小,设置卷积块中卷积层的卷积核大小为3×3,卷积核数量为64,其后接一个归一化层、Relu非线性激活函数以及2×2的最大池化层以进行下采样。第1个全连接层后连接1个Relu激活函数,最后1个全连接层后添加1个Sigmoid激活函数,通过Sigmoid函数输出1个0~1的相似性评分。
![]() |
Download:
|
图 6 关系模块结构 Fig. 6 Relationship module structure |
元学习是一种处理小样本学习的常用方法,它包含训练阶段和测试阶段,在训练阶段通过元学习提取可传播的知识,允许模型在测试阶段执行小样本学习任务。在训练阶段,模型按照一个个训练批次来训练网络。在每个训练批次中,首先构造一个元任务,从训练集中随机抽取
ARNs模型中查询集与支持集之间的相似度是通过关系模块输出的关系评分来进行判别的,关系评分是一个0~1的标量,0代表极不相似,1代表非常相似,此时支持样本与查询样本之间的关系评分获得可视为回归问题,采用均方误差来计算损失值,损失函数表示为:
$ {J_{{\rm{MSE}}}}\left( \varphi \right) = \sum\limits_{i = 1}^m {\sum\limits_{j = 1}^n {{{\left( {{r_{i,j}} - z} \right)}^2}} } $ | (7) |
其中,
$ {J_{{\rm{MSE}}}}\left( \varphi \right) = \sum\limits_{i = 1}^m {\sum\limits_{j = 1}^n {{{\left( {{r_{i,j}} - z} \right)}^2}} } + \lambda \left( {\left\| \varphi \right\|_2^2} \right) $ | (8) |
其中,
$ \frac{\mathrm{d}J\left(\varphi \right)}{\mathrm{d}\varphi }=\frac{\mathrm{d}{J}_{\mathrm{M}\mathrm{S}\mathrm{E}}\left(\varphi \right)}{\mathrm{d}\varphi }+\frac{\mathrm{d}\lambda \left({‖\varphi ‖}_{2}^{2}\right)}{\mathrm{d}\varphi }=\nabla {J}_{\mathrm{M}\mathrm{S}\mathrm{E}}\left(\varphi \right)+\lambda \varphi $ | (9) |
梯度下降公式为:
$ \varphi =\varphi -\eta \left(\nabla {J}_{\mathrm{M}\mathrm{S}\mathrm{E}}\left(\varphi \right)+\lambda \varphi \right)=\left(1-\eta \lambda \right)\varphi -\eta \nabla {J}_{\mathrm{M}\mathrm{S}\mathrm{E}}\left(\varphi \right) $ | (10) |
其中,
本文采用元学习的训练策略训练ARNs模型,训练ARNs模型的目标是找到模型用于小样本WCE图像分类任务的合适参数,定义训练集
输入 训练集
输出 经过一次训练的损失
1)从
2)计算支持集样本的嵌入向量
3)级联嵌入向量得到连接向量
4)将连接向量输入关系模块得到关系值
本文采用mini-ImageNet数据集和WCE数据集进行实验。其中,mini-ImageNet数据集是小样本学习的一个基准数据集,该数据集包含100类图像数据,每类由600幅图像组成,一共60 000幅图像;WCE数据集由金山科技公司提供的WCE数据集和KID[17]数据集组成,金山科技公司提供的WCE数据集由OMOM内镜拍摄的WCE图像组成,其包括胃部凹陷、胃部表浅、胃底隆起等16类WCE图像,每类包含200~300张WCE图像,KID是一个公开的WCE图像数据集,由3个数据集组成。本次实验采用KID中的数据集1和数据集2混合组成KID数据集,且输入到ARNs模型的WCE图像大小统一为224像素
实验采用PyTorch深度学习框架,在GPU平台上运行,处理器为Intel® CoreTM i7-7700HQ CPU@ 2.80 GHz、GPU NVIDIA GeForce GTX 1080,运行内存为64 GB。训练和测试阶段都是基于c-way k-shot的小样本学习方法进行,所有实验均采用Adam[18]优化算法对模型参数进行更新,初始学习率设置为0.001。
3.2 mini-ImageNet数据集的小样本分类任务本文对mini-ImageNet数据集进行划分,采用64类数据作为训练集,16类数据作为验证集,20类数据作为测试集,分别采用5-way 1-shot和5-way 5-shot的方法进行实验,并将ARNs模型的实验结果与Baseline-linear[19]网络、Meta-Leaner LSTM[20]网络、MAML网络[21]、匹配网络[12]、原型网络[13]和关系网络[9]这几种小样本学习领域的主流方法进行对比,实验采用分类准确率
![]() |
下载CSV 表 2 小样本分类方法性能对比 Table 2 Performance comparison of small sample classification methods |
从表 2可以看出,本文提出的ARNs模型在mini-ImageNet数据集上准确率相比其他模型有所提升。与关系网络相比,ARNs在小样本数据集上的分类效果明显提升,原因是本文引入的基于CBAM的ResNet嵌入模块提取的特征较关系网络中简单的线性连接的卷积网络具有更高的鲁棒性,加强了同类样本特征之间的相关性,降低了不同类样本特征的相似性,从而有效提高了ARNs模型应用于小样本学习任务的分类准确率。
3.3 WCE数据集的小样本分类任务对WCE数据集进行划分,采用金山科技公司提供的13类WCE图像作为训练集,剩下的3类WCE图像混合KID数据集组成测试集。测试集包含189张出血、157张息肉、125张溃疡和193张正常类WCE图像,这些WCE图像是临床实践中常出现的4类WCE图像。首先采用训练集对模型进行训练,同时将4类WCE图像作为测试集模拟验证在真实场景下ARNs模型对于少量WCE图像的分类能力。原则上只采用测试集中的4类WCE图像数据就可以训练ARNs模型的嵌入模块和关系模块,但是,测试集中标记样本很少导致这种模型的性能不能满足要求。因此,本文首先采用元学习的方法在训练集上训练ARNs模型,从而提取可以迁移的知识,在测试集上的WCE图像类中完成小样本的图像分类,分别采用4-way 1-shot和4-way 5-shot的方法进行实验,使用准确率A、灵敏度(sensitivity sen)和特异性(specificity spec)作为评价指标,后两者计算公式如下:
$ {S}_{\mathrm{s}\mathrm{e}\mathrm{n}}=\frac{\mathrm{T}\mathrm{P}}{\mathrm{T}\mathrm{P}+\mathrm{F}\mathrm{N}} $ | (11) |
$ {S}_{\mathrm{s}\mathrm{p}\mathrm{e}\mathrm{c}}=\frac{\mathrm{T}\mathrm{N}}{\mathrm{T}\mathrm{N}+\mathrm{F}\mathrm{P}} $ | (12) |
其中,TP表示把原本属于该类的样本分成该类,TN表示把原本属于其他类的样本分成其他类,FP表示把原本属于其他类的样本错分成了该类,FN表示把原本属于该类的样本错分成了其他类。
为了探究ARNs采用不同嵌入模块对于WCE图像分类效果的影响,本文分别以基于CBAM的ResNet18和基于CBAM的ResNet50作为ARNs模型的嵌入模块进行实验,结果如表 3所示。
![]() |
下载CSV 表 3 不同嵌入模块的性能对比 Table 3 Performance comparison of different embedded modules |
从表 3可以看出,ARNs模型采用CBAM-ResNet18和CBAM-ResNet50作为嵌入模块时的准确率相差不大,考虑到模型的参数量以及计算复杂度,本文采用CBAM-ResNet18作为ARNs模型的嵌入模块,以提取WCE图像特征。
图 7所示为WCE图像测试集上ARNs模型与RelationNet前6 000次迭代(每隔50次)时的准确率和损失曲线,从图 7可以看出,在小样本的WCE图像上,本文ARNs网络与RelationNet相比分类效果显著提升。
![]() |
Download:
|
图 7 ARNs和RelationNet的性能比较 Fig. 7 Performance comparison between ARNs and RelationNet |
WCE图像各类之间相似,图像类内变异度高,提高WCE图像分类准确率的关键在于提取各类WCE图像之间的差异部分特征。ARNs模型的特征提取模块采用结合注意力机制的ResNet18,相比于关系网络的特征提取模块,其能提取到对WCE图像表示性更强的特征。因此,ARNs模型在WCE数据集上的准确率明显高于关系网络。
表 4所示为测试数据的混淆矩阵,其中包括各类WCE图像的灵敏度和特异性。从表 4可以看出,ARNs模型对于出血类WCE图像的准确率最高,因为出血类WCE图像的特征和其他类特征具有明显差异,ARNs模型对溃疡类WCE图像的准确率较低,溃疡类图像类内变异度高,小样本分类的模型难以涵盖其特征的多样性。ARNs模型的错误分类主要发生在溃疡类和息肉类之间,溃疡类与息肉类特征具有相似性,并且2类图像的类内变异度高,导致模型在2类WCE图像上的识别精度下降。ARNs模型在4类WCE图像上的特异性值都取得了较好的结果,表示模型在WCE图像上的误诊率很低。
![]() |
下载CSV 表 4 WCE图像多异常分类混淆矩阵 Table 4 Classification confusion matrix of WCE image multiple anomalies |
类激活热图(Class Activation Mapping,CAM)是一种可视化卷积神经网络的工具,本文采用CAM卷积可视化技术将基于CBAM的ResNet18嵌入模块提取的特征进行热图可视化,并与关系网络的嵌入模块热图可视化的结果进行对比。如图 8所示,采用基于CBAM的ResNet18嵌入模块提取WCE图像特征时能够聚焦于图像的异常区域,可以提取到图像中的差异性特征,有助于提高WCE图像的多分类准确率。不同WCE图像分类方法的准确率对比结果如表 5所示,其中,文献[6]采用MPEG-7v视觉描述符分类WCE图像,文献[7]利用WCE图像的颜色和纹理特征进行图像分类,文献[8]利用词袋库技术,采用以ResNet18作为基础网络进行微调的深度学习多分类方法分类WCE图像,文献[10]利用WCE训练集训练关系网络。从表 5可以看出,本文WCE图像多分类方法整体准确率以及在各种异常图像上的识别精度高于其他WCE图像分类方法,因此,本文WCE多异常分类方法具有有效性。
![]() |
Download:
|
图 8 嵌入模块卷积的可视化分析 Fig. 8 Visualization analysis of embedded module convolution |
![]() |
下载CSV 表 5 不同WCE图像分类方法准确率对比 Table 5 Comparison of the accuracy of different WCE image classification methods |
本文提出一种基于注意力关系网络的小样本WCE图像分类方法。将注意力机制、关系网络以及元学习训练策略相结合,构造基于注意力机制的特征提取模块提取WCE图像特征,将提取的支持样本和查询样本特征级联后输入到关系模块,关系模块输出查询样本与支持样本之间的相似性评分,根据相似性评分判别查询样本的类别。在mini-ImageNet数据集上的实验结果表明,该方法的准确率高于ResNet18、RelationNet等其他小样本分类方法。下一步将对ARNs关系模型中的特征级联部分和模型结构进行改进,以达到更好的WCE图像分类效果。
[1] |
IDDAN G, MERON G, GLUKHOVSKY A, et al. Wireless capsule endoscopy[J]. Nature, 2000, 405(6785): 417-427. DOI:10.11280/gee1973b.45.Supplement1_461 |
[2] |
YUAN Y, LI B, MENG M Q H. Bleeding frame and region detection in the wireless capsule endoscopy video[J]. IEEE Journal of Biomedical and Health Informatics, 2015, 20(2): 624-630. |
[3] |
QADIR H A, BALASINGHAM I, SOLHUSVIK J, et al. Improving automatic polyp detection using CNN by exploiting temporal dependency in colonoscopy video[J]. IEEE Journal of Biomedical and Health Informatics, 2019, 24(1): 180-193. |
[4] |
GOYAL M, REEVES N D, RAJBHANDARI S, et al. Robust methods for real-time diabetic foot ulcer detection and localization on mobile devices[J]. IEEE Journal of Biomedical and Health Informatics, 2018, 23(4): 1730-1741. |
[5] |
JEBARANI W S L, DAISY V J. Assessment of Crohn's disease lesions in wireless capsule endoscopy images using SVM based classification[C]//Proceeding of 2013 International Conference on Signal Processing, Image Processing & Pattern Recognition. Washington D.C., USA: IEEE Press, 2013: 303-307.
|
[6] |
COIMBRA M T, CUNHA J P S. MPEG-7 visual descriptors-contributions for automated feature extraction in capsule endoscopy[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2006, 16(5): 628-637. DOI:10.1109/TCSVT.2006.873158 |
[7] |
YUAN Y, LI B, MENG M Q H. WCE abnormality detection based on saliency and adaptive locality-constrained linear coding[J]. IEEE Transactions on Automation Science and Engineering, 2016, 14(1): 149-159. |
[8] |
YUAN Y, YAO X, HAN J, et al. Discriminative joint-feature topic model with dual constraints for WCE classification[J]. IEEE Transactions on Cybernetics, 2017, 48(7): 2074-2085. |
[9] |
SUNG F, YANG Y, ZHANG L, et al. Learning to compare: relation network for few-shot learning[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 1199-1208.
|
[10] |
KOCH G R, ZEMEL R, SALAKHUTDINOV R. Siamese neural networks for one-shot image recognition[C]//Proceedings of the 32nd International Conference on Machine Learning. Washington D.C., USA: IEEE Press, 2015: 103-123.
|
[11] |
VINYALS O, BLUNDELL C, LILLICRAP T, et al. Matching networks for one shot learning[C]//Proceeding of Advances in Neural Information Processing Systems. Barcelona, Spain: NIPS, 2016: 3630-3638.
|
[12] |
SNELL J, SWERSKY K, ZEMEL R. Prototypical networks for few-shot learning[C]//Proceeding of Advances in Neural Information Processing Systems. Barcelona, Spain: NIPS, 2017: 4077-4087.
|
[13] |
HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 7132-7141.
|
[14] |
WANG X, GIRSHICK R, GUPTA A, et al. Non-local neural networks[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 7794-7803.
|
[15] |
WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]//Proceedings of European Conference on Computer Vision. Berlin, Germany: Springer, 2018: 3-19.
|
[16] |
HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 770-778.
|
[17] |
KOULAOUZIDIS A, IAKOVIDIS D K, YUNG D E, et al. KID project: an internet-based digital video atlas of capsule endoscopy for research purposes[J]. Endoscopy International Open, 2017, 5(6): 477-450. DOI:10.1055/s-0043-105488 |
[18] |
KINGMA D P, BA J. Adam: a method for stochastic optimization[EB/OL]. [2020-05-03]. https://arxiv.xilesou.top/abs/1412.6980.
|
[19] |
CHEN W Y, LIU Y C, KIRA Z, et al. A closer look at few-shot classification[EB/OL]. [2020-05-03]. http://arxiv.xilesou.top/abs/1904.04232.pdf.
|
[20] |
RAVI S, LAROCHELLE H. Optimization as a model for few-shot learning[C]//Proceedings of the 5th International Conference on Learning Representations. Washington D.C., USA: IEEE Press, 2017: 123-135.
|
[21] |
FINN C, ABBEEL P, LEVINE S. Model-agnostic meta-learning for fast adaptation of deep networks[EB/OL]. [2020-05-03]. https://arxiv.org/pdf/1703.03400.pdf.
|