开放科学(资源服务)标志码(OSID):
视频显著性物体检测旨在提取人眼最感兴趣的目标区域,并在动态场景中将其与背景分离[1]。视频显著性物体检测作为计算机视觉的预处理步骤,被广泛应用于视频质量评估[2]、目标跟踪[3]、视频压缩[4]等领域。
目前,图像显著性物体检测研究比较深入,但视频显著性物体检测依然面临巨大挑战,其原因是视频显著性物体检测不仅考虑视频中单帧图像的空间特征,还考虑受时域上运动特征的影响[6]。根据人体视觉系统特点,人眼对正在运动的物体更敏感,因此将己有的视频单帧图像显著性检测方法与视频序列的运动信息相结合能够有效提高显著性检测精确度。随着深度神经网络的发展,许多研究[7-8]已经将卷积神经网络运用到视频显著性检测领域中,而运动信息也作为一个重要因素被考虑在内。研究表明,将运动信息嵌入网络的优势,一方面减少问题域并屏蔽非显著的背景区域,例如当视频场景中的背景复杂且多样时,人们仅依靠颜色信息难以识别显著性物体,但运动信息可以突出显著性物体的位置信息,另一方面提供了空间连贯性的基本提示,即具有相同位移的图像像素属于同一区域的概率较高[7]。
对于运动信息的提取,通过设计有效的网络结构来实现,如单流网络和双流网络[6]。单流网络中运动信息的提取依赖循环卷积[8],循环卷积一般以长短期记忆(convLSTM)[9]模型为代表,通过提取长期时序信息以实现具有强时空一致性的较优检测。然而,convLSTM模型因过度依赖长期的时序一致性,当连续多帧出现误检时,当前帧的特征无法被相邻帧修复,导致其存在性能瓶颈。由于convLSTM模型与单流网络都忽略了光流图[10]的空间信息,因此在单流网络的基础上增加运动分支的双流网络能够有效提取光流的空间线索[11]。
虽然双流网络的检测精度较高,但光流对光强度和局部变化敏感,当显著物体发生剧烈或慢速地移动时,导致运动估计准确率低和检测性能下降。针对以上问题,本文提出基于多流网络一致性的视频显著性检测算法(MSNC),在双流网络的基础上增加先验流,从而弥补光流信息的不足,同时通过多流一致性融合(MCP)模型优化多流分支,采用循环训练策略均衡三重网络的权重。
1 相关工作 1.1 传统视频显著性检测算法传统视频显著性检测算法是以低级线索为主导,采用手工提取特征方式提取运动信息。文献[13]提出一种两级学习策略来提取长期时空线索。文献[14]设计一种简单的方法,即通过对框级物体进行排序和选择来识别显著物体。文献[15]提取空间和时间边缘信息,以增强显著物体定位。传统视频显著性检测算法是最基础的检测算法,其操作简便。由于运动场景的更新、目标尺寸的变化以及拍摄视角的切换,使得该类算法的检测准确率难以达到理想的要求,有待进一步提高和完善。
1.2 基于深度学习的视频显著性检测算法为弥补传统手工提取特征方式的不足,基于深度学习的视频显著性检测算法通过数据驱动自动提取特征,从而实现较高的精确度和较优的鲁棒性。视频显著性检测主流网络结构如图 1所示,按照网络结构不同,分为单流网络、双流网络、3D卷积网络、三流网络。
![]() |
Download:
|
图 1 视频显著性检测网络结构 Fig. 1 Structure of video saliency detection network |
单流网络以长短期记忆(Long Short Term Memory,LSTM)网络模型为代表,其结构如图 1(a)所示。从图 1(a)可以看出,连续帧作为输入,首先提取静态特征,然后利用LSTM融合帧间信息,并间接获取时间序列线索。3D卷积网络结构如图 1(b)所示,其同时提取时空线索,避免出现时空信息分离的情况,减少了时间消耗。文献[16]设计一个端到端的3D框架以获取时空特征,该框架在编码器和解码器后增加了细化组件,主要原理是提取更深层的语义信息来细化时空显著图。文献[17]提出一种基于全卷积的网络,采用分阶段的方式进行显著性检测。全卷积网络首先预计算空间显著图,然后融合该空间显著图和连续帧以产生最终的时空显著图。为扩大感知范围,文献[18]采用基于光流的映射关系将长期时序信息添加到当前视频帧中。文献[19]提出一种新的方案来感知多尺度时空信息,采用多孔空间金字塔池化[20](Atrous Spatial Pyramid Pooling,ASPP)提取多尺度空间显著性特征,随后将这些特征送入双向convLSTM网络中,以获取长期和多尺度信息。文献[21]提出一个注意力转移基线,同时开源了针对视频显著性检测问题的大规模注意力转移数据集。
双流网络结构如图 1(c)所示,以MGA[7]为代表,光流和静态图分别作为两个分支的输入,之后单个分支对特征信息进行多向融合以得到最终检测结果。其主要原理是利用运动信息定位显著物体,同时提供颜色特征的通道权重。此方法的检测性能虽优于许多单流结构,但其显著结果极易受光流质量影响。若视频中运动模式出现快速运动或静止的情况,光流信息可能会无作用甚至产生负面作用。针对以上问题,本文提出多流网络一致性检测算法(MSNC),如图 1(d)所示,利用先验分支弥补低质量的光流分支,将融合后的分支作用于空间分支,以得到最终的显著图。
2 MSNC算法 2.1 MSNC算法及网络结构MSNC算法使用三重网络对提取的信息进行检测,即在双流的基础上增加先验流来弥补运动流的不足,同时实现多流的多向融合互补,采用循环训练策略避免网络产生过拟合现象。MSNC算法主要分为4个步骤:1)利用空间子网提取颜色信息;2)利用运动子网提取时序信息;3)利用先验子网提取先验特征;4)利用多流一致性融合模型多流信息,并生成最终的显著图。
MSNC网络结构如图 2所示。该网络由空间子网、运动子网、先验子网以及MCP模型组成。三重分支都采用卷积神经网络提取预选目标区域特征,使用VGG16[22]前5层卷积层作为编码器,其中空间分支和运动分支采用相同的网络结构,均由编码器和级联解码器构成,分别输入静态图片和光流图。相比三重分支和空间分支,先验分支仅包含VGG16[22]基础网络的前5层结构。此外,经MCP模型融合后的特征输入到级联解码器中,进而融合多级特征以生成最终的检测图。
![]() |
Download:
|
图 2 MSNC网络结构 Fig. 2 Structure of MSNC network |
对于卷积神经网络,浅层网络提取边缘和细节信息,其深层网络提取语义和位置信息。本文使用级联网络融合多级特征,使得网络更关注显著物体,通过引入注意力机制来增大位置权重。空间子网的结构如图 3所示。本文采用级联方式融合多层信息,以降低前2层卷积的利用率来加快运行速度,以VGG16作为基础网络进行特征提取,该过程分别使用残差空洞卷积池化金字塔(ResASPP)在Conv3、Conv4、Conv5这3个卷积层上提取多尺度特征。ResASPP模型由ASPP[20]和一个残差连接[23]构成。ASPP由4个平行的分支组成,首先将特征通过1×1卷积降维到通道数C为32,对于每个分支都使用空洞卷积,膨胀率分别是1、3、5、7,然后分别用3×3卷积统一到相同的通道数并进行叠加操作,最后通过残差连接得到新的特征信息。
![]() |
Download:
|
图 3 空间子网结构 Fig. 3 Structure of spatial subnet |
新生成的多尺度特征以UNet[24]的形式进行融合,融合方式如式(1)~式(3)所示:
$ {F}_{1}=\mathrm{U}\mathrm{p}\left(\mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}5\right)\times \mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}4 $ | (1) |
$ {F}_{2}=\mathrm{U}\mathrm{p}\left({F}_{1}\right)\times \mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}3 $ | (2) |
$ {F}_{3}=\mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}\left(\mathrm{C}\mathrm{a}\mathrm{t}\left(\mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}3, {F}_{1}, {F}_{2}\right)\right) $ | (3) |
其中:
目前,提取运动信息的通用技术主要以光流为代表,利用时域中像素的位移以及相邻帧之间的相关性建立前一帧和当前帧之间的关系。计算光流最先进的方法包括SPyNet[25]、PWCNet[10],这些光流估计方法在检测精度和速度方面都具有较优的性能。
深度学习需要大量相关数据进行训练,但光流图缺少相应的像素级人工标注,在训练数据较少的条件下难以得到高质量的运动显著图[26]。为此,本文利用颜色真值图作为训练标签对静态图像模型进行微调,能够有效解决在小样本训练过程中的过拟合问题,首先,在光流网络中输入相邻视频帧,经过光流网络PWCNet[10]获得稠密的光流图;其次,对于每个光流数据,使用文献中的编码方式将2通道的光流数转换为3通道RGB图像,之后将生成的3通道光流图输入到运动子网中,以产生最终的运动显著图。为提高网络的泛化能力,本文在空间子网预训练模型的基础上,利用Davis数据集2 000帧来微调该模型,且将学习率设置为10-5,并使用二值交叉熵损失指导训练。
2.4 先验子网先验网络由VGG16前5层网络构成,3通道先验叠加作为网络输入。先验图的构成相对简单,因此,使用较浅层的网络就可以提取先验特征。在训练过程中,为保持训练数据和测试数据的一致性,输入网络的先验图不能直接用标签替代,而使用腐蚀后的标签。
2.5 多流一致性融合模型为获取三重网络的最优组合,本文提出MCP模型,该模型通过融合三分支权重,使得三重网络具有一致性,MGA[7]和MCP结构如图 4所示。其中:Fa、Fm、Fp分别为空间、运动及先验特征。
![]() |
Download:
|
图 4 MGA与MCP模型结构对比 Fig. 4 Structure comparison of MGA and MCP models |
MGA模型以空间特征Fa和运动特征Fm作为输入,Fm经1×1卷积和Sigmoid激活得到空间权重图,之后与Fa相乘得到Fa1。Fa1经过GAP操作将新的特征降维后使用1×1卷积及Softmax函数得到通道权重,此权重作用于Fa1得到融合后的特征。MCP模型首先对运动特征Fm进行GAP操作,将其展成一个一维特征,然后经过2层全连接操作更新通道权重,之后对更新过的权重进行Softmax操作,使特征权重的值归一化为0~1,生成新的特征向量并作为权重,将其与先验特征相乘,从而保留运动特征与先验特征的一致性,并与原先的先验特征进行残差连接,进而将Fpm作为新的注意力权重与空间特征相融合。该融合过程首先使用1×1卷积大小将C×W×H的Fpm特征降维到W×H的权重图,并增加Sigmoid激活操作,并与空间特征Fa相乘产生新的特征Fa1,最终对Fa1进行GAP操作降维成高维向量g1,经过多层感知机(Multilayer Perceptron,MLP)操作得到更新后的向量g3,MLP比MGA中的卷积操作更复杂,使网络更易保留有用信息。g3经Softmax操作后作为Fa1的通道注意力权重,该权重向量与之前的特征Fa1相乘再加上最初的特征Fa以得到最终的输出特征。MLP操作过程如式(4)所示:
$ {\boldsymbol{g}}_{3}={F}_{2}^{C}\left(\sigma \left({{F}^{C}}_{1}\left({\boldsymbol{g}}_{1}\right)\right)\right) $ | (4) |
其中:
三重网络中先验分支的输入作为三通道叠加的先验图,通过传统方法和深度学习算法生成先验图,其中传统方法[27-28]通过RGB图的颜色对比生成粗略的显著图,深度学习算法是采用当前主流的深度学习检测模型的预测显著图作为先验图。这两种方法都属于外部干预,且得到的先验图受限于模型本身,很难找到先验图存在的共性,并对网络的训练造成干扰。因此,本文使用网络训练过程中生成的上一帧显著图作为当前帧先验图的输入,在训练过程中,将经过腐蚀处理的真值标签作为网络的输入,降低先验图在网络训练过程中的权重。网络的输入以每批大小为一个轮次,每次循环的第一帧使用腐蚀后的真值图,之后每次输入网络的先验图为上一帧所产生的显著图。以上训练策略生成的先验模式多样,可以避免网络出现过拟合现象。在测试过程中,先验分支首次输入高质量关键帧先验图,本文使用颜色显著图和运动显著图的一致性度量来选取关键帧,其中一致性度量使用S-Measure[29]进行计算。通常S-Measure值越大,说明颜色和运动显著图的一致性越高,其主要原因是低质量运动显著图和颜色显著图完全一致的概率通常较低。因此,按上述方法确定关键帧所对应的颜色显著图(先验图)的质量通常较高。对于非关键帧,本文将上一帧或者下一帧的最终显著图作为当前帧的先验图输入,假设关键帧先验图是第i帧,那么第i帧先验图作为第i+1帧的先验输入,得到第i+1的最终显著图,第i+1帧最终显著图又可以作为第i+2帧的先验输入,后续依次传递。
3 实验 3.1 评价指标为准确地评估模型的精度及鲁棒性,本文使用通用评价指标对显著图进行定量评估,包括F值度量(maxF[30])、平均绝对误差(MMAE[31])、结构度量(S-Measure[29])。
3.1.1 F值度量maxF是准确率(P)和召回率(R)的综合评估,如式(5)所示:
$ {F}_{\beta }=\frac{\left(1+{\beta }^{2}\right)\times P\times R}{{\beta }^{2}\times P+R} $ | (5) |
在显著性工作[7]的基础上增加准确率的权重值,本文将
本文在计算准确率和召回率时,输出的显著图首先需要进行二值化,二值化阈值为0~255,大于等于阈值的像素值设为1,小于阈值的像素值设为0。本文将生成的255张二值显著图与真值图进行比较,计算得到255个准确率和召回率。准确率越高,说明有较多的显著区域被正确检测,并作为前景区域,召回率越高,说明显著区域覆盖真值图的前景区域越完整。
3.1.2 平均绝对误差平均绝对误差能够直观地计算预测值和真实值之间的误差,如式(6)所示:
$ {M}_{\mathrm{M}\mathrm{A}\mathrm{E}}=\frac{1}{W\times H}\sum\limits _{x=1}^{W}\sum\limits _{y=1}^{H}\left|S\left(x, y\right)-G\left(x, y\right)\right| $ | (6) |
其中:
结构度量被定义为评估非二进制前景图的结构相似性,用于评估基于区域和基于对象的误差,如式(7)所示:
$ S=\alpha \times {S}_{o}+\left(1-\alpha \right)\times {S}_{r} $ | (7) |
其中:
在深度学习中,视频显著性检测通常需要较多的数据集以验证实验的有效性,研究人员对数据集进行标注,评估显著性算法的性能。目前常用的数据集主要有以下5类。
Davis数据集[32]是视频任务中通用的数据集,包含3 455帧数据,其中训练数据集包含2 076帧,测试数据集包含1 379帧,每段视频都能够提供稠密的人工标记的标签。
Segtrack-v2数据集[33]包含丰富的运动模式,如快速运动、剧烈形变等,其中显著物体偏小,当背景发生轻微运动时,使得检测变得更困难。
Visal数据集[34]只有17段视频(193帧),每隔5帧给出像素级人工标记,运动模式较单一,一般以慢速运动为主。
Davsod数据集[21]不仅是最新提出的大型视频显著性物体检测数据集,而且是第一个与人眼注意力相关的数据集。根据检测难度不同,该数据集分为简单、正常和困难3个级别,共有2.4×104的数据,同时提供相关的眼动注视点及实例级标注。
Vos数据集[35]共有7 464帧视频数据,包含较多的室内场景,且多数为静止及相机晃动的情况。
3.3 损失函数本文所有训练过程的损失函数都使用二值交叉熵损失,其具体实现如式(8)所示:
$ {L}_{\mathrm{B}\mathrm{C}\mathrm{E}}=-\sum\limits _{i}{g}_{i}\times \ln{p}_{i}-\sum\limits _{i}\left(1-{g}_{i}\right)\times \mathrm{l}\mathrm{n}\left(1-{p}_{i}\right) $ | (8) |
其中:
本文所有实验使用Pytorch深度学习框架,在RTX2080Ti工作站上进行训练。此外,为减少时间消耗,网络所有的输入都下采样到352×352,BatchSize设置为5,参数学习率为10-5,使用Adam[36]优化器,训练迭代次数设置为20。本文采用多阶段训练策略对多流网络中的空间和运动分支进行预先训练,进而再微调多流网络。除使用Duts10000的图片显著性数据集以外,所有的分支和融合模型仅使用Davis训练集中2×103张图片来进行训练。
4 实验结果分析 4.1 消融分析 4.1.1 多流融合的有效性为验证本文算法的有效性,在不同数据集上不同融合分支的评价指标进行对比,如表 1所示,加粗表示最优数据。其中运动分支以光流图作为输入,使用Davis 2000数据量在空间子网预训练模型上进行微调,外观分支表示外观子网原始结果,双流分支是按照MGA的融合方式进行复现,多流分支是本文方法(MSNC)。双流分支的评价指标均优于运动分支,其原因是双流分支中的光流图缺少节信息以及存在运动静止的情况。此外,在运动比较复杂的Davsod和Segtrack-v2数据集上,多流分支相较于双流分支评价指标较高。
![]() |
下载CSV 表 1 不同融合分支的评价指标对比 Table 1 Evaluation indexs comparison among different fusion branches |
不同的消融分析结果如图 5所示。当视频中运动显著性处于静止时(如第2行和第3行),光流图未能表征运动线索,提供了错误的位置信息,从而影响双流网络的最终结果,如图 5(f)所示。本文算法通过两流弥补光流的不足,能够有效解决上述问题。
![]() |
Download:
|
图 5 多流融合网络消融结果 Fig. 5 Ablation results of muti-stream fusion network |
不同融合方式的评价指标对比如表 2所示,加粗表示最优数据。从表 2可以看出,在Davis、Segtrack-v2和Davsod数据集上多流融合方式的MMAE相较于乘法融合和加法融合较低。在Visal和VOS数据集上,多流融合方式的评价指标均较高,能够充分验证多流融合中MCP融合的有效性。
![]() |
下载CSV 表 2 不同融合方式的评价指标对比 Table 2 Evaluation indexs comparison among different fusion methods |
本文以随机训练和循环训练作为自变量进行实验对比。不同训练策略的性能指标对比如表 3所示,加粗表示最优数据。t=0表示不使用循环训练策略,并且先验图全部使用经腐蚀得到的真值标签。t=4表示BatchSize=4,即4张先验图为一个循环,每个循环仅使用一个经腐蚀处理过的手工标注,之后依次向下传递。从表 3可以看出,当BatchSize(t)=5时,MSNC在不同数据集上的性能指标均较优。
![]() |
下载CSV 表 3 不同训练策略的评价指标对比 Table 3 Evaluation indexs comparison among different training strategies |
本文主要从指标得分、视觉显著图和运行速度3个方面对本文算法与其他算法进行了比较。
1)定量分析
为验证本文算法的有效性,本文以maxF、S-meature和MMAE作为评价指标,与当前主流算法进行比较,包括PCSA[37]、LSTI[38]、MGA、SSAV[21]、CPD[39]、PDBM[19]、MBNM[40]。在不同数据集上不同算法的性能指标对比如表 4所示,加粗表示最优数据,本文算法在Davis数据集上的性能指标较优,对比MGA算法,MSNC在VOS数据集上maxF指标上提升了1个百分点,与PCSA[37]相比,MSNC未使用Davis的训练集却得到了较高的检测精度。
![]() |
下载CSV 表 4 不同算法的评价指标对比 Table 4 Evaluation indexs comparison among different algorithms |
2)结果可视化分析
在不同的视频场景中,不同算法的显著性检测结果对比如图 6所示。本文所提算法在不同运动模式下都能取得较好的检测结果。当物体运动缓慢时,如第3段视频,MSNC算法能够得到较完整的显著图,而其他算法在车身位置易发生空洞检测,如第1、2段视频。与其他算法相比,本文算法提取的显著性图中背景区域包含的噪声较少,显著物体更凸显,表明在背景复杂以及低对比度的场景中三重网络定位更准确。此外,针对遮挡问题(如第4段视频),MSNC算法提取的显著性图与真值图具有较高的一致性,并未存在假阳性的问题。
![]() |
Download:
|
图 6 不同算法的显著性检测结果对比 Fig. 6 Saliency detection results comparison among different algorithms |
3)效率对比
不同算法的运行速度对比如表 5所示。相比当前主流算法,本文算法更高效,其运行速度达到21.00 frame/s。其中,FPS表示模型运行速度,即每秒测试的帧数。MSNC算法运行速度为21.00 frame/s。Ours+表示本文的双流网络,运行速度为24.00 frame/s,因此,先验分支会增加网络的耗时,但仅是每秒3帧的差距。即使先验分支增加了耗时,其运行速度依然比当前主流算法快。从表 5可以看出,MSNC算法的运行速度是LSTI算法的30倍。由于LSTI算法使用超像素分割方法,因此增加了总体时间消耗。同时MSNC算法的运行速度也是MGA算法的1.5倍,因为本文的网络结构比MGA更加简单。
![]() |
下载CSV 表 5 不同算法的运行速度对比 Table 5 Comparison of running speed of different algorithms |
本文提出基于多流网络一致性的检测算法,设计并使用一种新的三重网络结构来提取预选目标区域的颜色信息、时序信息和先验特征。利用多流一致性融合模型对三流分支进行优化,从而得到最优的视频显著性检测结果。同时使用循环训练策略防止网络产生过拟合,增强网络的泛化能力。实验结果表明,相比PCSA、SSAV、MGA等算法,MSNC算法在Davis数据集上的性能指标较优,具有较高的视频显著性检测精度。后续将对冗余的卷积层进行剪枝,优化网络结构,在不降低精确度的前提下加快检测速度。
[1] |
CHEN Y, ZOU W, TANG Y, et al. SCOM: spatiotemporal constrained optimization for salient object detection[J]. IEEE Transactions on Image Processing, 2018, 27(7): 3345-3357. DOI:10.1109/TIP.2018.2813165 |
[2] |
FAN Q, LUO W, XIA Y, et al. Metrics and methods of video quality assessment: a brief review[J]. Multimedia Tools and Applications, 2019, 78(22): 31019-31033. DOI:10.1007/s11042-017-4848-x |
[3] |
CHEN C, LI S, QIN H, et al. Real-time and robust object tracking in video via low-rank coherency analysis in feature space[J]. Pattern Recognition, 2015, 48(9): 2885-2905. |
[4] |
BELLOULATA K, BELALIA A, ZHU S. Object-based stereo video compression using fractals and shape-adaptive DCT[J]. AEU-International Journal of Electronics and Communications, 2014, 68(7): 687-697. DOI:10.1016/j.aeue.2014.02.011 |
[5] |
TU Z, GUO Z, XIE W, et al. Fusing disparate object signatures for salient object detection in video[J]. Pattern Recognition, 2017, 72: 285-299. DOI:10.1016/j.patcog.2017.07.028 |
[6] |
SIMONYAN K, ZISSERMAN A. Two-stream convolutional networks for action recognition in videos[C]//Proceedings of the 27th International Conference on Neural Information Processing System. New York, USA: ACM Press, 2014: 568-576.
|
[7] |
LI H, CHEN G, LI G, et al. Motion guided attention for video salient object detection[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2019: 7274-7283.
|
[8] |
GRAVES A, MOHAMED A, HINTON G. Speech recognition with deep recurrent neural networks[C]//Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing. Washington D.C., USA: IEEE Press, 2013: 6645-6649.
|
[9] |
SHI X, CHEN Z, WANG H, et al. Convolutional LSTM network: a machine learning approach for precipitation nowcasting[C]//Proceedings of Advances in Neural Information Processing Systems. Cambridge, USA: MIT Press, 2015: 802-810.
|
[10] |
SUN D, YANG X, LIU M Y, et al. Pwc-Net: CNNs for optical flow using pyramid, warping, and cost volume[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 8934-8943.
|
[11] |
BAK C, KOCAK A, ERDEM E, et al. Spatio-temporal saliency networks for dynamic saliency prediction[J]. IEEE Transactions on Multimedia, 2017, 20(7): 1688-1698. |
[12] |
TU Z, LI H, ZHANG D, et al. Action-stage emphasized spatiotemporal vlad for video action recognition[J]. IEEE Transactions on Image Processing, 2019, 28(6): 2799-2812. DOI:10.1109/TIP.2018.2890749 |
[13] |
CHEN C, LI S, QIN H, et al. Bilevel feature learning for video saliency detection[J]. IEEE Transactions on Multimedia, 2018, 20(12): 3324-3336. DOI:10.1109/TMM.2018.2839523 |
[14] |
GUO F, WANG W, SHEN J, et al. Video saliency detection using object proposals[J]. IEEE Transactions on Cybernetics, 2017, 48(11): 3159-3170. |
[15] |
WANG W, SHEN J, PORIKLI F. Saliency-aware geodesic video object segmentation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2015: 3395-3402.
|
[16] |
LE T N, SUGIMOTO A. Deeply supervised 3D recurrent FCN for salient object detection in videos[C]//Proceedings of the 28th British Machine Vision Conference. Norwich, UK: [s. n.], 2017: 3-4.
|
[17] |
WANG W, SHEN J, SHAO L. Video salient object detection via fully convolutional networks[J]. IEEE Transactions on Image Processing, 2017, 27(1): 38-49. |
[18] |
LI G, XIE Y, WEI T, et al. Flow guided recurrent neural encoder for video salient object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 3243-3252.
|
[19] |
SONG H, WANG W, ZHAO S, et al. Pyramid dilated deeper convLSTM for video salient object detection[C]//Proceedings of European Conference on Computer Vision. New York, USA: ACM Press, 2018: 715-731.
|
[20] |
CHEN L, PAPANDREOU G, SCHROFF F, et al. Rethinking atrous convolution for semantic image segmentation[EB/OL]. [2020-11-10]. https: //arxiv.org/pdf/1706.05587.pdf.
|
[21] |
FAN D, WANG W, CHENG M, et al. Shifting more attention to video salient object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 8554-8564.
|
[22] |
SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. [2020-11-10]. https://arxiv.org/pdf/1409.1556.pdf.
|
[23] |
HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 770-778.
|
[24] |
RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation[EB/OL]. [2020-11-14]. https://arxiv.org/pdf/1505.04597.pdf.
|
[25] |
RANJAN A, BLACK M J. Optical flow estimation using a spatial pyramid network[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2017: 4161-4170.
|
[26] |
BAKER S, SCHARSTEIN D, LEWIS J P, et al. A database and evaluation methodology for optical flow[J]. International Journal of Computer Vision, 2011, 92(1): 1-31. |
[27] |
刘宇光, 陈耀武. 基于运动谱残差的视频显著性检测算法[J]. 计算机工程, 2014, 40(12): 247-250. LIU Y G, CHEN Y W. Video saliency detection algorithm based on motion spectral residual[J]. Computer Engineering, 2014, 40(12): 247-250. (in Chinese) |
[28] |
李策, 虎亚玲, 曹洁, 等. 基于对数Gabor的超复数视觉显著性检测算法[J]. 计算机工程, 2012, 38(7): 148-151. LI C, HU Y L, CAO J, et al. Hypercomplex visual saliency detection algorithm based on Log-Gabor[J]. Computer Engineering, 2012, 38(7): 148-151. (in Chinese) |
[29] |
FAN D, CHENG M, LIU Y, et al. Structure-measure: a new way to evaluate foreground maps[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2017: 4548-4557.
|
[30] |
ACHANTA R, HEMAMI S, ESTRADA F, et al. Frequency-tuned salient region detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2009: 1597-1604.
|
[31] |
PERAZZI F, KRÄHENBÜHL P, PRITCH Y, et al. Saliency filters: contrast based filtering for salient region detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2012: 733-740.
|
[32] |
PERAZZI F, PONT-TUSET J, MCWILLIAMS B, et al. A benchmark dataset and evaluation methodology for video object segmentation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2016: 724-732.
|
[33] |
LI F, KIM T, HUMAYUN A, et al. Video segmentation by tracking many figure-ground segments[C]//Proceedings of IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2013: 2192-2199.
|
[34] |
WANG W, SHEN J, SHAO L. Consistent video saliency using local gradient flow optimization and global refinement[J]. IEEE Transactions on Image Processing, 2015, 24(11): 4185-4196. |
[35] |
LI J, XIA C, CHEN X. A benchmark dataset and saliency-guided stacked autoencoders for video-based salient object detection[J]. IEEE Transactions on Image Processing, 2017, 27(1): 349-364. |
[36] |
KINGMA D P, BA J. Adam: a method for stochastic optimization[EB/OL]. [2020-11-13]. https://arxiv.org/pdf/1412.6980.pdf.
|
[37] |
GU Y, WANG L, WANG Z, et al. Pyramid constrained self-attention network for fast video salient object detection[C]//Proceedings of AAAI Conference on Artificial Intelligence. [S. l.]: AAAI Press, 2020: 10869-10876.
|
[38] |
CHEN C, WANG G, PENG C, et al. Improved robust video saliency detection based on long-term spatial-temporal information[J]. IEEE Transactions on Image Processing, 2019, 29: 1090-1100. |
[39] |
WU Z, SU L, HUANG Q. Cascaded partial decoder for fast and accurate salient object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 3907-3916.
|
[40] |
LI S, SEYBOLD B, VOROBYOV A, et al. Unsupervised video object segmentation with motion-based bilateral networks[C]//Proceedings of the European Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2018: 207-223.
|