«上一篇 下一篇»
  计算机工程  2022, Vol. 48 Issue (2): 224-229, 236  DOI: 10.19678/j.issn.1000-3428.0060066
0

引用本文  

吴旭, 刘翔, 赵静文. 一种轻量级多尺度融合的图像篡改检测算法[J]. 计算机工程, 2022, 48(2), 224-229, 236. DOI: 10.19678/j.issn.1000-3428.0060066.
WU Xu, LIU Xiang, ZHAO Jingwen. A Lightweight Multiscale Fusion Algorithm for Image Tampering Detection[J]. Computer Engineering, 2022, 48(2), 224-229, 236. DOI: 10.19678/j.issn.1000-3428.0060066.

基金项目

上海市自然科学基金面上项目(19ZR1421500);上海市文化局科技创新项目(2015KJCXXM19)

通信作者

刘翔(通信作者), 副教授、博士

作者简介

吴旭(1995-), 男, 硕士研究生, 主研方向为语义分割、图像取证;
赵静文, 讲师、博士

文章历史

收稿日期:2020-11-20
修回日期:2021-01-14
一种轻量级多尺度融合的图像篡改检测算法
吴旭 , 刘翔 , 赵静文     
上海工程技术大学 电子电气工程学院, 上海 201620
摘要:现有ManTra-Net、DWT-CNN等基于深度学习的数字图像篡改检测算法存在计算复杂度高、检测准确度低等问题。为提取图像篡改与非篡改区域的差异性特征,提出一种基于MobileNetV3-LSTM混合模型的图像篡改检测算法。采用双分支网络架构,主分支网络为带有空洞卷积的轻量级CNN特征提取网络,副分支网络学习篡改图像边界上的差异性,在融合多尺度特征后进行端到端训练,最终输出预测定位图。在COVERAGE、CASIA2和COLUMBIA标准数据集上的实验结果表明,与Xavier-CNN、ELA等算法相比,该算法检测准确度平均提高9.2个百分点,参数量缩减82.3%,推理速度加快2倍,并且具有一定的泛化能力,适用于复制-粘贴、拼接等图像篡改操作的篡改区域检测定位任务。
关键词图像篡改检测    轻量级网络架构    多尺度融合    边界差异信息    被动取证    
A Lightweight Multiscale Fusion Algorithm for Image Tampering Detection
WU Xu , LIU Xiang , ZHAO Jingwen     
College of Electrical and Electronic Engineering, Shanghai University of Engineering Science, Shanghai 201620, China
Abstract: The existing deep learning-based algorithms for digital image tampering detection, such as ManTra-Net and DWT-CNN, suffer from the high computational complexity and low detection accuracy.To capture the discriminative features of tampered areas and normal areas in an image, an algorithm for image tampering detection is proposed based on a mixed MobileNetV3-LSTM model.This algorithm employs a two-branch structure, where the main branch is a lightweight CNN with atrous convolutions designed for feature extraction, and the deputy branch is designed to learn the discriminative features around the boundary of tampered images.After multiscale features are fused, end-to-end training is performed to output the predicted positioning of tampered areas.The proposed algorithm is tested on multiple standard datasets, including COVERAGE, CASIA2 and COLUMBIA.Results show that compared with Xavier-CNN, ELA and other algorithms, the proposed algorithm increases the detection accuracy by an average of 9.2 percentage points, and reduces the number of parameters by 82.3%.This algorithm doubles the reasoning speed, and displays a certain degree of generalization ability, which makes it applicable to the detection and positioning of multiple types of tampered areas, such as those caused by copy-paste and splicing.
Key words: image tampering detection    lightweight network architecture    multiscale fusion    boundary discriminative information    passive forensics    

开放科学(资源服务)标志码(OSID):

0 概述

随着数字图像处理技术的快速发展,数字图像恶意篡改事件频繁发生,使得人们对于数字图像的真实性产生严重怀疑,这样的行为会对个人声誉、社会稳定乃至国家安全均造成巨大影响,因此数字图像篡改检测技术受到国内外研究人员的广泛关注。在数字图像被动取证领域,图像篡改主要分为内容篡改和操作篡改[1]。2017年,BAPPY等[2]提出基于像素级别的概率映射方法,建立CNN-LSTM图像被动取证模型,但是掩码的定位不够精确。2018年,LIU等[3]利用多尺度方法进行篡改区域定位,设计不同尺度的图像滑动窗口,提取多尺度图像块特征,但该方法只能用于单一图像拼接篡改检测任务。图像篡改检测与传统语义分割任务[4]有较大区分:首先识别目标由广泛的语义内容转换为不规则的篡改区域,甚至是移除的区域;其次由于存在边缘的弱特征变化很难被学习到,对于一些逼真的篡改图泛化性能较差。目前,研究人员提出的一些基于图像分割的被动取证方法较少关注内容篡改引起的高低维特征间的差异性,因此本文旨在研究多尺度特征在篡改内容上的信息表达和篡改区域边缘上的像素差异问题。

1 本文算法

本文主要针对复制-粘贴和拼接这两种经典内容篡改的检测算法进行改进和研究,经典篡改方式如图 1所示,其中,第一行图片为拼接篡改,第二行图片为复制-粘贴篡改。

Download:
图 1 经典篡改方式 Fig. 1 Classic tampering mode

针对现有算法边缘特征提取不全、检测篡改方式单一、检测精确度较低、泛化能力低下、时间复杂度过高等问题,本文分析并改进MobileNetV3网络[5],进而设计双流多尺度特征融合架构进行图像篡改区域检测。相比传统单分支分割网络,本文做出如下改进:

1)引入压缩注意力机制[6]替代原本MobileNetV3网络中的SE(Squeeze-and-Excitation)[7]模块增强全局特征。

2)在MobileNetV3网络输出区块中加入空洞卷积层来增大感受野,并减少网络层数来降低时间复杂度。

3)加入基于LSTM网络[8]的副分支帮助识别频域边缘特征,将多尺度特征与边缘特征融合,从而更好地识别出类间差异特征(原始类和篡改类)。

最终对掩膜解码器输出的图像进行二值化和传统去噪得到篡改图预测掩膜,并与真值掩膜进行比对。本文算法整体流程如图 2所示。

Download:
图 2 轻量级多尺度融合的图像篡改检测算法流程 Fig. 2 Procedure of lightweight multiscale fusion algorithm for image tampering detection
1.1 主网络结构

MobileNetV3网络采用的深度可分离卷积和线性瓶颈逆残差结构可以大大减少参数量和运算成本。本文在此基础上做出改进,将最后区块的平均池化层移除,并引入3个连续的空洞卷积层来增大感受野。原始的MobileNetV3和改进的MobileNetV3结构分别如表 1表 2所示,其中:OC为输出通道数;NL为激活函数,HS表示h-swish激活函数,RE表示Relu激活函数;SE和SA为不同的注意力机制;AC表示空洞卷积;采样率均为2。

下载CSV 表 1 原始的MobileNetV3结构 Table 1 Structure of original MobileNetV3
下载CSV 表 2 改进的MobileNetV3结构 Table 2 Structure of improved MobileNetV3

传统下采样层在增大感受野的同时使特征图的分辨率降低,从而丢失空间信息,空洞卷积层[9]能在增大感受野的同时,输出高分辨率的特征图。改进的MobileNetV3网络最终输出的特征图分辨率为1/16,为原始的2倍,且没有增加额外的参数量和运算成本,这样有利于检测大篡改目标又能精确定位篡改区域。另外,引入h-swish激活函数并减少层数,可在降低计算量的同时提高检测精度。

$ \mathrm{h} - \mathrm{s}\mathrm{w}\mathrm{i}\mathrm{s}\mathrm{h}=\boldsymbol{x}\times \frac{\mathrm{R}\mathrm{e}\mathrm{l}\mathrm{u}6(\boldsymbol{x}+3)}{6} $ (1)

其中:$ \mathrm{R}\mathrm{e}\mathrm{l}\mathrm{u}6=\mathrm{m}\mathrm{i}\mathrm{n}\left(\mathrm{m}\mathrm{a}\mathrm{x}\right(0, \boldsymbol{x}), 6) $x为输入特征向量。

空洞卷积的内核限制了在分割网络中学习到的空间特征的形状,而多尺度特征聚合策略增强了逐像素的预测结果,但图像的全局信息仍未得到充分利用。因此,本文采用压缩注意力(SA)机制[6]进行像素级的密集预测。压缩注意力机制采用的注意力卷积(ACONV)通道并没有像SE模块一样全部压缩成1×1卷积,而是使用平均池化替代原来的全连接层来缩小样本特征图,经过上采样后生成具有特定像素类别的注意力掩膜(Xatt),从而完成篡改与非篡改两类像素分组,并保留非局部空间信息。SE和SA两种注意力机制对比如图 3所示。

Download:
图 3 两种注意力机制对比 Fig. 3 Comparison of two attention mechanisms

SA模块引入像素组的注意力机制,即在不同空间尺度下属于同一类像素组的注意力,使网络可以学习到原图区域与篡改区域的隐蔽特征。另外,针对类间像素分组去除了空间的限制,将不同尺度下的同类特征分为一组,使得多尺度空间特征和非局部特征经学习后能够被密集预测。设$ {\boldsymbol{X}}_{\mathrm{i}\mathrm{n}}\in {\mathbb{R}}^{{\boldsymbol{C}}'\times {\boldsymbol{H}}'\times {\boldsymbol{W}}'},{\boldsymbol{X}}_{\mathrm{o}\mathrm{u}\mathrm{t}}\in {\mathbb{R}}^{\boldsymbol{C}\times \boldsymbol{H}\times \boldsymbol{W}} $$ {\boldsymbol{X}}_{\mathrm{r}\mathrm{e}\mathrm{s}} $为残差卷积块,则SE和SA分别输出如下特征图:

$ {\boldsymbol{X}}_{\mathrm{o}\mathrm{u}\mathrm{t}}={\boldsymbol{X}}_{\mathrm{i}\mathrm{n}}+{\boldsymbol{X}}_{\mathrm{r}\mathrm{e}\mathrm{s}} $ (2)
$ {\boldsymbol{X}}_{\mathrm{o}\mathrm{u}\mathrm{t}}'={\boldsymbol{X}}_{\mathrm{a}\mathrm{t}\mathrm{t}}\times {\boldsymbol{X}}_{\mathrm{r}\mathrm{e}\mathrm{s}}+{\boldsymbol{X}}_{\mathrm{a}\mathrm{t}\mathrm{t}} $ (3)

其中:$ {\boldsymbol{X}}_{\mathrm{a}\mathrm{t}\mathrm{t}}=\mathrm{U}\mathrm{p}\mathrm{s}\mathrm{a}\mathrm{m}\mathrm{p}\mathrm{l}\mathrm{e}\left({F}_{t}\right(\mathrm{A}\mathrm{v}\mathrm{g}\mathrm{P}\mathrm{o}\mathrm{o}\mathrm{l}\left({\boldsymbol{X}}_{\mathrm{i}\mathrm{n}}\right)\left)\right) $$ {F}_{t} $为包含注意力卷积的特征图函数映射。

1.2 边缘相关性检测

篡改区域的定位任务与图像空间信息密切相关,LSTM网络[10]能学习图像块之间的相关度,并依赖对数似然距离,学习篡改边界上的空间差异信息。然而,这些信息在经过平滑、模糊等后处理操作后很难被识别。为了使提取特征包含明显的异常边界信息,本文将输入的原图分块后经过一个1×1卷积层升维,以此增加非线性特性和实现跨通道信息交互,将输出的16维特征图划分为8×8的小块,按照一定序列输入LSTM单元来学习特征图像块之间的相关性,从而在频域中捕捉到篡改区域和真实区域之间边界上的差异特征。

与传统CNN-LSTM序列模型不同,此并联结构分别提取图像的块级和像素级特征进行融合训练,使得通道间的时空信息交互更密切,特征层次更丰富。本文使用3个堆叠层,每层有64个神经元,每个神经元产生256维的特征向量,将其重塑成16×16的子块并串联成二维特征图,尺寸为16×16×512,最终由LSTM输出的特征图包含了异常边界信息与篡改像素块之间的映射关系。

1.3 多尺度特征提取

篡改的不规则区域可能存在不同尺度,为了捕获篡改图像的全局多尺度信息,本文构建多尺度特征提取模块。CHEN等[11]提出在级联模块和空间金字塔池化(Spatial Pyramid Pooling,SPP)[12]的框架下,使用空洞卷积来增大滤波器的感受野以融合多尺度的语境信息的方法,即空洞空间卷积池化金字塔(Atrous Spatial Pyramid Pooling,ASPP)模块。该模块包含不同采样率的并行空洞卷积层,针对不同尺度图像区域进行不同特征映射,从而密集预测多尺度篡改区域。每个单独的并行层与图像级特征融合后有效去除了冗余信息,经过解码器最终输出预测掩膜图。空洞卷积的采样率(r)是在普通卷积的基础上做的改进,相邻权重之间的间隔为r-1,普通卷积的r默认为1,因此空洞卷积的实际大小如下:

$ {k}^{s}=k+(k-1)(r-1) $ (4)

其中:k为原始卷积核大小;$ {k}^{s} $为等效卷积核尺寸,s为步长。假设输入特征向量为$ ({\boldsymbol{H}}_{\mathrm{i}\mathrm{n}}, {\boldsymbol{W}}_{\mathrm{i}\mathrm{n}}, {\boldsymbol{C}}_{\mathrm{i}\mathrm{n}}, N) $,输出向量为$ ({\boldsymbol{H}}_{\mathrm{o}\mathrm{u}\mathrm{t}}, {\boldsymbol{W}}_{\mathrm{o}\mathrm{u}\mathrm{t}}, {\boldsymbol{C}}_{\mathrm{o}\mathrm{u}\mathrm{t}}, N) $,则:

$ {\boldsymbol{H}}_{\mathrm{o}\mathrm{u}\mathrm{t}}=\frac{{\boldsymbol{H}}_{\mathrm{i}\mathrm{n}}+2p\left[0\right]-d\left[0\right]\times \left(k\right[0]-1)-1}{s\left[0\right]}+1 $ (5)
$ {\boldsymbol{W}}_{\mathrm{o}\mathrm{u}\mathrm{t}}=\frac{{\boldsymbol{W}}_{\mathrm{i}\mathrm{n}}+2p\left[1\right]-d\left[1\right]\times \left(k\right[1]-1)-1}{s\left[1\right]}+1 $ (6)

其中:HWC分别为特征向量的高度、宽度、通道数;N为batch size;p为padding参数;d为空洞卷积率。由于复杂的空洞卷积层需要大量的推断时间,为了达到性能与耗时的平衡,本文通过选择不同的采样率r组合进行优化,经过多次实验对比,最终采用4层并行空洞卷积层,空洞采样率组合为6+12+18+24,如表 3所示,其中通道数为1 024。

下载CSV 表 3 不同采样率组合下的性能与时间复杂度 Table 3 Performance and time complexity under different sampling rate combinations

经过空洞卷积层提取的特征与全局平均池化后的特征相融合输入到掩膜解码器中,最终的预测篡改结果是通过合并来自ASPP模块的4个层次结构的输出,通过集成多尺度上下文信息从而获得增强的逐像素预测。

2 实验

采用Microsoft COCO与Dresden[13]复制-粘贴和拼接篡改混合数据集作为训练集,将20 000张图像按7∶2∶1随机分成训练集、测试集和验证集,分类后的图像同样按照比例划分并标注图像块的真值掩膜图,成对输入网络进行端到端的双分支网络同步训练。

2.1 实验参数与评价指标

在训练过程中,设定初始学习率为0.001,ASPP池化后输出掩膜尺寸为16×16×1 024,采用Adam优化器降低网络损失,并加入学习率衰减使后期迭代不再需要手动调整,每次迭代进行一个小批量(mini-batch)梯度下降来更新网络参数,从而加快网络收敛且大幅减少运算成本,batch-size设置为32,迭代轮数在160次之后网络完全收敛。实验平台在Tensorflow框架中搭建,实验对比算法调至最优参数。为提高计算效率,使用4块NVIDIA GeForce GTX 1080Ti GPU进行训练。为评估本文提出模型的性能,采用精确率(P)、召回率(R)和F1分数($ F $)作为评估指标,计算公式如下:

$ P=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{P}}} $ (7)
$ R=\frac{{T}_{\mathrm{T}\mathrm{P}}}{{T}_{\mathrm{T}\mathrm{P}}+{F}_{\mathrm{F}\mathrm{N}}} $ (8)
$ F=\frac{2\times P\times R}{P+R} $ (9)

其中:$ {T}_{\mathrm{T}\mathrm{P}} $表示检测结果中正确检测为篡改区域的像素个数;$ {F}_{\mathrm{F}\mathrm{N}} $表示检测结果中错误检测为非篡改区域的像素个数;$ {F}_{\mathrm{F}\mathrm{P}} $表示检测结果中错误检测为篡改区域的像素个数。复杂度分析主要分为空间占用-参数量、内存占用-访存量、运行速度-耗时、推理速度-计算量4个部分,其中计算量采用乘加操作(Madds)次数[14]作为评估指标,对于普通卷积和深度可分离卷积分别计算如下:

$ \mathrm{M}\mathrm{a}\mathrm{d}\mathrm{d}{\mathrm{s}}_{\mathrm{c}\mathrm{o}\mathrm{n}\mathrm{v}}=k\times k\times {\boldsymbol{C}}_{\mathrm{i}\mathrm{n}}\times {\boldsymbol{H}}_{\mathrm{o}\mathrm{u}\mathrm{t}}\times {\boldsymbol{W}}_{\mathrm{o}\mathrm{u}\mathrm{t}}\times {\boldsymbol{C}}_{\mathrm{o}\mathrm{u}\mathrm{t}} $ (10)
$ \mathrm{M}\mathrm{a}\mathrm{d}\mathrm{d}{\mathrm{s}}_{\mathrm{D}\mathrm{S}\mathrm{C}}=(k\times k+{\boldsymbol{C}}_{\mathrm{o}\mathrm{u}\mathrm{t}})\times {\boldsymbol{C}}_{\mathrm{i}\mathrm{n}}\times {\boldsymbol{H}}_{\mathrm{o}\mathrm{u}\mathrm{t}}\times {\boldsymbol{W}}_{\mathrm{o}\mathrm{u}\mathrm{t}} $ (11)

其中:k为卷积核大小;Hout×Wout为输出特征图分辨率。

2.2 实验对比分析

由于本文设计的网络相对复杂,为了证明每个设计模块对像素级预测分类结果的重要性,设计消融实验对比评估指标,在测试集上的实验结果如表 4所示。在表 4中,S表示单分支,D表示双分支,S-MobV3-SE表示带SE模块的MobileNetV3原始网络模型,S-MobV3-SA表示用SA模块替代SE后的网络模型,S-MobV3-LSTM表示用LSTM与原始网络模型串联,D-MobV3-LSTM表示用LSTM与原始网络模型并联,D-MobV3-SA-ASPP-LSTM表示本文改进的网络模型。可以看出,尽管SA模块对整体网络性能的提升并不大,但是ASPP和LSTM却是十分必要的,即多尺度模块和频域相关性检测模块对篡改区域检测任务的精确率提升影响较大,且双流特征融合模型比单分支序列模型性能更佳。

下载CSV 表 4 消融实验结果 Table 4 Results of ablation experiment

对比分析各类图像篡改检测算法并在不同公开数据集上测试像素级分类的准确度,以证明MobileNetV3-LSTM混合模型的优异性能,选取的对比算法具体为通过隐写分析中的空域富模型(Spatial Rich Model,SRM)捕捉篡改伪影并与CNN相结合的特征提取算法Xavier-CNN[15]、传统离散小波变换与CNN结合的算法DWT-CNN[16]、ManTra-Net[17]、多尺度分析算法ELA[18],对比结果如表 5所示。由表 5可知,传统算法与CNN结合的检测准确度较低,ELA忽视了边缘信息的获取,而ManTra-Net准确度较高,且仍有上升空间,原因是虽然加入了时间维度但却忽略了多尺度特征的获取。其中,COVERAGE数据集[19]主要用于检测复制-粘贴,将相似目标通过粘贴覆盖类似对象来隐藏篡改图像,COLUMBIA数据集[20]侧重未压缩的图像拼接篡改检测,CASIA2数据集[21]为混合数据集,检测难度较大。

下载CSV 表 5 不同数据集下的像素级分类准确度 Table 5 Accuracy of pixel-level classification of different datasets 

图 4为本文算法的部分可视化篡改检测定位结果,可以看出本文算法对于篡改边缘痕迹明显的区域,篡改检测定位的准确度较高。测试一张256像素×256像素图像的算法复杂度如表 6所示。

Download:
图 4 可视化篡改检测定位结果 Fig. 4 Visualized results of tampering detection and positioning
下载CSV 表 6 算法复杂度对比 Table 6 Comparison of algorithm complexity

表 6可以看出,本文算法的参数量平均缩减了82.3%,Madds计算量远小于其他算法,推理速度平均加快了2倍。为验证本文算法的泛化性,在realistic-tampering-dataset[18]等真实篡改数据集上进行测试,并给出部分可视化结果,如图 5所示。从图 5可以看出,尽管在真实篡改数据集上本文算法存在漏检和误检的情况,但是边缘轮廓信息以及多尺度信息基本能被检测,并且完成了初步的篡改定位,这表明本文算法具有一定的泛化性能。

Download:
图 5 真实篡改数据集的可视化结果 Fig. 5 Visualized results of real tampering dataset
3 结束语

本文设计一种轻量级多尺度融合的图像篡改检测算法,利用深度学习方法端到端学习篡改图像的差异性特征并将其分类为多尺度特征和边缘特征,同时采用双分支特征融合架构进行学习输出预测掩膜,完成图像篡改定位任务。实验结果表明,本文算法的精确率、召回率以及F1分数均取得较好结果,相比ManTra-Net、Xavier-CNN等算法检测准确度平均提高9.2个百分点、参数量缩减82.3%、推理速度加快2倍,并通过消融实验证明了每个设计模块的必要性和贡献度。由于MobileNetV3-LSTM混合模型设计较为复杂,后续将在轻量级网络架构的基础上,采用裁剪稀疏化等模型压缩方法,进一步降低图像篡改检测算法的时间复杂度及计算成本。

参考文献
[1]
FARID H. Image forgery detection[J]. IEEE Signal Processing Magazine, 2009, 26(2): 16-25. DOI:10.1109/MSP.2008.931079
[2]
BAPPY J H, ROY-CHOWDHURY A K, BUNK J, et al. Exploiting spatial structure for localizing manipulated image regions[C]//Proceedings of 2017 IEEE International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2017: 4980-4989.
[3]
LIU Y Q, GUAN Q X, ZHAO X F, et al. Image forgery localization based on multi-scale convolutional neural networks[C]//Proceedings of the 6th ACM Workshop on Information Hiding and Multimedia Security. New York, USA: ACM Press, 2018: 85-90.
[4]
LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651. DOI:10.1109/TPAMI.2016.2572683
[5]
HOWARD A, SANDLER M, CHEN B, et al. Searching for MobileNetV3[C]//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Washington D.C., USA: IEEE Press, 2019: 1314-1324.
[6]
ZHONG Z L, LIN Z Q, BIDART R, et al. Squeeze-and-attention networks for semantic segmentation[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2020: 13062-13071.
[7]
HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2018: 7132-7141.
[8]
HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780. DOI:10.1162/neco.1997.9.8.1735
[9]
LIU Y Q, ZHU X B, ZHAO X F, et al. Adversarial learning for constrained image splicing detection and localization based on atrous convolution[J]. IEEE Transactions on Information Forensics and Security, 2019, 14(10): 2551-2566. DOI:10.1109/TIFS.2019.2902826
[10]
BAPPY J H, SIMONS C, NATARAJ L, et al. Hybrid LSTM and encoder-decoder architecture for detection of image forgeries[J]. IEEE Transactions on Image Processing, 2019, 28(7): 3286-3300. DOI:10.1109/TIP.2019.2895466
[11]
CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848. DOI:10.1109/TPAMI.2017.2699184
[12]
HE K M, ZHANG X Y, REN S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916. DOI:10.1109/TPAMI.2015.2389824
[13]
GLOE T, BÖHME R. The Dresden image database for benchmarking digital image forensics[J]. Journal of Digital Forensic Practice, 2010, 3(2/3/4): 150-159.
[14]
STELLING P F, OKLOBDZIJA V G. Implementing multiply-accumulate operation in multiplication time[C]//Proceedings of the 13th IEEE Symposium on Computer Arithmetic. Washington D.C., USA: IEEE Press, 1997: 99-106.
[15]
RAO Y, NI J Q. A deep learning approach to detection of splicing and copy-move forgeries in images[C]//Proceedings of 2016 IEEE International Workshop on Information Forensics and Security. Washington D.C., USA: IEEE Press, 2016: 1-6.
[16]
ABDEL-LATIF E I, TAHA A, ZAYED H H. A passive approach for detecting image splicing based on deep learning and wavelet transform[J]. Arabian Journal for Science and Engineering, 2020, 45(4): 3379-3386. DOI:10.1007/s13369-020-04401-0
[17]
WU Y, ABDALMAGEED W, NATARAJAN P. ManTra-Net: manipulation tracing network for detection and localization of image forgeries with anomalous features[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington D.C., USA: IEEE Press, 2019: 9535-9544.
[18]
KORUS P, HUANG J W. Multi-scale analysis strategies in PRNU-based tampering localization[J]. IEEE Transactions on Information Forensics and Security, 2017, 12(4): 809-824. DOI:10.1109/TIFS.2016.2636089
[19]
WEN B H, ZHU Y, SUBRAMANIAN R, et al. COVERAGE-a novel database for copy-move forgery detection[C]//Proceedings of 2016 IEEE International Conference on Image Processing. Washington D.C., USA: IEEE Press, 2016: 161-165.
[20]
COLUMBIA image splicing detection evaluation dataset[EB/OL]. [2020-10-05]. http://www.ee.columbia.edu/ln/dvmm/downloads/AuthSplicedDataSet/photographers.htm.
[21]
CASIA tampered image detection evaluation dataset[EB/OL]. [2020-10-05]. https://www.kaggle.com/sophatvathana/casia-dataset.