2. 中国石油测井有限公司 技术中心, 西安 710077;
3. 中国石油天然气集团有限公司 测井重点实验室, 西安 710077
2. Technique Center of China Petroleum Well Logging Co., Ltd., Xi'an 710077, China;
3. Well Logging Key Laboratory of CNPC, Xi'an 710077, China
近年来,页岩气、致密气、致密油等非常规油气产量快速上升,其勘探开发受到广泛关注[1]。与常规油气资源不同,非常规油气储层主要为微纳米级孔隙结构。研究岩心微纳米级孔隙空间结构对非常规油气资源勘探开发具有重要的指导意义[2-3]。聚焦离子束扫描电镜(Focused Ion Beam-Scanning Electron Microscope,FIB-SEM)是一种研究非常规油气储层结构的新方法[4],其使用离子束轰击样品表面以发生溅射,再通过电子束观察表面成像。FIB-SEM成像技术可用于恢复岩心真实三维孔隙结构图像[5],但若要进一步提取三维孔隙,则需对图像进行物相区分,使用分割算法提取图像中的孔隙[6]。受FIB-SEM成像原理影响,目前提取孔隙存在以下问题:由于电子束并非垂直击中观察面,样品观察面底部接收到的信号比上部弱,因此最终扫描图像由上至下亮度会逐渐变暗,导致利用阈值分割等传统方法进行物相分割时会产生较大干扰[6];岩心图像中有机质和黏土矿物等杂质的灰度值与孔隙相近,增加了孔隙提取难度;采用FIB-SEM成像技术可呈现孔隙内部细节,但电子束作用在孔隙内部时会使其在图像上出现局部高亮现象[6],对孔隙的精确提取造成严重干扰。
针对上述问题,研究人员提出众多解决方案。2012年,SALZER等人[7]采用两阶段分割算法提取多孔介质的孔隙,对易分割的高光区域进行反向传播,但要求非孔隙区域灰度值差异较小,且在岩心FIB-SEM图像中存在多种杂质干扰的情况下不能有效提取孔隙。2014年,SALZER等人[8]又提出一种基于FIB-SEM图像在Z方向上灰度值变化情况的孔隙提取方法,但对含有黏土矿物、有机质、岩石等多种杂质的岩心图像,会错误提取到杂质边缘,无法精确提取空隙。2016年,王羽等人[9]分别采用边缘检测、流域和手动阈值分割方法对页岩FIB-SEM图像进行实验,但上述方法具有受孔隙形貌影响较大、无法提取狭缝以及依赖人工选取阈值等缺点。2018年,户瑞林等人[10]提出基于主动轮廓的岩心FIB-SEM图像孔隙提取方法,分割前用人工选择控制点提取孔隙边缘,再利用序列图像的相关性进行形态学处理提取图像孔隙,但需要预先人工选取轮廓点,当空隙数量较多时人工操作较繁冗,且由于需提取孔隙边缘,对边缘不明显的孔隙无法进行精确提取。
近年来,深度卷积神经网络(Convolutional Neural Network,CNN)在图像语义分割应用方面取得良好的效果[11-13]。为增强有用信息的表达并优化全局特征的依赖关系,研究人员在深度卷积神经网络的基础上引入注意力机制[14-15]。与传统图像语义分割算法相比,基于深度卷积神经网络的分割算法能更好地提取图像特征,且采取端到端的分割方式而无需依赖人工处理,目前基于卷积神经网络的岩心FIB-SEM图像分割算法较少。
本文提出一种端到端的岩心FIB-SEM图像分割算法。建立岩心FIB-SEM图像数据集,结合光流法与分水岭分割法标注序列图像,构建基于深度卷积的岩心FIB-SEM图像分割网络,将通道注意力模块嵌入以残差网络为主干网络的编码器,利用多尺度空间注意力模块和特征金字塔注意力模块提取更多特征信息,并使用亚像素卷积模块通过上采样恢复图像分辨率。
1 岩心FIB-SEM图像数据集及标注方法 1.1 数据集构建本文为训练岩心FIB-SEM分割网络并对其进行定量评价,构建岩心FIB-SEM图像数据集,具体流程如下:
1)对岩心FIB-SEM图像数据库(包含约15 000张图像,由多组致密碳酸盐岩序列图构成)进行图像标注,根据序列图像的层间相关性,使用1.2节提出的结合光流与基于标记的分水岭分割的标注方法对图像进行标注。
2)在上述数据库中随机选取质量较好的4 264张图像,裁剪出含有孔隙结构的区域,统一尺寸为400像素400像素。
3)从4 264张图像中随机选取2 602张图像和600张图像作为训练集与验证集,余下1 062张图像作为测试集。
岩心FIB-SEM图像示例如图 1(a)所示,实线圆圈内为孔隙区域,虚线圆圈内为有机质或者黏土矿物。可以看出,FIB-SEM图像呈现出孔隙内部细节,在电子束的作用下,同一个孔隙对应的区域灰度值差异明显,包括灰度值较高的高光部分与灰度值较低的黑洞部分,有机质和黏土矿物呈现出与孔隙相似的灰度分布。该图像标注后所得分割结果如图 1(b)所示,白色部分代表孔隙区域,黑色部分代表背景区域。图 2为岩心FIB-SEM图像数据集部分图像示例,这些图像中孔隙数量和灰度分布均不同。
![]() |
Download:
|
图 1 岩心FIB-SEM图像样本及其分割结果 Fig. 1 Sample of core FIB-SEM images and its segmentation result |
![]() |
Download:
|
图 2 部分岩心FIB-SEM图像样本 Fig. 2 Part of samples of core FIB-SEM images |
对于目标为语义分割的图像标注任务,常用方法是采用Labelme[16]、Flickr等图像标注系统手动选取目标边界,并对每张图像进行标注。上述标注系统虽然为手动标注单张图像提供便利,但仍需耗费较长时间。
本文所用的岩心FIB-SEM图像数据集由若干组序列图构成,序列图之间有较强的层间相关性,相邻帧之间的差异不大,孔隙区域随帧序列缓慢变化而不会发生突变。因此,当采用基于标记的分水岭分割方法标注第一帧图像时,可使用光流法跟踪得到对应标记点在下一帧中的位置,从而下一帧图像无需重新选取标记点,仅调整不合适的标记点位置进行分水岭分割即可,可大量缩短手工标注时间。
光流法的原理是利用序列图的相关性及对应像素点的变化获取相邻两帧之间关键特征点的对应关系,并由此得到相邻帧间目标物体的运动信息。Lucas-Kanada稀疏光流法(以下称为LK光流法)是常用的一种光流法,其利用两帧之间的差分计算光流[17]。假设相邻两帧中同一个物体亮度不变,有以下关系式:
$ I\left( {x, y, t} \right) = I\left( {x + u, y + v, t + \Delta t} \right) $ | (1) |
其中,I(x, y, t)为目标物体在(x, y)位置和t时刻的像素值,在t+Δt时刻该物体位于(x+u, y+v)位置。采用泰勒公式将式(1)展开得到:
$ I(x, y, t) = I(x, y, t) + I{'_x}u + I{'_y}v + I{'_t}\Delta t $ | (2) |
简化式(2)后得到:
$ I{'_x}u + I{'_y}v + I{'_t}\Delta t = 0 $ | (3) |
将式(3)写为矩阵形式为:
$ \left[ {I{'_x}, I{'_y}} \right]\left[ \begin{array}{l} u\\ v \end{array} \right] = - I{'_t}\Delta t $ | (4) |
其中,I'x、I'y分别为(x, y)位置像素点的灰度值在x和y方向的偏导数,I't为t时刻(x, y)位置像素点灰度值对时间的偏导数,I'tΔt为相邻帧在(x, y)位置像素点的灰度差。
若给定相邻两帧,I'x、I'y和I'tΔt均为已知量,则可求解得到I(x, y, t)的光流u、v。以此为基础,可用光流法跟踪目标像素点,找到该像素点在下一帧的位置。为获取准确的特征点跟踪效果,本文采用基于金字塔分层的改进LK光流法[18]进行特征点跟踪。
文献[19-20]提出基于标记的分水岭分割方法,对图像中目标区域进行标记,该标记会将此区域强制修改为梯度图像的极小值区域。通常在目标区域和背景区域设置标记,再采用分水岭分割方法分割出目标与背景。
本文将光流跟踪与基于标记的分水岭分割方法相结合作为图像标注方法,如图 3所示。
![]() |
Download:
|
图 3 本文图像标注方法流程 Fig. 3 Procedure of the proposed image annotation method |
该方法具体流程如下:
1)手动选择标记点作为改进LK光流法的特征点(见图 4),这些标记点同时作为分水岭分割方法的标记点,图 4中实心标记处为孔隙目标,空心标记处为背景。
![]() |
Download:
|
图 4 手动选取的标记点 Fig. 4 Manually selected mark points |
2)使用分水岭分割方法得到分割后的图像,如图 5所示。若该图像经人工判别可作为标注图像,则进行步骤3;否则手动修正标记点,再次重复步骤2。图 6为手动修正标记点前后的情况。其中,分割后的图像左上角缺少背景标记(见图 6(a)),导致左上角被分割为孔隙(见图 6(b)),经过手动修正标记点(见图 6(c)),得到最终分割结果(见图 6(d))。
![]() |
Download:
|
图 5 分水岭分割方法的分割结果 Fig. 5 Segmentation result of watershed segmentation method |
![]() |
Download:
|
图 6 手动修正标记点前后的情况 Fig. 6 The situation before and after manual correction of mark points |
3)若当前图像为最后一帧,则整个流程结束;否则使用改进LK光流法跟踪当前图像标记点,得到下一帧图像标记点。由于有些标记点不满足改进LK光流法的跟踪要求,在下一帧图像上这些标记点会消失,因此需重复步骤2再次调整。图 7为使用改进LK光流法所得连续5帧图像的标记点,其中半透明线段标记处为标记点移动轨迹。
![]() |
Download:
|
图 7 连续5帧图像的标记点 Fig. 7 Mark points of five consecutive frames |
本文提出一种岩心FIB-SEM图像分割算法,其流程如图 8所示,算法具体如下:
![]() |
Download:
|
图 8 本文算法流程 Fig. 8 Procedure of the proposed algorithm |
1)利用残差通道注意力(Residual Channel Attention,Res-CA)模块提取特征。
2)解码部分使用多尺度空间注意力(Multi-scale Spatial Attention,MSA)模块以得到更精确的目标区域。
3)利用改进的特征金字塔注意力(Feature Pyramid Attention,FPA)模块提取不同尺度特征信息。
4)采用亚像素卷积(Sub-Pixel Conv)模块解码部分的上采样以准确获取分割边缘。
2.1 注意力模块 2.1.1 残差通道注意力模块由于特征图每个通道被视为特征检测器,因此利用通道注意力机制重点关注最能代表输入图像特征的通道。将通道注意力(Channel Attention,CA)模块[15](见图 9)嵌入ResNet 50网络得到残差通道注意力模块(见图 10),即将ResNet 50中卷积层(Conv)的输出作为CA的输入特征(Input Feature)图,并与CA的输出相加,其结果输入至ReLu激活函数,即完成通道注意力模块的嵌入。
![]() |
Download:
|
图 9 通道注意力模块 Fig. 9 Channel attention module |
![]() |
Download:
|
图 10 残差通道注意力模块 Fig. 10 Residual channel attention module |
令输入特征图
$ \mathit{\boldsymbol{F}}{}' = \mathit{\boldsymbol{M}}_C^F \otimes \mathit{\boldsymbol{F}} $ | (5) |
通道注意力模块通过平均池化(AvgPool)和最大池化(MaxPool)获取特征图空间信息,生成两个不同的空间上下文特征向量:平均池化特征Favgc和最大池化特征Fmaxc,将其输入到共享网络,具有隐藏层的多层感知机(Multi-Layer Perceptron,MLP)组成该共享网络,即共享MLP(Shared MLP)。为减少参数开销,隐藏层大小设置为
$ \begin{array}{l} \mathit{\boldsymbol{M}}_C^F = \sigma (MLP({\rm{AvgPool}}(\mathit{\boldsymbol{F}})) + MLP({\rm{MaxPool}}(\mathit{\boldsymbol{F}}))) = \\ \;\;\;\;\;\;\;\;\;\sigma ({\mathit{\boldsymbol{W}}_1}({\mathit{\boldsymbol{W}}_0}(\mathit{\boldsymbol{F}}_{{\rm{avg}}}^c)) + {\mathit{\boldsymbol{W}}_1}({\mathit{\boldsymbol{W}}_0}(F_{\max }^c)))) \end{array} $ | (6) |
其中,σ为Sigmoid激活函数,
在解码阶段,将空间注意力(Spatial Attention,SA)模块[15](见图 11)嵌入多尺度特征融合结构得到多尺度空间注意力模块(见图 12),以此作为对通道注意力模块的补充。空间注意力更重点关注特征图中对图像特征贡献程度较大的部位。在多尺度特征融合结构中,低、高层卷积特征分别包含较丰富的位置信息与语义信息[21-22]。为得到位置细节详细且语义信息丰富的鲁棒特征,将低层卷积特征信息逐像素的与高层卷积特征信息相加,同时为防止空间注意力模块学习到的权重向量值过小,添加与残差网络块相似的连接结构以得到更多不同尺度的特征信息。
![]() |
Download:
|
图 11 空间注意力模块 Fig. 11 Spatial attention module |
![]() |
Download:
|
图 12 多尺度空间注意力模块 Fig. 12 Multi-scale spatial attention module |
对于输入的特征图F,将平均池化特征和最大池化特征级联后经过卷积层,并输入至Sigmoid激活函数激活,使空间注意力模块获得特征图权重向量
$ \mathit{\boldsymbol{M}}_S^F = \sigma \left( {{f^{7 \times 7}}\left( {\left[ {\mathit{\boldsymbol{F}}_{{\rm{avg}}}^s;\mathit{\boldsymbol{F}}_{\max }^s} \right]} \right)} \right) $ | (7) |
其中,f7×7表示用7×7的卷积核进行卷积。将输入特征图与权重向量相乘后得到空间注意力模块输出:
$ \mathit{\boldsymbol{F}}' = \mathit{\boldsymbol{M}}_S^F \otimes \mathit{\boldsymbol{F}} $ | (8) |
对于多尺度空间注意力模块,其输入为低级特征图(Low Level Feature Map)Flow和高级多尺度空间注意模块的输出(High Level MSA Output)F'high,两者尺寸相同均为
$ \mathit{\boldsymbol{M}}_{{\rm{MSr}}}^{{F_{low}}, F'high} = {\rm{Re}}\;{\rm{Lu}}\left( {f_d^{2 \times 2}\left( {\mathit{\boldsymbol{M}}_S^{{F_{{\rm{low}}}} + F{'_{{\rm{high}}}}} + {\mathit{\boldsymbol{F}}_{{\rm{low}}}}} \right)} \right) $ | (9) |
值得注意的是,在图 8中Res-CA-4对应的MSA模块内,由于不改变特征图大小,因此无需在反卷积层进行上采样。
2.2 特征金字塔注意力模块特征金字塔结构可提取不同尺度的特征信息并进行融合,PSPNet[23]、Deeplab[13]等网络均采用了该结构。其中,PSPNet在不同尺度特征上进行池化操作会丢失部分像素位置信息,在Deeplab的金字塔结构中,若采用空洞卷积则会丢失部分局部信息并导致出现网格现象。为解决该问题,研究人员提出特征金字塔注意力模块,如图 13所示。
![]() |
Download:
|
图 13 特征金字塔注意力模块 Fig. 13 Feature pyramid attention module |
在FPA中的卷积分支中,由于使用较大卷积核进行卷积,导致网络参数量过多,计算负担增大,因此改进此模块以减少参数量并加快计算速度。在Inception模块[24]基础上改进如下:1)对于55卷积块,采用堆叠两个33卷积进行替换;2)对于77卷积块,替换为将输入特征分别进行71卷积和17卷积,再级联(Concatenate)并采用11卷积进行降维,最终得到改进的特征金字塔注意力模块,如图 14所示。
![]() |
Download:
|
图 14 改进的特征金字塔注意力模块 Fig. 14 Improved feature pyramid attention module |
亚像素卷积[25]模块广泛用于超分辨率重建领域。语义分割网络在解码阶段通常使用双线性插值、反池化以及反卷积等方法进行上采样,但双线性插值与反池化无法较好地恢复精细的目标边界,反卷积方法计算量大且计算效率较低。亚像素卷积是对特征图像的特征通道进行重新排列,不包含插值和卷积操作,不会丢失边界信息且计算较简单。由于岩心FIB-SEM图像中孔隙边缘复杂,要求提取的边缘较精细,因此本文采取亚像素卷积模块进行上采样来恢复图像分辨率,具体操作为:输入低分辨率图像
$ {\mathit{\boldsymbol{I}}_{{\rm{SR}}}} = {\rm{PS}}\left( {{f_2}\left( {{f_1}\left( {{\mathit{\boldsymbol{I}}_{{\rm{LR}}}}} \right.} \right)} \right) = {\rm{PS}}\left( {{\mathit{\boldsymbol{F}}_{{\rm{LR}}}}} \right) $ | (10) |
其中,PS为周期性排列算子,其将维数为C×r2×H×W的向量T重新排列为C×rH×rW的向量,表达式为:
$ {\rm{PS}}{\left( \mathit{\boldsymbol{T}} \right)_{x, y, c}} = {\mathit{\boldsymbol{T}}_{\left\lfloor {x/r} \right\rfloor , \left\lfloor {y/r} \right\rfloor , C \cdot r \cdot \bmod \left( {y \cdot r} \right) + C \cdot \bmod \left( {x, r} \right) + c}} $ | (11) |
其中,x、y为所输出高分辨率图像的坐标索引,c为所输出高分辨率图像的通道索引。
3 实验与结果分析为评估本文提出的岩心FIB-SEM图像分割算法的分割精度及分割速度,本文进行一系列消融实验分别评估残差注意力模块、多尺度空间注意力模块、特征金字塔注意力模块和亚像素卷积模块的性能,并将本文算法与目前主流的分割算法以及传统FIB-SEM图像分割算法进行对比。
3.1 数据集本文构建岩心FIB-SEM数据集进行实验,该数据集中2 602张图像为训练集,600张图像为验证集,1 062张图像为测试集。为扩充数据集并避免过拟合问题,通过旋转变换、投影变换、平移变换和翻转变换对数据集进行数据增强处理,如图 15所示,采用镜像填充作为像素填充方式,最终将数据集扩大8倍。
![]() |
Download:
|
图 15 数据集扩充图例 Fig. 15 Legend of extended dataset |
本文实验采用Intel® i7-7700K CPU 4.20 GHz处理器、16 GB内存、NVDIA GTX 1060 6 GB GPU以及Ubuntu 16.04操作系统、Python 3.6编程语言和Keras 2.2.4深度学习库。超参数设置如下:对于所有网络层的权重值,使用均值为0、标准差为
本文选择交叉熵函数作为损失函数,先使用Softmax函数处理网络最后的特征图层,将Softmax函数的输出与真实标注数据作为交叉熵函数的输入,交叉熵函数的输出即为损失值。Softmax函数定义为:
$ {\rm{Softma}}{{\rm{x}}_k}\left( x \right) = \frac{{\exp \left( {a_k^x} \right)}}{{\mathop \sum \limits_{k' = 1}^k \exp \left( {a_{k'}^x} \right)}} $ | (12) |
其中,akx为特征图像中位置为x的像素点在通道k上的激活值,k=2为类别总数。采用Softmax函数得到特征图中每个像素点属于第k类的概率。
交叉熵函数定义为
$ H\left( {p', p} \right) = - \mathop \sum \limits_{j = 1}^k p{'_j}\ln \left( {{p_j}} \right) $ | (13) |
其中,p'j为真实标签,pj为采用Softmax函数得到的属于类别j的概率。
3.4 评价指标因为数据集中存在较多孔隙区域占比远小于背景区域的图像,使用像素精度(Pixel Accuracy,PA)无法准确描述模型性能,会存在PA值很高但是少数类别样本分错的情况。因此,本文使用平均像素精度(Mean Pixel Accuracy,MPA)、平均交并比(Mean Intersection over Union,MIoU)、精确率(Precision)、召回率(Recall)和F1值作为分割精度的评价指标,计算公式如下:
$ MPA = \frac{{\frac{{{\mathit{\boldsymbol{I}}_{{\rm{TP}}}}}}{{{\mathit{\boldsymbol{I}}_{{\rm{TP}}}} + {\mathit{\boldsymbol{I}}_{{\rm{FN}}}}}} + \frac{{{\mathit{\boldsymbol{I}}_{{\rm{TN}}}}}}{{{\mathit{\boldsymbol{I}}_{{\rm{TN}}}} + {\mathit{\boldsymbol{I}}_{{\rm{FP}}}}}}}}{2} \times 100\% $ | (14) |
$ {\rm{MIoU}} = \frac{{\frac{{{\mathit{\boldsymbol{I}}_{{\rm{TP}}}}}}{{{\mathit{\boldsymbol{I}}_{{\rm{TP}}}} + {\mathit{\boldsymbol{I}}_{{\rm{FN}}}} + {\mathit{\boldsymbol{I}}_{{\rm{FP}}}}}} + \frac{{{\mathit{\boldsymbol{I}}_{{\rm{TN}}}}}}{{{\mathit{\boldsymbol{I}}_{{\rm{TN}}}} + {\mathit{\boldsymbol{I}}_{{\rm{FN}}}} + {\mathit{\boldsymbol{I}}_{{\rm{FP}}}}}}}}{2} \times 100\% $ | (15) |
$ {\rm{Precision = }}\frac{{{\mathit{\boldsymbol{I}}_{{\rm{TP}}}}}}{{{\mathit{\boldsymbol{I}}_{{\rm{TP}}}} + {\mathit{\boldsymbol{I}}_{{\rm{FP}}}}}} \times 100\% $ | (16) |
$ {\rm{Recall = }}\frac{{{\mathit{\boldsymbol{I}}_{{\rm{TP}}}}}}{{{\mathit{\boldsymbol{I}}_{{\rm{TP}}}} + {\mathit{\boldsymbol{I}}_{{\rm{FN}}}}}} \times 100\% $ | (17) |
$ {\rm{F}}1 = \frac{{{\rm{2 \times Precision}} \times {\rm{Recall}}}}{{{\rm{Precision + Recall}}}} \times 100\% $ | (18) |
其中,ITP表示正确预测的孔隙处像素点个数,ITN表示正确预测的背景处像素点个数,IFP表示将背景预测为孔隙部分的像素点个数,IFN表示将孔隙预测为背景部分的像素点个数。
3.5 训练过程图 16给出本文所提算法的网络模型在训练过程中训练损失的变化情况。可以看出,采用Adam优化器使损失值迅速降低,并在迭代35次后趋于稳定。验证损失和训练损失曲线下降趋势相近且收敛趋于平稳,训练过程无过拟合现象,且泛化能力良好。
![]() |
Download:
|
图 16 训练损失变化情况 Fig. 16 The situation of Changes in training losses |
为证明本文提出的残差注意力模块、多尺度空间注意力模块、特征金字塔注意力模块和亚像素卷积模块对孔隙提取的有效性,进行消融实验比较上述模块对结果的影响。其中,ResNet50作为不加入上述模块的基本网络用Baseline(其结构见图 17)表示,上采样采用双线性插值Bilinear。实验结果如表 1所示,可以看出本文提出的模型各项指标值均最高,各模块均能有效提升孔隙的提取精度。其中:Res-CA和MSA模块通过使用注意力机制将网络注意力集中在孔隙特征部分;改进的FPA模块使用金字塔结构进一步提取特征信息;亚像素卷积模块使孔隙边缘更加精确。
![]() |
Download:
|
图 17 Baseline结构 Fig. 17 Baseline structure |
![]() |
下载CSV 表 1 不同模型对实验结果的影响 Table 1 Effects of different models on experimental results |
将加入不同模块后模型所需的参数量、其对每张图像的运行时间(若运行时间短则分割速度快)以及得到的分割精度进行对比,结果如表 2所示(Deconv表示使用反卷积进行上采样)。可以看出:Baseline+Res-CA+MSA所需参数量和运行时间较Baseline更多,但其MIoU值更高;Baseline+改进的FPA所需参数量和运行时间较Baseline+FPA更少,且MIoU值接近,说明使用较小卷积核替代较大卷积核具有一定的效果;Baseline+Sub-Pixel Conv所需参数量和运行时间、分割精度都优于Baseline和Baseline+Deconv,其得到的孔隙边缘更精确。本文模型包含上述各个模块,在降低参数量与运行时间的同时,达到最佳的分割效果。
![]() |
下载CSV 表 2 不同模型在性能上的对比实验 Table 2 Comparative experiments on the performance of different models |
传统的岩心FIB-SEM图像分割算法包括传统阈值分割算法和基于主动轮廓的岩心FIB-SEM分割算法[10](以下称为文献[10]算法)。将本文算法与上述两种传统分割算法的分割精度进行对比。由于文献[10]算法以序列图像的相关性为基础且需要手动标记轮廓,因此在测试集中选取80帧序列图像进行实验,手动标记出第1帧序列图像中孔隙区域的轮廓。该方法每次只能处理1个孔隙连通域,若要处理多个孔隙区域,则需多次提取再叠加得到最终结果。
图 18为上述3种算法的分割结果对比情况。其中:第1行从左到右分别为第1帧、第15帧、第30帧具有真实孔隙标签的原图;第2行从左到右分别为采用阈值分割算法对第1帧、第15帧、第30帧图像进行分割得到的结果,该结果通过手动选择提取灰度值为0~43和111~255的区域获得;第3行从左到右分别为采用文献[10]算法对第1帧、第15帧、第30帧图像进行分割得到的结果,具体分割过程为:分别手动标记5个孔隙区域的轮廓(见图 18第3行左起第1张图),由于每次只能提取1个孔隙区域,将5次运行算法得到的区域叠加得到最终分割结果,区域灰度权重a=0.5,区域面积权重b=1,结构元半径为5。图 18第4行从左到右分别为采用本文算法对第1帧、第15帧、第30帧图像进行分割得到的结果。
![]() |
Download:
|
图 18 本文算法与传统分割算法分割结果对比 Fig. 18 Comparison of segmentation results between the proposed algorithm and traditional segmentation algorithms |
由图 18可以看出:传统阈值分割算法得到的孔隙有高光现象,孔隙暗部与基质灰度相差不大且FIB-SEM图像整体灰度不均,会同时提取孔隙和基质,无法对孔隙进行有效提取;文献[10]算法对初始几帧序列图像分割效果较好,但无法精确分割孔隙边缘及细长孔隙区域,且对序列图像中逐渐分离为两部分的孔隙(见图 18第3行左起第2张图下方2个孔隙),无法跟踪其变化并分割,同时基于边缘信息判断轮廓变化,未考虑目标区域的灰度特征信息,造成在后续序列图像中将基质边缘误判为孔隙边缘而进行过度分割(见图 18第3行左起第3张图顶部),且随着序列图像的变化,被误判为孔隙区域的轮廓会不断扩大,导致无法正确提取孔隙,因此,文献[10]算法只能有效提取少量序列图像中相对变化不大的孔隙;本文算法采用卷积神经网络进行端到端的孔隙分割,无需手动标记,可有效分割出孔隙区域,并实现较细小孔隙区域的完整分割,孔隙分割精度高于传统分割算法。
表 3为3种算法对每张图像的运行时间以及所得MIoU值的对比情况。其中,文献[10]算法将提取1个孔隙的平均时间作为分割每张图像的运行时间。可以看出:文献[10]算法由于使用主动轮廓算法寻找孔隙边缘并利用形态学进行后处理,因此运行时间较长;本文算法使用卷积神经网络对每个像素点进行分类,在很大程度上缩短了运行时间。
![]() |
下载CSV 表 3 3种算法的实验结果对比 Table 3 Comparison of experimental results of three algorithms |
将本文算法与PSPNet[23]、SegNet[26]、FCN-8s[11]、U-Net[12]、RefineNet[27]、BiseNet[28]以及DeeplabV3+[13]等主流分割算法的分割精度进行对比。其中,FCN-8s和SegNet采用VGG-16作为主干网络,PSPNet和RefineNet采用ResNet50作为主干网络,DeeplabV3+采用xception作为主干网络。
图 19和图 20分别为本文算法与上述主流分割算法对岩心FIB-SEM图像数据集中第30帧和第70帧图像的分割效果对比(红色区域代表真实标签,黄色区域代表预测正确的孔隙区域,绿色区域代表预测为孔隙但实际为背景的区域,彩色效果参见《计算机工程》官网HTML版)。
![]() |
Download:
|
图 19 不同算法对第30帧图像的分割效果 Fig. 19 Segmentation effect of different algorithms on the 30th frame image |
![]() |
Download:
|
图 20 不同算法对第70帧图像的分割效果 Fig. 20 Segmentation effect of different algorithms on the 70th frame image |
由图 19可以看出:PSPNet、SegNet、FCN-8s、RefineNet和BiseNet算法对于小目标分割效果较差,未提取出图像中左侧和中部细长的孔隙;U-Net算法对大孔隙中与基质灰度值接近的区域分割不准确;DeeplabV3+算法采用ASPP模块对细节分割较准确;本文算法由于采用注意力模块并在使用亚像素卷积模块进行上采样,因此对于小目标提取精度更高,可获取更准确的目标边缘。由图 20中各分割算法对左侧孔隙下方和中部孔隙下方的分割结果可以看出,本文算法对细节部分的分割精度更高。
将本文算法与上述主流分割算法所需的参数量与运行时间进行对比,结果如表 4所示。本文算法因为加入了注意力模块和金字塔模块,所以参数量要多于U-Net、PSPNet、SegNet和BiseNet算法,而金字塔模块使用多个小卷积核级联代替原卷积核,因此本文算法参数量少于FCN-8s算法。在运行时间上,为得到更精确的结构,本文算法运行时间比U-Net、SegNet和BiseNet算法更长,但引入亚像素卷积模块进行上采样,在一定程度上缩短了运行时间。表 5为本文算法与上述主流分割算法的实验结果对比。可以看出,本文算法可对孔隙区域进行精确分割,其评价指标值均高于其他主流算法。
![]() |
下载CSV 表 4 不同算法的参数量与运行时间对比 Table 4 Comparison of parameter quantity and running time of different algorithms |
![]() |
下载CSV 表 5 不同算法的实验结果对比 Table 5 Comparison of experimental results of different algorithms |
针对传统岩心FIB-SEM图像分割算法提取孔隙需人工标记且分割精度较低的问题,本文提出一种利用卷积神经网络的端到端图像分割算法。采用光流法与分水岭分割图像标注法构建岩心FIB-SEM数据集,将残差通道注意力模块、多尺度空间注意力模块以及特征金字塔模块嵌入分割网络并采用亚像素卷积模块进行上采样。实验结果表明,和阈值分割算法、基于主动轮廓的岩心FIB-SEM图像分割算法相比,该算法分割结果更精准且无需人工操作。然而本文算法引入复杂的注意力模块与金字塔模块导致网络参数量较大且计算效率不高,后续将引入轻量级卷积网络,进一步提高计算效率与分割精度。
[1] |
ZOU Caineng, YANG Zhi, ZHU Rukai, et al. Progress in China's unconventional oil & gas exploration and development and theoretical technologies[J]. Acta Geologica Sinica, 2015, 89(6): 979-1007. (in Chinese) 邹才能, 杨智, 朱如凯, 等. 中国非常规油气勘探开发与理论技术进展[J]. 地质学报, 2015, 89(6): 979-1007. DOI:10.3969/j.issn.0001-5717.2015.06.001 |
[2] |
ZOU Caineng, TAO Shizhen, BAI Bin, et al. Differences and relations between unconventional and conventional oil and gas[J]. China Petroleum Exploration, 2015, 20(1): 1-16. (in Chinese) 邹才能, 陶士振, 白斌, 等. 论非常规油气与常规油气的区别和联系[J]. 中国石油勘探, 2015, 20(1): 1-16. DOI:10.3969/j.issn.1672-7703.2015.01.001 |
[3] |
ZOU Caineng, ZHU Rukai, WU Songtao, et al. Types, characteristics, genesis and prospects of conventional and unconventional hydrocarbon accumulations:taking tight oil and tight gas in China as an instance[J]. Acta Petrolei Sinica, 2012, 33(2): 173-187. (in Chinese) 邹才能, 朱如凯, 吴松涛, 等. 常规与非常规油气聚集类型、特征、机理及展望——以中国致密油和致密气为例[J]. 石油学报, 2012, 33(2): 173-187. |
[4] |
CURTIS M E, SONDERGELD C H, AMBROSE R J, et al. Microstructural investigation of gas shales in two and three dimensions using nanometer-scale resolution imaging[J]. AAPG Bulletin, 2012, 96(4): 665-677. DOI:10.1306/08151110188 |
[5] |
FU Qinqin, SHAN Zhiwei. FIB-SEM dual-beam system and its partial applications[J]. Journal of Chinese Electron Microscopy Society, 2016, 35(1): 81-89. (in Chinese) 付琴琴, 单智伟. FIB-SEM双束技术简介及其部分应用介绍[J]. 电子显微学报, 2016, 35(1): 81-89. DOI:10.3969/j.issn.1000-6281.2016.01.014 |
[6] |
SUN Liang, WANG Xiaoqi, JIN Xu, et al. Three dimensional characterization and quantitative connectivity analysis of micro/nano pore space[J]. Petroleum Exploration and Development, 2016, 43(3): 490-498. (in Chinese) 孙亮, 王晓琦, 金旭, 等. 微纳米孔隙空间三维表征与连通性定量分析[J]. 石油勘探与开发, 2016, 43(3): 490-498. |
[7] |
SALZER M, SPETTL A, STENZEL O, et al. A two-stage approach to the segmentation of FIB-SEM images of highly porous materials[J]. Materials Characterization, 2012, 69(7): 115-126. |
[8] |
SALZER M, THIELE S, ZENGERLE R, et al. On the importance of FIB-SEM specific segmentation algorithms for porous media[J]. Materials Characterization, 2014, 95(9): 36-43. |
[9] |
WANG Yu, JIN Chan, WANG Lihua, et al. Pore segmentation methods based on gray scale of scanning electron microscopy images[J]. Rock and Mineral Analysis, 2016, 35(6): 595-602. (in Chinese) 王羽, 金婵, 汪丽华, 等. 基于SEM图像灰度水平的页岩孔隙分割方法研究[J]. 岩矿测试, 2016, 35(6): 595-602. |
[10] |
HU Ruilin, TENG Qizhi, HE Xiaohai, et al. Segmentation method of core FIB-SEM images based on active contour[J]. Modern Computer, 2018, 35(18): 36-41. (in Chinese) 户瑞林, 滕奇志, 何小海, 等. 基于主动轮廓的岩心FIB-SEM序列图像孔隙提取方法[J]. 现代计算机, 2018, 35(18): 36-41. |
[11] |
SHELHAMER E, LONG J, DARRELL T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651. DOI:10.1109/TPAMI.2016.2572683 |
[12] |
RONNEBERGER O, FISCHER P, BROX T.U-Net: convolutional networks for biomedical image segmentation[C]//Proceedings of 2015 International Conference on Medical image computing and computer-assisted intervention.Berlin, Germany: Springer, 2015: 234-241.
|
[13] |
CHEN L C, ZHU Y K, PAPANDREOU G, et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proceedings of ECCV'18.Berlin, Germany: Springer, 2018: 833-851.
|
[14] |
TAN Zichang, YANG Yang, WAN Jun, et al. Attention-based pedestrian attribute analysis[J]. IEEE Transactions on Image Processing, 2019, 28(12): 6126-6140. DOI:10.1109/TIP.2019.2919199 |
[15] |
WOO S, PARK J, LEE J Y, et al.CBAM: convolutional block attention module[C]//Proceedings of ECCV'18.Berlin, Germany: Springer, 2018: 3-19.
|
[16] |
RUSSELL B C, TORRALBA A, MURPHY K P, et al. LabelMe:a database and web-based tool for image annotation[J]. International Journal of Computer Vision, 2008, 77(1): 157-173. |
[17] |
LUO Fanbo, WANG Ping, LIAG Siyuan, et al. Crowd abnormal behavior recognition based on deep learning and sparse optical flow[J]. Computer Engineering, 2020, 46(4): 287-293. (in Chinese) 罗凡波, 王平, 梁思源, 等. 基于深度学习与稀疏光流的人群异常行为识别[J]. 计算机工程, 2020, 46(4): 287-293. |
[18] |
NIU Yan, XU Zhiwen, CHE Xiangjiu. Dynamically removing false features in pyramidal lucas-kanade registration[J]. IEEE Transactions on Image Processing, 2014, 23(8): 3535-3544. DOI:10.1109/TIP.2014.2331140 |
[19] |
BEUCHER S, MEYER F.The morphological approach to segmentation: the watershed transformation[EB/OL].[2019-10-26].https://www.researchgate.net/publication/230837870_The_Morphological_Approach_to_Segmentation_The_Watershed_Transformation.
|
[20] |
WEI Tong, ZHOU Yinhe. Blind sidewalk image location based on machine learning recognition and marked watershed segmentation[J]. Optics and Precision Engineering, 2019, 27(1): 201-210. (in Chinese) 魏彤, 周银鹤. 基于机器学习识别与标记分水岭分割的盲道图像定位[J]. 光学精密工程, 2019, 27(1): 201-210. |
[21] |
ZHU Hui, QIN Pinle. U-Net pulmonary nodule detection algorithm based on multi-scale feature structure[J]. Computer Engineering, 2019, 45(4): 254-261. (in Chinese) 朱辉, 秦品乐. 基于多尺度特征结构的U-Net肺结节检测算法[J]. 计算机工程, 2019, 45(4): 254-261. |
[22] |
XIA Huyun, YE Xueyi, LUO Xiaohan, et al. Pedestrian detection using multi-scale principal component analysis network of spatial pyramid pooling[J]. Computer Engineering, 2019, 45(2): 270-277. (in Chinese) 夏胡云, 叶学义, 罗宵晗, 等. 多尺度空间金字塔池化PCANet的行人检测[J]. 计算机工程, 2019, 45(2): 270-277. |
[23] |
ZHAO Hengshuang, SHI Jianping, QI Xiaojuan, et al.Pyramid scene parsing network[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2017: 2881-2890.
|
[24] |
SZEGEDY C, VANHOUCKE V, IOFFE S, et al.Rethinking the inception architecture for computer vision[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2016: 2818-2826.
|
[25] |
SHI W Z, CABALLERO J, HUSZAR F, et al.Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA: IEEE Press, 2016: 1874-1883.
|
[26] |
BADRINARAYANAN V, KENDALL A, CIPOLLA R. SegNet:a deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481-2495. DOI:10.1109/TPAMI.2016.2644615 |
[27] |
LIN G S, MILAN A, SHEN C H, et al.RefineNet: multi-path refinement networks for high-resolution semantic segmentation[C]//Proceedings of 2017 IEEE conference on computer vision and pattern recognition.Washington D.C., USA: IEEE Press, 2017: 1925-1934.
|
[28] |
YU Changqian, WANG Jingbo, PENG Chao, et al.BiseNet: bilateral segmentation network for real-time semantic segmentation[C]//Proceedings of 2018 European Conference on Computer Vision.Berlin, Germany: Springer, 2018: 325-341.
|