2. 陕西科技大学 电气与控制工程学院, 西安 710021;
3. 西安工业大学 电子信息工程学院, 西安 710021
2. School of Electrical and Control Engineering, Shaanxi University of Science & Technology, Xi'an 710021, China;
3. School of Electronic Information Engineering, Xi'an Technological University, Xi'an 710021, China
随着人工智能技术的快速发展,智能化系统对人脸特征识别的性能要求日益提高。人脸面部表情在日常生活交流中扮演重要的角色[1-2],是人们在用非语言形式交流时传递情感信息和表达情绪的有效方式,蕴含丰富的情感资源。在早期人类面部表情研究中,文献[3]通过对面部肌肉运动与人类表情的关系进行研究,提出面部动作编码系统FACS,并根据不同的动作单元组合定义出开心、悲伤、生气、厌恶、恐惧和惊讶6种人类的基本表情[4]。后期的人类表情识别研究均是在6种基本表情基础上进行的[5-6],但这些基本表情仅是最基本的面部表现方式,不能涵盖人类所有的心理和情感。如疼痛虽然不属于上述6种基本的面部表现方式,但它也是人类表情的一种[7]。因此,利用人类面部肌肉运动信息进行疼痛识别是一种可行方案。
疼痛表情识别技术对于无法通过自然语言表达疼痛状态的特殊人群(如婴幼儿患者、痴呆病患与重症病人)的诊疗和护理具有重要的临床意义,该技术在医疗领域[8-10]中具有广阔的应用前景,已经逐渐成为研究的热点。文献[11]提出一种基于概率潜在语义分析(Probabilistic Latent Semantic Analysis,PLSA)模型的疼痛表情识别方法。该方法采用光流技术提取疼痛表情特征,利用词包模型将面部运动信息转换为视觉文字来表示疼痛表情,但是将PLSA模型用于表情识别时,样本数据的增加使得模型中的参数也呈线性增长,导致容易出现模型的过拟合问题。文献[12]提出一种基于监督型局部保留映射(Supervised Local Preserving Mapping,SLPP)和多核支持向量机(Multiple Kernels Support Vector Machines,MKSVM)的疼痛表情识别方法,采用SLPP算法提取疼痛表情特征,并利用MKSVM识别痛觉表情。文献[13]利用主动外观模型(Active Appearance Model,AAM)提取形状和外观特征,再用SVM识别疼痛表情。文献[14]在纹理描述子LBP的基础上,使用其变体新纹理描述符细长二元模式提取痛苦特征,并采用SVM对痛苦表情进行识别。上述方法都使用SVM对表情进行识别,但SVM通常用于二值分类问题,当用于表情多分类问题时,存在不能有效识别表情多样性的局限性。文献[15]提出一种基于局部二值体(Local Binary Volume,LBV)三维卷积层的卷积神经网络,将其用于时间图像序列的面部表情识别。虽然LBV三维卷积层的训练参数数量和传统三维卷积层相比较少,但是该方法仅直接在图像序列上执行表情识别,并未提取人脸面部特征,导致疼痛识别的准确率降低。贝叶斯网络(Bayesian Network,BN)利用概率图模型的方式能够清楚地表达分析对象的结构和机理关系,使得问题得以简化,具有一定的直观性和灵活性[16],这说明BN在描述和推理不确定性问题上具有一定的优势。针对表情识别模型建模精度较低以及表情状态的不确定性问题,采用BN进行表情分类是有效的途径之一。
本文提出一种融合约束局部神经域(Constrained Local Neural Field,CLNF)模型和BN模型的疼痛表情识别方法。利用CLNF模型对疼痛表情图像进行面部特征点定位,得到携带疼痛信息的面部活动单元(Action Unit,AU),对相关AU加标签处理得到样品数据集。通过对AU标签数据样本以及约束扩展参数集进行变权重融合,训练得到BN模型,再使用联合树推理算法进行推理,从而实现疼痛表情的有效识别。
1 基于CLNF模型的疼痛表情特征提取在构建表情识别模型过程中,先对获取的疼痛表情帧图像进行预处理,再进行表情特征提取。即对提取出感兴趣的面部表情区域图像去除冗余信息,利用CLNF模型对图像进行特征点定位。
1.1 人脸检测为提高表情的识别效果,采用V-J(Viola-Jones)算法对图像进行人脸检测。利用Harr-like特征表示人脸的共同特性,然后在积分图思想的基础上建立一种称为积分图像的特征,通过快速计算获取几种不同的矩形特征。利用AdaBoost算法对矩形特征进行选取,选出人类面部最具有代表性的特征,接着进行弱分类器的训练,并计算相应的权重,通过不断更新训练进行迭代,将弱分类器按照加权表决的方式进行组合后得到一个强分类器。接下来对数个强分类器进行串联,建立一个具有级联结构的层级分类器。
在对疼痛表情图像进行预处理时,可裁剪出感兴趣的面部区域,也能去除额外的背景信息。人脸疼痛表情检测流程如图 1所示,图中的表情帧图像来源于UNBC-McMaster Shoulder Pain数据库[17]。
|
Download:
|
| 图 1 人脸疼痛表情检测流程 Fig. 1 Procedure of face pain expression detection | |
CLNF模型是在约束局部模型(Constrained Local Model,CLM)基础上进行改进得到的,两者均使用相同的框架[18]。该模型通过对人脸的位置进行初始化,获取每张图像人脸的特征点,将特征点在其邻域位置内进行搜索匹配,实现人脸面部特征点的检测。检测过程主要包括模型构建和点拟合2个阶段。模型构建阶段又可分为点分布模型(Point Distribution Model,PDM)构建和Patch模型构建这2个构建步骤。PDM构建是基于非刚性形状和刚性全局变换参数对人脸特征点进行定位,而Patch模型构建则是对人脸上每一个特征点周围的图像块区域进行建模。
1)PDM模型构建。在对PDM模型进行构建时,其形状模型函数可用式(1)表示:
| $ \boldsymbol{x}=\overline{\boldsymbol{x}}+\boldsymbol{\varPhi }\boldsymbol{B} $ | (1) |
其中,
假设有m张图像,每张图像有n个特征点,每个特征点的坐标假设为
| $ \overline{\boldsymbol{x}}=\frac{1}{m}\sum \limits_{i=1}^{n\cdot m}{\boldsymbol{x}}^{i} $ | (2) |
利用每张表情图像上的特征点坐标组成的向量减去
| $ \boldsymbol{X}=\left[\begin{array}{ccccccc}{x}_{1}^{1}& {y}_{1}^{1}& {x}_{2}^{1}& {y}_{2}^{1}& ...& {x}_{n}^{1}& {y}_{n}^{1}\\ {x}_{1}^{2}& {y}_{1}^{2}& {x}_{2}^{2}& {y}_{2}^{2}& ...& {x}_{n}^{2}& {y}_{n}^{2}\\ ⋮& ⋮& ⋮& ⋮& & ⋮& ⋮\\ {x}_{1}^{m}& {y}_{1}^{m}& {x}_{2}^{m}& {y}_{2}^{m}& ...& {x}_{n}^{m}& {y}_{n}^{m}\end{array}\right] $ | (3) |
采用主成分分析(Principal Component Analysis,PCA)方法对
m维权重向量B决定图像中哪些特征点起关键作用,具体可通过式(4)得出:
| $ \boldsymbol{B}={\boldsymbol{\varPhi }}^{\mathrm{T}}(\boldsymbol{x}-\overline{\boldsymbol{x}}) $ | (4) |
因此,点分布模型可用式(5)表示:
| $ {\boldsymbol{x}}_{\boldsymbol{i}}=s\boldsymbol{R}(\overline{{\boldsymbol{x}}_{\boldsymbol{i}}}+{\boldsymbol{\varPhi }}_{i}\boldsymbol{B})+h $ | (5) |
其中:s、R、h分别用来表示缩放量、旋转矩阵和平移量,旋转矩阵R由旋转参数w控制;
2)Patch模型构建。在PDM模型构建完成后,可以对检测到的人脸图像进行初始化,得到人脸形状模型。接下来让每个点在其周围的邻域范围内进行最佳匹配特征点搜寻,对候选匹配点邻域位置内的图像块实现Patch建模。CLNF模型包括一个基于局部神经域(Local Neural Field,LNF)[19]的新型Patch模型。LNF是一种无向图模型,表示输入(感兴趣区域中的像素强度值)和输出结果(Patch排列概率)间的复杂非线性关系。图 2表示LNF的结构模型图,图中的实线表示顶点特征,用
|
Download:
|
| 图 2 LNF结构模型 Fig. 2 LNF structure model | |
LNF根据连续输入向量
| $ P\left(\boldsymbol{Y}\right|\boldsymbol{X})=\frac{\mathrm{e}\mathrm{x}\mathrm{p}\left(\varPsi \right)}{{\int }_{-\mathrm{\infty }}^{+\mathrm{\infty }}\mathrm{e}\mathrm{x}\mathrm{p}\left(\varPsi \right)\mathrm{d}y} $ | (6) |
| $ \begin{array}{l}\varPsi =\sum \limits_{i}\sum \limits_{k=1}^{{K}_{1}}{\alpha }_{k}{f}_{k}({\boldsymbol{y}}_{i}\ , \boldsymbol{x}, {\theta }_{k})+\sum \limits_{i, j}\sum \limits_{k=1}^{{K}_{2}}{\beta }_{k}{g}_{k}({\boldsymbol{y}}_{i}\ , {\boldsymbol{y}}_{j})+\\ \ \ \ \ \ \ \ \ \sum \limits_{i, j}\sum \limits_{k=1}^{{K}_{3}}{\gamma }_{k}{l}_{k}({\boldsymbol{y}}_{i}\ , {\boldsymbol{y}}_{j})\end{array} $ | (7) |
其中:
在势函数
利用V-J算法对人脸感兴趣面部区域进行检测后,采用CLNF模型对检测图像中的眼角、鼻尖、嘴唇、眉毛等某些面部特征点进行提取,并将其作为特征提取的关键点。基于以上描述,对疼痛表情图像关键特征点进行提取的具体步骤如下:
步骤1 先对给定图像进行检测,确定出该图像中是否存在人脸以及人脸的位置和大小。再按照如图 1所示的流程对图像进行预处理,去除部分不相关的信息,得到实验所需的面部区域图像。
步骤2 按照如图 3所示的关键特征点检测流程对裁取后的面部区域图像进行关键特征提取。
|
Download:
|
| 图 3 关键特征点检测流程 Fig. 3 Procedure of key feature point detection | |
1)在PDM模型的基础上得到形状模型,在表情图像上标记出关键特征点坐标,利用式(2)求取图像平均脸,并得到相应的形状变化矩阵。图 3所示表情(双唇紧闭时的表情有65个特征点,当为嘴巴张开或露出牙齿时的表情有68个特征点)的形状变化矩阵可由式(8)表示,再进一步得到形状变化主成分构成的矩阵以及对应的权重系数。
| $ \boldsymbol{X}=\left[\begin{array}{ccccccc}{x}_{1}^{1}& {y}_{1}^{1}& {x}_{2}^{1}& {y}_{2}^{1}& ...& {x}_{65}^{1}& {y}_{65}^{1}\\ {x}_{1}^{2}& {y}_{1}^{2}& {x}_{2}^{2}& {y}_{2}^{2}& ...& {x}_{65}^{2}& {y}_{65}^{2}\\ ⋮& ⋮& ⋮& ⋮& & ⋮& ⋮\\ {x}_{1}^{m}& {y}_{1}^{m}& {x}_{2}^{m}& {y}_{2}^{m}& ...& {x}_{65}^{m}& {y}_{65}^{m}\end{array}\right] $ | (8) |
2)在表情图像上标定特征点之后,接下来在每个特征点的周围区域实现Patch建模,以获取面部纹理特征。在已建立的LNF Patch模型基础上,完成最佳匹配点的搜寻,经过对Patch模型可能区域输入量与输出量之间非线性关系的分析,得到提取特征点更详尽的面部信息,进而更快速精准地定位关键特征点。
3)利用线性逻辑回归的方法进行拟合优化,实现面部特征关键点的提取。
1.2.3 疼痛表情相关AU的获取由面部特征提取的关键点可进一步获取与疼痛表情相关的AU。其中可能与疼痛有关的信息集中[20]在以下11个AU上:AU4(眉毛降低)、AU6(脸颊升高)、AU7(眼角收紧)、AU9(鼻子褶皱)、AU10(上唇升高)、AU12(唇角拉伸)、AU20(嘴唇水平伸展)、AU25(双唇分开)、AU26(下巴下垂)、AU27(嘴巴张开)、AU43(闭起眼睛)。文献[21]于1992年开始发现并证实了AU4、AU6、AU7、AU9、AU10、AU43这6个动作单元携带了大量关于疼痛的信息,并定义了普卡钦所罗门疼痛强度(Prkachin and Soloman Pain Intensity,PSPI)度量公式,通过评估每个AU的疼痛强度并对这些AU进行求和,以得到疼痛PSPI强度值。PSPI度量表达式如式(9)所示:
| $ \begin{array}{l}\mathrm{P}\mathrm{S}\mathrm{P}{\mathrm{I}}_{\mathrm{p}\mathrm{a}\mathrm{i}\mathrm{n}}=\mathrm{A}\mathrm{U}4+\mathrm{m}\mathrm{a}\mathrm{x}(\mathrm{A}\mathrm{U}6,\mathrm{A}\mathrm{U}7)+\\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \mathrm{m}\mathrm{a}\mathrm{x}(\mathrm{A}\mathrm{U}9,\mathrm{A}\mathrm{U}10)+\mathrm{A}\mathrm{U}43\end{array} $ | (9) |
其中,除了AU43仅有不发生为0和发生为1这2个评估值之外,其他AU都有0~5这6个强度评估值,且求和式中的AU6和AU7、AU9和AU10是分别取这两组AU动作中的疼痛程度最大值,因此PSPI值的评估范围为0~16。
图 4展示了携带大量疼痛信息的6个AU在人脸面部的表现情况。
|
Download:
|
| 图 4 6个不同的疼痛AUs在面部上的表现情况 Fig. 4 Expression of six different pain AUs on the face | |
每种PSPI状态值可用6个AU在不同强度评估值下的组合来表现,当PSPI值分别为1、2、4、6时,AU强度评估值的组合情况如表 1~表 4所示。当PSPI值为其他状态值时,AU评估值的组合情况与表 1类似。
|
下载CSV 表 1 PSPI=1时AU评估值组合情况 Table 1 Combination of AU evaluation values when PSPI=1 |
|
下载CSV 表 2 PSPI=2时AU评估值组合情况 Table 2 Combination of AU evaluation values when PSPI=2 |
|
下载CSV 表 3 PSPI=4时AU评估值组合情况 Table 3 Combination of AU evaluation values when PSPI=4 |
|
下载CSV 表 4 PSPI=6时AU评估值组合情况 Table 4 Combination of AU evaluation values when PSPI=6 |
BN可定义为一个有向无环图(Directed Acyclic Graph,DAG)与一个条件概率表(Conditional Probability Tables,CPTs)构成的集合。其中,DAG中的每个节点都表示一个随机变量,而有向边可用来描述变量间的条件依赖关系。CPTs可由DAG中每个节点事件发生与否的概率来获得,表中的每个元素都与DAG中唯一的节点对于其所有直接父节点的联合条件概率相对应,CPT中的概率值表示变量间条件关系的强弱。贝叶斯网络包括学习模块和推理模块两大模块,而学习模块又包含结构学习和参数学习。结构学习是指找到与实际问题最匹配的BN结构,即发现这些变量之间的关系。参数学习是指在结构学习完成的前提条件下,确定BN模型中每个网络节点的CPT,参数学习决定了节点变量间的具体量化关系。
2.1.1 贝叶斯网络结构构建在疼痛表情识别中,由于表情状态的不确定性、涉及到的相关疼痛AU状态的不确定性以及表情与AU之间概率关系强弱的不确定性的影响,本文选择利用具有较强的处理不确定性问题能力的概率图模型BN来完成疼痛表情的建模推理。
图 5所示为构建的疼痛表情识别BN模型。其中,Pain Expression节点表示表情疼痛程度PSPI状态,每个AU节点表示的是可能当某种疼痛表情发生时的相关活动单元强度评估值状态。子节点中除了AU43节点有2种状态之外,其余AU节点均有6种状态,Pain Expression节点按照疼痛PSPI计算值有17种状态,可以将最终的表情疼痛程度划分为以下4种状态:不痛(PSPI=0)、微弱疼痛(PSPI=1~5)、中度疼痛(PSPI=6~10)、强烈疼痛(PSPI=11~16)。
|
Download:
|
| 图 5 疼痛表情识别BN模型 Fig. 5 BN model for pain expression recognition | |
不同的疼痛表情状态可用多种不同的AU强度评估值组合表示,AU组合表示形式如表 5所示。
|
下载CSV 表 5 不同疼痛表情状态的AU评估值组合 Table 5 Combination of AU evaluation values of different pain expression states |
BN模型的参数估计可用式(10)表示:
| $ {\theta }_{ijk}=P({\boldsymbol{X}}_{i}=k|{P}_{a}\left({\boldsymbol{X}}_{i}\right)=j) $ | (10) |
其中,
在样本数据充足的情况下,通常采用最大似然估计(Maximal Likelihood Estimate,MLE)方法[22]学习BN参数。在实际应用中,用式(11)估计每个参数的最大似然估计:
| $ {\theta }_{ijk}^{\mathrm{*}}=\frac{{N}_{ijk}+\eta }{{N}_{ij}+c\eta } $ | (11) |
其中,
基于变权重融合进行参数学习的基本思想是根据数据的变化情况,不断调整参数估计中各学习数据集的权重系数,最终加权融合确定出参数估算结果。基于加权融合的参数学习问题可以转化为如式(12)、式(13)的问题。
| $ \mathrm{m}\mathrm{i}{\mathrm{n}}_{KL}\theta =\sum \limits_{i}{\omega }_{i}\left(t\right)\cdot {\theta }_{ijk}\left({\omega }_{i}\right(t\left)\right) $ | (12) |
| $ \mathrm{s}.\mathrm{t}.\left\{\begin{array}{l}0\le {\omega }_{i}\left(t\right)\le 1, i=\mathrm{1, 2}, \cdots , d;t=\mathrm{1, 2}, \cdots , T\\ \begin{array}{l}\sum \limits_{i}{\omega }_{i}\left(t\right)=1\\ {\theta }_{ijk}\left({\omega }_{i}\right(t\left)\right)\ge 0\end{array}\end{array}\right. $ | (13) |
其中,
由文献[23]可知BN参数估算如式(14)所示:
| $ \theta =\left(1-\omega \right)\cdot {\theta }_{\mathrm{p}\mathrm{r}\mathrm{i}\mathrm{o}\mathrm{r}}+\omega \cdot {\theta }_{\mathrm{d}\mathrm{a}\mathrm{t}\mathrm{a}} $ | (14) |
其中,
本文选择基于变权重融合的方法进行BN参数学习,可以通过先计算样本数据和约束扩展参数集的权重,再求出加权融合后的参数估算值。随着数据量的变化,权重可以作出相应的调整,因此能够获得更好的学习效果。
2.2 基于BN建模的疼痛表情识别根据BN结构模型中Pain Expression节点状态与AU节点状态的关系,并结合领域专家的经验可获取以下类似的约束:P(AU43=0|PSPI=1) > P(AU43=1|PSPI=1)。该含义为在表情疼痛程度PSPI=1的条件下,AU43强度评估值为0的概率大于其强度评估值为1的概率。将该约束条件引入BN参数学习机制,并通过改变权重加权的方式与样本数据融合进行参数学习,从而缩小寻优空间,并提高参数估算的精度。
基于以上分析,利用BN建模方法进行疼痛表情识别的具体步骤为:
步骤1 根据上文得到疼痛表情识别所需的关键特征点,将携带大量疼痛信息的AU特征点经过加标签(疼痛强度评估值)后构成样本数据集D。
步骤2 判断贝叶斯网络是否已构建结构模型,若已构建,则继续后续步骤;否则根据2.1.1节描述构建疼痛表情识别贝叶斯网络模型。
步骤3 完成贝叶斯网络参数建模。
1)根据样本数据集D统计
2)结合领域专家经验确定出约束集合
3)利用贝叶斯网络变权重参数计算方法式(15)进行加权融合,并计算得出参数学习结果。
| $ \theta =\frac{\omega {\theta }_{ijk}^{\mathrm{*}}\left(s\right)+\left(\left.1-\omega \right)\right.\sum \limits_{i=1}^{Q}{\theta }_{ijk}\left(\varOmega \right)}{Q+1} $ | (15) |
其中,变权重因子函数为
步骤4 利用联合树推理方法进行贝叶斯网络推理,得出面部疼痛表情PSPI状态值,判别表情疼痛程度属于不痛、微弱疼痛、中度疼痛、强烈疼痛4种状态的哪种状态,即得到最终疼痛表情识别结果。
3 实验条件与结果 3.1 实验条件设置实验使用UNBC-McMaster Shoulder Pain数据库[17],该数据库公开数据包含25位志愿者的200个视频序列,视频分辨率为320
为了验证CLNF模型与BN建模方法相结合后的识别疼痛表情性能,实验选取4 000幅图像样本作为训练集,并分为10组,每组包含400幅图像,依次分别进行10次训练实验。在剩下的图像样本中随机选取1 000张图像作为测试集,并将判别每种疼痛表情类型时的概率置信度取0.7。
3.2 实验结果分析根据本文所提方法获取实验所需的疼痛表情AU状态样本集,结合领域专家经验确定出约束集合
|
下载CSV 表 6 AU43节点状态参数的约束集合 Table 6 Constraint sets of AU43 node state parameter |
采用本文方法对不同等级的疼痛表情进行识别,结果如表 7所示。从表 7可以看出,本文方法对不同级别的疼痛表情识别率均在85%以上,说明本文方法可有效对疼痛表情进行识别。
|
下载CSV 表 7 本文方法对不同疼痛表情类型的识别率 Table 7 Recognition rate of different pain expression types by the proposed method |
为验证本文方法的有效性,实验对本文方法与PLSA模型[11]、SLPP+MKSVM[12]、AAM+SVM[13]、ELBP+SVM[14]、LBVCNN[15]的平均识别率进行对比,结果如表 8所示。从表 8可以看出,与其他5种方法相比,本文方法可显著提高疼痛表情识别率。这是因为本文方法通过CLNF模型有效提取疼痛表情特征,再利用相关AU进行BN建模更能有效描述出表情的状态,并充分利用建模参数间的约束关系与样本数据集进行变权重融合参数学习,缩小参数寻优空间,从而提高识别率并使得分类更加明确。
|
下载CSV 表 8 6种方法的平均识别率对比 Table 8 Comparison of average recognition rate of six methods |
为了进一步验证本文方法的性能,实验对不同方法的运行时间进行对比,结果如图 6所示。从图 6可以看出,本文方法的运行速度比其他5种方法快。
|
Download:
|
| 图 6 6种方法的运行时间对比 Fig. 6 Comparison of running time of six methods | |
除此之外,实验还引入了皮尔逊相关系数(Pearson Correlation Coefficient,PCC)与平均绝对误差(Mean Absolute Error,MAE)2个评价指标对不同方法进行对比分析。PCC是对不同变量间的相关程度进行衡量,计算方法如式(16)所示:
| $ \mathrm{P}\mathrm{C}\mathrm{C}=\frac{\sum \limits_{i=1}^{n}({\widehat{\boldsymbol{y}}}_{i}-\stackrel{-}{\widehat{\boldsymbol{y}}})({\boldsymbol{y}}_{i}-\stackrel{-}{\boldsymbol{y}})}{\sqrt{\sum \limits_{i=1}^{n}({\widehat{\boldsymbol{y}}}_{i}{-\stackrel{-}{\widehat{\boldsymbol{y}}})}^{2}}\sqrt{\sum \limits_{i=1}^{n}({\boldsymbol{y}}_{i}{-\stackrel{-}{\boldsymbol{y}})}^{2}}} $ | (16) |
其中,
MAE是对预测值与实际值之间绝对误差的平均值进行衡量,计算方法如式(17)所示,且MAE的取值范围为0
| $ \mathrm{M}\mathrm{A}\mathrm{E}=\frac{1}{n}\sum \limits_{i=1}^{n}\left|{\widehat{\boldsymbol{y}}}_{i}-{\boldsymbol{y}}_{i}\right| $ | (17) |
表 9给出了6种方法的PCC与MAE对比结果。从中可以看出,本文方法的PCC取值较大,而MAE取值较低,这说明该方法可以准确地得出疼痛表情的识别结果。
|
下载CSV 表 9 6种方法的PCC和MAE对比 Table 9 Comparison of PCC and MAE of six methods |
通过数据库上的实验结果以及与其他方法的对比结果可知,本文方法具有一定的应用价值,但是通过BN进行建模分类存在计算较为复杂的局限性。在实验过程中,本文未考虑部分个体特征如不同人的脸型以及相邻疼痛强度之间的差异对识别结果造成的影响,而这些均可作为辅助判断疼痛表情的依据。
4 结束语针对在疼痛表情识别过程中,用于建模的有效疼痛特征样本数量较少的问题,本文将CLNF模型与BN模型相结合,提出一种疼痛表情识别方法。由约束局部神经域方法获取疼痛表情关键特征点,再进一步得到AU标签样本集以及BN条件概率之间的约束集合。利用变权重融合方法进行BN模型参数估算,通过BN推理实现疼痛表情的识别。在UNBC-McMaster Shoulder Pain数据库上的实验结果表明,该方法可有效提高疼痛表情识别准确性与分类效率。下一步将通过研究相同表情下的不同人脸面部形状,以及相邻疼痛强度水平差异对疼痛表情识别准确性的影响,以得到鲁棒性更强的识别模型。
| [1] |
HUANG Jian, LI Wenshu, GAO Yujuan. Research advance of facial expression recognition[J]. Computer Science, 2016, 43(z2): 123-126. (in Chinese) 黄建, 李文书, 高玉娟. 人脸表情识别研究进展[J]. 计算机科学, 2016, 43(z2): 123-126. |
| [2] |
DIAO Ying, ZHOU Fangfang, YANG Bin. Research on facial action model for human-like Agent[J]. Computer Engineering, 2012, 38(1): 157-159, 162. (in Chinese) 赵颖, 周芳芳, 杨斌. 拟人Agent面部运动模型研究[J]. 计算机工程, 2012, 38(1): 157-159, 162. |
| [3] |
EKMAN P, FRIESEN W V. Facial Action Coding System(FACS): a technique for the measurement of facial action[J]. Rivista Di Psichiatria, 1978, 47(2): 126-138. |
| [4] |
PENG Jinye, YANG Ruijing, FENG Xiaoyi, et al. Survey on facial expression recognition of pain[J]. Journal of Data Acquisition and Processing, 2016, 31(1): 43-55. (in Chinese) 彭进业, 杨瑞靖, 冯晓毅, 等. 人脸疼痛表情识别综述[J]. 数据采集与处理, 2016, 31(1): 43-55. |
| [5] |
WANG Jun, ZHAO Kai, CHENG Yong. Facial expression recognition based on convolutional neural network with occlusion perception[J/OL]. Computer Engineering: 1-11[2020-08-07]. https://doi.org/10.19678/j.issn.1000-3428.0059166. (in Chinese) 王军, 赵凯, 程勇. 基于遮挡感知卷积神经网络的面部表情识别方法[J/OL]. 计算机工程: 1-11[2020-08-07]. https://doi.org/10.19678/j.issn.1000-3428.0059166. |
| [6] |
WANG Zhongmin, LI Hena, ZHANG Rong, et al. Fusing convolutional neural network and support vector machine for expression recognition[J]. Computer Engineering and Design, 2019, 40(12): 3594-3600. (in Chinese) 王忠民, 李和娜, 张荣, 等. 融合卷积神经网络与支持向量机的表情识别[J]. 计算机工程与设计, 2019, 40(12): 3594-3600. |
| [7] |
ZHU Jinduo. Neonatal pain expression recognition based on deep learning[D]. Nanjing: Nanjing University of Posts and Telecommunications, 2018. (in Chinese) 朱金朵. 基于深度学习的新生儿疼痛表情识别[D]. 南京: 南京邮电大学, 2018. |
| [8] |
ZHANG Liying, SHEN Shijie, QU Ziwen, et al. Intelligent monitoring system based on pain expression recognition[J]. Foreign Electronic Measurement Technology, 2020, 39(3): 148-151. (in Chinese) 张丽英, 沈诗婕, 瞿子文, 等. 基于痛苦表情识别的智能医疗监护系统[J]. 国外电子测量技术, 2020, 39(3): 148-151. |
| [9] |
PENG Xianlin, HUANG Dong, ZHANG Haixi. Pain intensity recognition via multi-scale deep network[J]. IET Image Processing, 2020, 14(8): 1645-1652. DOI:10.1049/iet-ipr.2019.1448 |
| [10] |
WANG S, CHRISTOPHER E, EDMUND K. The time course of facial expression recognition using spatial frequency information: comparing pain and core emotions[J/OL]. The Journal of Pain: 1-13[2020-08-07]. https://doi.org/10.1016/j.jpain.2020.07.004.
|
| [11] |
ZHU Shaoping. Pain expression recognition based on PLSA model[J]. The Scientific World Journal, 2014, 2014: 1-8. |
| [12] |
ZHANG Wei, HUANG Wei, XIA Liaoming, et al. Pain expression recognition based on SLPP and MKSVM[J]. International Journal of Engineering and Manufacturing, 2011, 1(3): 69-74. DOI:10.5815/ijem.2011.03.11 |
| [13] |
ASHRAF A B, LUCEY S, COHN J, et al. The painful face-pain expression recognition using active appearance models[J]. Image Vision Computing, 2009, 27(12): 1788-1796. DOI:10.1016/j.imavis.2009.05.007 |
| [14] |
NANNI L, BRAHNAM S, LUMINI A. A local approach based on a local binary patterns variant texture descriptor for classifying pain states[J]. Expert Systems with Applications, 2010, 37(12): 7888-7894. DOI:10.1016/j.eswa.2010.04.048 |
| [15] |
KUMAWAT S, VERMA M, RAMAN S. LBVCNN: local binary volume convolutional neural network for facial expression recognition from image sequences[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Washington D.C., USA: IEEE Press, 2019: 207-216.
|
| [16] |
GUO Wenqiang, GAO Wenqiang, XIAO Qinkun, et al. Facial expression recognition with small data sets based by Bayesian network modeling[J]. Science Technology and Engineering, 2018, 18(35): 179-183. (in Chinese) 郭文强, 高文强, 肖秦琨, 等. 基于小数据集下贝叶斯网络建模的面部表情识别[J]. 科学技术与工程, 2018, 18(35): 179-183. DOI:10.3969/j.issn.1671-1815.2018.35.030 |
| [17] |
LUCEY P, COHN J F, PRKACHIN K M, et al. Painful data: the UNBC-McMaster shoulder pain expression archive database[C]//Proceedings of the 9th IEEE International Conference on Automatic Face and Gesture Recognition and Workshops. Washington D.C., USA: IEEE Computer Society, 2011: 57-64.
|
| [18] |
CZUPRYSKI B, STRUPCZEWSKI A. High accuracy head pose tracking survey[C]//Proceedings of International Conference on Active Media Technology. Berlin, Germany: Springer, 2014: 407-420.
|
| [19] |
SUN Jinna, YUAN Mingting, DING Junhang, et al. Application of constrained local neural fields in face recognition[J]. Journal of Qingdao University(Engineering & Technology Edition), 2018, 33(2): 47-52. (in Chinese) 孙金娜, 原明亭, 丁军航, 等. CLNF在人脸识别中的应用研究[J]. 青岛大学学报(工程技术版), 2018, 33(2): 47-52. |
| [20] |
LUCEY P, COHN J, LUCEY S, et al. Painful monitoring: automatic pain monitoring using the UNBC-McMaster shoulder pain expression archive database[J]. Image and Vision Computing, 2012, 30(3): 197-205. DOI:10.1016/j.imavis.2011.12.003 |
| [21] |
PRKACHIN K M, SOLOMON P E. The structure reliability and validity of pain expression: evidence from patients with shoulder pain[J]. Pain, 2008, 139(2): 267-274. DOI:10.1016/j.pain.2008.04.010 |
| [22] |
CAO Rusheng, NI Shihong, ZHANG Peng, et al. EM parameter learning algorithm of Bayesian network based on cloud model[J]. Computer Science, 2016, 43(8): 194-198. (in Chinese) 曹如胜, 倪世红, 张鹏, 等. 一种基于云模型的贝叶斯网络EM参数学习算法[J]. 计算机科学, 2016, 43(8): 194-198. |
| [23] |
PÉREZ-BERNABÉ I, FERNÁNDEZ A, RUMÍ R, et al. Parameter learning in hybrid Bayesian networks using prior knowledge[J]. Data Mining & Knowledge Discovery, 2016, 30(3): 576-604. DOI:10.1007/s10618-015-0429-7 |
| [24] |
GUO Wenqiang, LI Ran, HOU Yongyan, et al. Extension parameters learning for BN based on constraints and maximum entropy model[J]. Application Research of Computers, 2019, 36(2): 390-394. (in Chinese) 郭文强, 李然, 侯勇严, 等. 约束条件下BN参数最大熵模型扩展学习算法[J]. 计算机应用研究, 2019, 36(2): 390-394. |
2021, Vol. 47
