«上一篇 下一篇»
  计算机工程  2021, Vol. 47 Issue (4): 298-305, 312  DOI: 10.19678/j.issn.1000-3428.0059766
0

引用本文  

郭文强, 李梦然, 侯勇严, 等. 基于CLNF与BN模型的疼痛表情识别方法[J]. 计算机工程, 2021, 47(4), 298-305, 312. DOI: 10.19678/j.issn.1000-3428.0059766.
GUO Wenqiang, LI Mengran, HOU Yongyan, et al. Pain Expression Recognition Method Based on CLNF Model and BN Model[J]. Computer Engineering, 2021, 47(4), 298-305, 312. DOI: 10.19678/j.issn.1000-3428.0059766.

基金项目

国家自然科学基金(61271362,62071366);陕西省科技厅重点研发计划(2020SF-286);陕西省教育厅产业化研究项目(18JC003);西安市科技计划(2019216514GXRC001CG002GXYD1.1)

作者简介

郭文强(1971-), 男, 副教授、博士, 主研方向为人工智能、模式识别;
李梦然, 硕士研究生;
侯勇严, 副教授、博士;
肖秦琨, 教授、博士

文章历史

收稿日期:2020-10-20
修回日期:2020-11-27
基于CLNF与BN模型的疼痛表情识别方法
郭文强1 , 李梦然2 , 侯勇严2 , 肖秦琨3     
1. 陕西科技大学 电子信息与人工智能学院, 西安 710021;
2. 陕西科技大学 电气与控制工程学院, 西安 710021;
3. 西安工业大学 电子信息工程学院, 西安 710021
摘要:为提高疼痛表情的识别准确性,将约束局部神经域(CLNF)模型和贝叶斯网络(BN)模型相结合,提出一种疼痛表情识别方法。利用CLNF模型获取疼痛表情的关键特征点,在此基础上得到携带大量疼痛信息的面部活动单元(AU),通过对AU加标签处理得到样本数据集。根据定性专家经验获取BN条件概率之间的约束集合,采用变权重方法将样本数据集与约束扩展参数集相融合以完成BN模型的参数估算,并通过BN推理方法实现疼痛表情的最终识别。实验结果表明,与概率潜在语义分析、局部二值体卷积神经网络等方法相比,该方法可有效提高疼痛表情的识别性能,具有更高的识别精度。
关键词疼痛表情识别    约束局部神经域模型    活动单元    贝叶斯网络模型    变权重融合    参数估算    
Pain Expression Recognition Method Based on CLNF Model and BN Model
GUO Wenqiang1 , LI Mengran2 , HOU Yongyan2 , XIAO Qinkun3     
1. School of Electronic Information and Artificial Intelligence, Shaanxi University of Science & Technology, Xi'an 710021, China;
2. School of Electrical and Control Engineering, Shaanxi University of Science & Technology, Xi'an 710021, China;
3. School of Electronic Information Engineering, Xi'an Technological University, Xi'an 710021, China
Abstract: In order to improve the accuracy of pain expression recognition, this paper proposes a pain expression recognition method that combines the Constrained Local Neural Field(CLNF) model with the Bayesian Network(BN) model.The CLNF model is used to obtain the key feature points of pain expressions and on this basis acquire the facial Activity Unit(AU) with a large amount of pain information.By labeling the AU, the sample data set is obtained.Then the constraint set between BN conditional probabilities is obtained according to the experience of qualitative experts.The variable weight method is used to fuse the sample data set with the constraint extended parameter set to complete the parameter estimation of the BN model, and the BN reasoning method is used to realize the final recognition of pain expression.Experimental results show that compared with Probabilistic Latent Semantic Analysis(PLSA), Local Binary Volume Convolution Neural Network(LBVCNN) and other methods, this method can effectively improve the recognition performance of pain expressions and has higher recognition accuracy.
Key words: pain expression recognition    Constrained Local Neural Field (CLNF) model    Activity Unit (AU)    Bayesian Network(BN) model    variable weight fusion    parameter estimation    
0 概述

随着人工智能技术的快速发展,智能化系统对人脸特征识别的性能要求日益提高。人脸面部表情在日常生活交流中扮演重要的角色[1-2],是人们在用非语言形式交流时传递情感信息和表达情绪的有效方式,蕴含丰富的情感资源。在早期人类面部表情研究中,文献[3]通过对面部肌肉运动与人类表情的关系进行研究,提出面部动作编码系统FACS,并根据不同的动作单元组合定义出开心、悲伤、生气、厌恶、恐惧和惊讶6种人类的基本表情[4]。后期的人类表情识别研究均是在6种基本表情基础上进行的[5-6],但这些基本表情仅是最基本的面部表现方式,不能涵盖人类所有的心理和情感。如疼痛虽然不属于上述6种基本的面部表现方式,但它也是人类表情的一种[7]。因此,利用人类面部肌肉运动信息进行疼痛识别是一种可行方案。

疼痛表情识别技术对于无法通过自然语言表达疼痛状态的特殊人群(如婴幼儿患者、痴呆病患与重症病人)的诊疗和护理具有重要的临床意义,该技术在医疗领域[8-10]中具有广阔的应用前景,已经逐渐成为研究的热点。文献[11]提出一种基于概率潜在语义分析(Probabilistic Latent Semantic Analysis,PLSA)模型的疼痛表情识别方法。该方法采用光流技术提取疼痛表情特征,利用词包模型将面部运动信息转换为视觉文字来表示疼痛表情,但是将PLSA模型用于表情识别时,样本数据的增加使得模型中的参数也呈线性增长,导致容易出现模型的过拟合问题。文献[12]提出一种基于监督型局部保留映射(Supervised Local Preserving Mapping,SLPP)和多核支持向量机(Multiple Kernels Support Vector Machines,MKSVM)的疼痛表情识别方法,采用SLPP算法提取疼痛表情特征,并利用MKSVM识别痛觉表情。文献[13]利用主动外观模型(Active Appearance Model,AAM)提取形状和外观特征,再用SVM识别疼痛表情。文献[14]在纹理描述子LBP的基础上,使用其变体新纹理描述符细长二元模式提取痛苦特征,并采用SVM对痛苦表情进行识别。上述方法都使用SVM对表情进行识别,但SVM通常用于二值分类问题,当用于表情多分类问题时,存在不能有效识别表情多样性的局限性。文献[15]提出一种基于局部二值体(Local Binary Volume,LBV)三维卷积层的卷积神经网络,将其用于时间图像序列的面部表情识别。虽然LBV三维卷积层的训练参数数量和传统三维卷积层相比较少,但是该方法仅直接在图像序列上执行表情识别,并未提取人脸面部特征,导致疼痛识别的准确率降低。贝叶斯网络(Bayesian Network,BN)利用概率图模型的方式能够清楚地表达分析对象的结构和机理关系,使得问题得以简化,具有一定的直观性和灵活性[16],这说明BN在描述和推理不确定性问题上具有一定的优势。针对表情识别模型建模精度较低以及表情状态的不确定性问题,采用BN进行表情分类是有效的途径之一。

本文提出一种融合约束局部神经域(Constrained Local Neural Field,CLNF)模型和BN模型的疼痛表情识别方法。利用CLNF模型对疼痛表情图像进行面部特征点定位,得到携带疼痛信息的面部活动单元(Action Unit,AU),对相关AU加标签处理得到样品数据集。通过对AU标签数据样本以及约束扩展参数集进行变权重融合,训练得到BN模型,再使用联合树推理算法进行推理,从而实现疼痛表情的有效识别。

1 基于CLNF模型的疼痛表情特征提取

在构建表情识别模型过程中,先对获取的疼痛表情帧图像进行预处理,再进行表情特征提取。即对提取出感兴趣的面部表情区域图像去除冗余信息,利用CLNF模型对图像进行特征点定位。

1.1 人脸检测

为提高表情的识别效果,采用V-J(Viola-Jones)算法对图像进行人脸检测。利用Harr-like特征表示人脸的共同特性,然后在积分图思想的基础上建立一种称为积分图像的特征,通过快速计算获取几种不同的矩形特征。利用AdaBoost算法对矩形特征进行选取,选出人类面部最具有代表性的特征,接着进行弱分类器的训练,并计算相应的权重,通过不断更新训练进行迭代,将弱分类器按照加权表决的方式进行组合后得到一个强分类器。接下来对数个强分类器进行串联,建立一个具有级联结构的层级分类器。

在对疼痛表情图像进行预处理时,可裁剪出感兴趣的面部区域,也能去除额外的背景信息。人脸疼痛表情检测流程如图 1所示,图中的表情帧图像来源于UNBC-McMaster Shoulder Pain数据库[17]

Download:
图 1 人脸疼痛表情检测流程 Fig. 1 Procedure of face pain expression detection
1.2 特征提取 1.2.1 CLNF模型

CLNF模型是在约束局部模型(Constrained Local Model,CLM)基础上进行改进得到的,两者均使用相同的框架[18]。该模型通过对人脸的位置进行初始化,获取每张图像人脸的特征点,将特征点在其邻域位置内进行搜索匹配,实现人脸面部特征点的检测。检测过程主要包括模型构建和点拟合2个阶段。模型构建阶段又可分为点分布模型(Point Distribution Model,PDM)构建和Patch模型构建这2个构建步骤。PDM构建是基于非刚性形状和刚性全局变换参数对人脸特征点进行定位,而Patch模型构建则是对人脸上每一个特征点周围的图像块区域进行建模。

1)PDM模型构建。在对PDM模型进行构建时,其形状模型函数可用式(1)表示:

$ \boldsymbol{x}=\overline{\boldsymbol{x}}+\boldsymbol{\varPhi }\boldsymbol{B} $ (1)

其中,$ \overline{\boldsymbol{x}} $表示人脸表情图像的平均值,$ \boldsymbol{\varPhi } $表示形状变化主成分构成的矩阵,B表示对应的形状变化主成分权重。

假设有m张图像,每张图像有n个特征点,每个特征点的坐标假设为$ ({x}_{i}, {y}_{i}) $,每张图像上的n个特征点坐标组成的向量用$ \boldsymbol{x}={\left[\begin{array}{ccccccc}{x}_{1}& {y}_{1}& {x}_{2}& {y}_{2}& \dots & {x}_{n}& {y}_{n}\end{array}\right]}^{\mathrm{T}} $表示,则所有图像的人脸表情平均值可用式(2)进行求解。

$ \overline{\boldsymbol{x}}=\frac{1}{m}\sum \limits_{i=1}^{n\cdot m}{\boldsymbol{x}}^{i} $ (2)

利用每张表情图像上的特征点坐标组成的向量减去$ \overline{\boldsymbol{x}} $,可得到相对于图像人脸表情平均值的偏差,即可得到相应的形状变化零均值矩阵X

$ \boldsymbol{X}=\left[\begin{array}{ccccccc}{x}_{1}^{1}& {y}_{1}^{1}& {x}_{2}^{1}& {y}_{2}^{1}& ...& {x}_{n}^{1}& {y}_{n}^{1}\\ {x}_{1}^{2}& {y}_{1}^{2}& {x}_{2}^{2}& {y}_{2}^{2}& ...& {x}_{n}^{2}& {y}_{n}^{2}\\ ⋮& ⋮& ⋮& ⋮& & ⋮& ⋮\\ {x}_{1}^{m}& {y}_{1}^{m}& {x}_{2}^{m}& {y}_{2}^{m}& ...& {x}_{n}^{m}& {y}_{n}^{m}\end{array}\right] $ (3)

采用主成分分析(Principal Component Analysis,PCA)方法对$ \boldsymbol{X}\bf{与}\boldsymbol{X}\boldsymbol{\text{'}} $进行分析,获取形状变化的决定性成分,即特征向量$ {\boldsymbol{\varPhi }}_{j} $及对应的特征值$ {\lambda }_{j} $。将特征值按大小顺序进行排序,选取其中最大的q个特征值,将其对应的特征向量按照列排放方式进行组合,得到的矩阵$ \boldsymbol{\varPhi } $作为所有样本变换的基,其可对每个样本的任意变换进行表述。

m维权重向量B决定图像中哪些特征点起关键作用,具体可通过式(4)得出:

$ \boldsymbol{B}={\boldsymbol{\varPhi }}^{\mathrm{T}}(\boldsymbol{x}-\overline{\boldsymbol{x}}) $ (4)

因此,点分布模型可用式(5)表示:

$ {\boldsymbol{x}}_{\boldsymbol{i}}=s\boldsymbol{R}(\overline{{\boldsymbol{x}}_{\boldsymbol{i}}}+{\boldsymbol{\varPhi }}_{i}\boldsymbol{B})+h $ (5)

其中:sRh分别用来表示缩放量、旋转矩阵和平移量,旋转矩阵R由旋转参数w控制;$ \overline{{\boldsymbol{x}}_{i}} $表示人脸表情图像的平均值,$ {\boldsymbol{\varPhi }}_{i} $为形状变化主成分矩阵,B为对应的权重向量,其主要针对非刚性形状参数而变化。整个点分布模型的形状可用P={swhB}描述。

2)Patch模型构建。在PDM模型构建完成后,可以对检测到的人脸图像进行初始化,得到人脸形状模型。接下来让每个点在其周围的邻域范围内进行最佳匹配特征点搜寻,对候选匹配点邻域位置内的图像块实现Patch建模。CLNF模型包括一个基于局部神经域(Local Neural Field,LNF)[19]的新型Patch模型。LNF是一种无向图模型,表示输入(感兴趣区域中的像素强度值)和输出结果(Patch排列概率)间的复杂非线性关系。图 2表示LNF的结构模型图,图中的实线表示顶点特征,用$ {f}_{k} $表示。虚线表示边缘特征,用$ {g}_{k} $$ {l}_{k} $分别表示相似性和稀疏度。从输入向量$ {\boldsymbol{x}}_{i} $到相关输出向量$ {\boldsymbol{y}}_{i} $,中间通过顶点特征$ {f}_{k} $和神经层相连接。LNF的新型Patch模型通过学习输出向量的边缘特征情况进而获取输入像素(相邻和较远距离)间的关系。

Download:
图 2 LNF结构模型 Fig. 2 LNF structure model

LNF根据连续输入向量$ \boldsymbol{x} $对连续输出向量$ \boldsymbol{y} $的条件概率进行建模,模型满足条件概率分布[19],具体如下式所示:

$ P\left(\boldsymbol{Y}\right|\boldsymbol{X})=\frac{\mathrm{e}\mathrm{x}\mathrm{p}\left(\varPsi \right)}{{\int }_{-\mathrm{\infty }}^{+\mathrm{\infty }}\mathrm{e}\mathrm{x}\mathrm{p}\left(\varPsi \right)\mathrm{d}y} $ (6)
$ \begin{array}{l}\varPsi =\sum \limits_{i}\sum \limits_{k=1}^{{K}_{1}}{\alpha }_{k}{f}_{k}({\boldsymbol{y}}_{i}\ , \boldsymbol{x}, {\theta }_{k})+\sum \limits_{i, j}\sum \limits_{k=1}^{{K}_{2}}{\beta }_{k}{g}_{k}({\boldsymbol{y}}_{i}\ , {\boldsymbol{y}}_{j})+\\ \ \ \ \ \ \ \ \ \sum \limits_{i, j}\sum \limits_{k=1}^{{K}_{3}}{\gamma }_{k}{l}_{k}({\boldsymbol{y}}_{i}\ , {\boldsymbol{y}}_{j})\end{array} $ (7)

其中:$ \boldsymbol{X}=\{{\boldsymbol{x}}_{1},{\boldsymbol{x}}_{2},\cdots ,{\boldsymbol{x}}_{n}\} $表示一组输入变量,$ {\boldsymbol{x}}_{i}\in {\mathbb{R}}_{m} $表示Patch模型感兴趣区域内的矢量化像素强度;$ \boldsymbol{Y}=\{{\boldsymbol{y}}_{1},{\boldsymbol{y}}_{2},\cdots ,{\boldsymbol{y}}_{n}\} $表示一组输出变量,$ {\boldsymbol{y}}_{i}\in \mathbb{R} $n表示Patch模型可能区域的估计量;$ {\int }_{-\mathrm{\infty }}^{+\mathrm{\infty }}\mathrm{e}\mathrm{x}\mathrm{p}\left(\varPsi \right)\mathrm{d}y $是一个归一化函数,$ \varPsi $为势函数。

在势函数$ \varPsi $的表达式(7)中,$ {f}_{k} $为顶点特征,其表示输入$ {\boldsymbol{x}}_{i} $通过单神经网络层到输出$ {\boldsymbol{y}}_{i} $的映射关系;$ {\theta }_{k} $表示第k个神经元的权重;$ {f}_{k} $对应的$ {\alpha }_{k} $表示神经元k的可靠度;边缘特征$ {g}_{k} $用来表示输出$ {\boldsymbol{y}}_{i} $$ {\boldsymbol{y}}_{j} $(直线关系情况)之间的相似性,边缘特征$ {l}_{k} $可用来表示输出$ {\boldsymbol{y}}_{i} $$ {\boldsymbol{y}}_{j} $(距离较远关系情况)之间的稀疏约束,$ {\beta }_{k} $$ {\gamma }_{k} $的含义为边缘特征关系对应的可靠度。对这些不同可靠度的响应进行加权处理时,可看出模型输出结果并不是仅有$ \boldsymbol{y} $参与计算,还有$ \boldsymbol{y} $在网格结构之间的关系,即边缘特征也参与计算。

1.2.2 基于CLNF模型的疼痛表情特征点定位

利用V-J算法对人脸感兴趣面部区域进行检测后,采用CLNF模型对检测图像中的眼角、鼻尖、嘴唇、眉毛等某些面部特征点进行提取,并将其作为特征提取的关键点。基于以上描述,对疼痛表情图像关键特征点进行提取的具体步骤如下:

步骤1  先对给定图像进行检测,确定出该图像中是否存在人脸以及人脸的位置和大小。再按照如图 1所示的流程对图像进行预处理,去除部分不相关的信息,得到实验所需的面部区域图像。

步骤2  按照如图 3所示的关键特征点检测流程对裁取后的面部区域图像进行关键特征提取。

Download:
图 3 关键特征点检测流程 Fig. 3 Procedure of key feature point detection

1)在PDM模型的基础上得到形状模型,在表情图像上标记出关键特征点坐标,利用式(2)求取图像平均脸,并得到相应的形状变化矩阵。图 3所示表情(双唇紧闭时的表情有65个特征点,当为嘴巴张开或露出牙齿时的表情有68个特征点)的形状变化矩阵可由式(8)表示,再进一步得到形状变化主成分构成的矩阵以及对应的权重系数。

$ \boldsymbol{X}=\left[\begin{array}{ccccccc}{x}_{1}^{1}& {y}_{1}^{1}& {x}_{2}^{1}& {y}_{2}^{1}& ...& {x}_{65}^{1}& {y}_{65}^{1}\\ {x}_{1}^{2}& {y}_{1}^{2}& {x}_{2}^{2}& {y}_{2}^{2}& ...& {x}_{65}^{2}& {y}_{65}^{2}\\ ⋮& ⋮& ⋮& ⋮& & ⋮& ⋮\\ {x}_{1}^{m}& {y}_{1}^{m}& {x}_{2}^{m}& {y}_{2}^{m}& ...& {x}_{65}^{m}& {y}_{65}^{m}\end{array}\right] $ (8)

2)在表情图像上标定特征点之后,接下来在每个特征点的周围区域实现Patch建模,以获取面部纹理特征。在已建立的LNF Patch模型基础上,完成最佳匹配点的搜寻,经过对Patch模型可能区域输入量与输出量之间非线性关系的分析,得到提取特征点更详尽的面部信息,进而更快速精准地定位关键特征点。

3)利用线性逻辑回归的方法进行拟合优化,实现面部特征关键点的提取。

1.2.3 疼痛表情相关AU的获取

由面部特征提取的关键点可进一步获取与疼痛表情相关的AU。其中可能与疼痛有关的信息集中[20]在以下11个AU上:AU4(眉毛降低)、AU6(脸颊升高)、AU7(眼角收紧)、AU9(鼻子褶皱)、AU10(上唇升高)、AU12(唇角拉伸)、AU20(嘴唇水平伸展)、AU25(双唇分开)、AU26(下巴下垂)、AU27(嘴巴张开)、AU43(闭起眼睛)。文献[21]于1992年开始发现并证实了AU4、AU6、AU7、AU9、AU10、AU43这6个动作单元携带了大量关于疼痛的信息,并定义了普卡钦所罗门疼痛强度(Prkachin and Soloman Pain Intensity,PSPI)度量公式,通过评估每个AU的疼痛强度并对这些AU进行求和,以得到疼痛PSPI强度值。PSPI度量表达式如式(9)所示:

$ \begin{array}{l}\mathrm{P}\mathrm{S}\mathrm{P}{\mathrm{I}}_{\mathrm{p}\mathrm{a}\mathrm{i}\mathrm{n}}=\mathrm{A}\mathrm{U}4+\mathrm{m}\mathrm{a}\mathrm{x}(\mathrm{A}\mathrm{U}6,\mathrm{A}\mathrm{U}7)+\\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \mathrm{m}\mathrm{a}\mathrm{x}(\mathrm{A}\mathrm{U}9,\mathrm{A}\mathrm{U}10)+\mathrm{A}\mathrm{U}43\end{array} $ (9)

其中,除了AU43仅有不发生为0和发生为1这2个评估值之外,其他AU都有0~5这6个强度评估值,且求和式中的AU6和AU7、AU9和AU10是分别取这两组AU动作中的疼痛程度最大值,因此PSPI值的评估范围为0~16。

图 4展示了携带大量疼痛信息的6个AU在人脸面部的表现情况。

Download:
图 4 6个不同的疼痛AUs在面部上的表现情况 Fig. 4 Expression of six different pain AUs on the face

每种PSPI状态值可用6个AU在不同强度评估值下的组合来表现,当PSPI值分别为1、2、4、6时,AU强度评估值的组合情况如表 1~表 4所示。当PSPI值为其他状态值时,AU评估值的组合情况与表 1类似。

下载CSV 表 1 PSPI=1时AU评估值组合情况 Table 1 Combination of AU evaluation values when PSPI=1
下载CSV 表 2 PSPI=2时AU评估值组合情况 Table 2 Combination of AU evaluation values when PSPI=2
下载CSV 表 3 PSPI=4时AU评估值组合情况 Table 3 Combination of AU evaluation values when PSPI=4
下载CSV 表 4 PSPI=6时AU评估值组合情况 Table 4 Combination of AU evaluation values when PSPI=6
2 基于贝叶斯网络建模的疼痛表情识别 2.1 贝叶斯网络

BN可定义为一个有向无环图(Directed Acyclic Graph,DAG)与一个条件概率表(Conditional Probability Tables,CPTs)构成的集合。其中,DAG中的每个节点都表示一个随机变量,而有向边可用来描述变量间的条件依赖关系。CPTs可由DAG中每个节点事件发生与否的概率来获得,表中的每个元素都与DAG中唯一的节点对于其所有直接父节点的联合条件概率相对应,CPT中的概率值表示变量间条件关系的强弱。贝叶斯网络包括学习模块和推理模块两大模块,而学习模块又包含结构学习和参数学习。结构学习是指找到与实际问题最匹配的BN结构,即发现这些变量之间的关系。参数学习是指在结构学习完成的前提条件下,确定BN模型中每个网络节点的CPT,参数学习决定了节点变量间的具体量化关系。

2.1.1 贝叶斯网络结构构建

在疼痛表情识别中,由于表情状态的不确定性、涉及到的相关疼痛AU状态的不确定性以及表情与AU之间概率关系强弱的不确定性的影响,本文选择利用具有较强的处理不确定性问题能力的概率图模型BN来完成疼痛表情的建模推理。

图 5所示为构建的疼痛表情识别BN模型。其中,Pain Expression节点表示表情疼痛程度PSPI状态,每个AU节点表示的是可能当某种疼痛表情发生时的相关活动单元强度评估值状态。子节点中除了AU43节点有2种状态之外,其余AU节点均有6种状态,Pain Expression节点按照疼痛PSPI计算值有17种状态,可以将最终的表情疼痛程度划分为以下4种状态:不痛(PSPI=0)、微弱疼痛(PSPI=1~5)、中度疼痛(PSPI=6~10)、强烈疼痛(PSPI=11~16)。

Download:
图 5 疼痛表情识别BN模型 Fig. 5 BN model for pain expression recognition

不同的疼痛表情状态可用多种不同的AU强度评估值组合表示,AU组合表示形式如表 5所示。

下载CSV 表 5 不同疼痛表情状态的AU评估值组合 Table 5 Combination of AU evaluation values of different pain expression states
2.1.2 贝叶斯网络参数学习

BN模型的参数估计可用式(10)表示:

$ {\theta }_{ijk}=P({\boldsymbol{X}}_{i}=k|{P}_{a}\left({\boldsymbol{X}}_{i}\right)=j) $ (10)

其中,$ {\theta }_{ijk} $是在第$ i $个节点$ {\boldsymbol{X}}_{i} $的父节点$ {P}_{a}\left({\boldsymbol{X}}_{i}\right) $取值为$ j $的条件下,$ {\boldsymbol{X}}_{i} $取值为$ k $时条件概率参数的取值。

在样本数据充足的情况下,通常采用最大似然估计(Maximal Likelihood Estimate,MLE)方法[22]学习BN参数。在实际应用中,用式(11)估计每个参数的最大似然估计:

$ {\theta }_{ijk}^{\mathrm{*}}=\frac{{N}_{ijk}+\eta }{{N}_{ij}+c\eta } $ (11)

其中,$ {N}_{ijk} $表示样本中第$ i $个节点取值为$ k $及其父节点取值为$ j $时训练数据出现的频数,$ {N}_{ij} $表示父节点$ {P}_{a}\left({\boldsymbol{X}}_{i}\right) $取第$ j $个组合状态的频数,即$ {N}_{ij}=\sum \limits_{k=1}^{{r}_{i}}{N}_{ijk} $$ {r}_{i} $表示每个子节点变量的取值数,$ \eta $为一个接近于0的很小常数,$ c={q}_{i}\cdot {r}_{i} $$ {q}_{i} $表示父节点变量的取值。

基于变权重融合进行参数学习的基本思想是根据数据的变化情况,不断调整参数估计中各学习数据集的权重系数,最终加权融合确定出参数估算结果。基于加权融合的参数学习问题可以转化为如式(12)、式(13)的问题。

$ \mathrm{m}\mathrm{i}{\mathrm{n}}_{KL}\theta =\sum \limits_{i}{\omega }_{i}\left(t\right)\cdot {\theta }_{ijk}\left({\omega }_{i}\right(t\left)\right) $ (12)
$ \mathrm{s}.\mathrm{t}.\left\{\begin{array}{l}0\le {\omega }_{i}\left(t\right)\le 1, i=\mathrm{1, 2}, \cdots , d;t=\mathrm{1, 2}, \cdots , T\\ \begin{array}{l}\sum \limits_{i}{\omega }_{i}\left(t\right)=1\\ {\theta }_{ijk}\left({\omega }_{i}\right(t\left)\right)\ge 0\end{array}\end{array}\right. $ (13)

其中,$ {\omega }_{i}\left(t\right) $为权重系数,$ {\theta }_{ijk}\left({\omega }_{i}\right(t\left)\right) $为对应的数据集合,$ d $$ T $取不为0的自然数。

由文献[23]可知BN参数估算如式(14)所示:

$ \theta =\left(1-\omega \right)\cdot {\theta }_{\mathrm{p}\mathrm{r}\mathrm{i}\mathrm{o}\mathrm{r}}+\omega \cdot {\theta }_{\mathrm{d}\mathrm{a}\mathrm{t}\mathrm{a}} $ (14)

其中,$ {\theta }_{\mathrm{p}\mathrm{r}\mathrm{i}\mathrm{o}\mathrm{r}} $表示由先验知识得到的参数集,$ {\theta }_{\mathrm{d}\mathrm{a}\mathrm{t}\mathrm{a}} $表示由样本数据集得到的参数集,$ \omega $和($ 1-\omega $)分别表示参数集的权重系数,$ \theta $表示最终的参数学习结果。

本文选择基于变权重融合的方法进行BN参数学习,可以通过先计算样本数据和约束扩展参数集的权重,再求出加权融合后的参数估算值。随着数据量的变化,权重可以作出相应的调整,因此能够获得更好的学习效果。

2.2 基于BN建模的疼痛表情识别

根据BN结构模型中Pain Expression节点状态与AU节点状态的关系,并结合领域专家的经验可获取以下类似的约束:P(AU43=0|PSPI=1) > P(AU43=1|PSPI=1)。该含义为在表情疼痛程度PSPI=1的条件下,AU43强度评估值为0的概率大于其强度评估值为1的概率。将该约束条件引入BN参数学习机制,并通过改变权重加权的方式与样本数据融合进行参数学习,从而缩小寻优空间,并提高参数估算的精度。

基于以上分析,利用BN建模方法进行疼痛表情识别的具体步骤为:

步骤1  根据上文得到疼痛表情识别所需的关键特征点,将携带大量疼痛信息的AU特征点经过加标签(疼痛强度评估值)后构成样本数据集D

步骤2  判断贝叶斯网络是否已构建结构模型,若已构建,则继续后续步骤;否则根据2.1.1节描述构建疼痛表情识别贝叶斯网络模型。

步骤3  完成贝叶斯网络参数建模。

1)根据样本数据集D统计$ {N}_{ijk} $,再根据式(11)计算得出参数集$ {\theta }_{ijk}^{*}\left(s\right) $

2)结合领域专家经验确定出约束集合$ \varOmega $,并通过Bootstrap方法[24]进行参数扩展得到$ Q $组候选参数集$ {\theta }_{ijk}\left(\varOmega \right) $

3)利用贝叶斯网络变权重参数计算方法式(15)进行加权融合,并计算得出参数学习结果。

$ \theta =\frac{\omega {\theta }_{ijk}^{\mathrm{*}}\left(s\right)+\left(\left.1-\omega \right)\right.\sum \limits_{i=1}^{Q}{\theta }_{ijk}\left(\varOmega \right)}{Q+1} $ (15)

其中,变权重因子函数为$ \omega =\frac{\mathrm{e}\mathrm{x}\mathrm{p}\left(\sigma \right)-1}{\mathrm{e}\mathrm{x}\mathrm{p}\left(\sigma \right)+D} $,而$ \sigma =\frac{D}{M} $D为样本量,M为样本数据集阈值),其含义是通过样本量与样本数据集阈值的比值反映样本数据量的规模。

步骤4  利用联合树推理方法进行贝叶斯网络推理,得出面部疼痛表情PSPI状态值,判别表情疼痛程度属于不痛、微弱疼痛、中度疼痛、强烈疼痛4种状态的哪种状态,即得到最终疼痛表情识别结果。

3 实验条件与结果 3.1 实验条件设置

实验使用UNBC-McMaster Shoulder Pain数据库[17],该数据库公开数据包含25位志愿者的200个视频序列,视频分辨率为320$ \times $240,共有48 398张图片,包括13名女性的24 361张表情图像帧和12名男性的24 037张表情图像帧。本文实验的软件环境为Windows7系统下的MATLAB R2014a,处理器为Intel®Celeron®CPU N3160 @1.60 GHz。

为了验证CLNF模型与BN建模方法相结合后的识别疼痛表情性能,实验选取4 000幅图像样本作为训练集,并分为10组,每组包含400幅图像,依次分别进行10次训练实验。在剩下的图像样本中随机选取1 000张图像作为测试集,并将判别每种疼痛表情类型时的概率置信度取0.7。

3.2 实验结果分析

根据本文所提方法获取实验所需的疼痛表情AU状态样本集,结合领域专家经验确定出约束集合$ \varOmega $,再利用图 5所示的BN结构进行疼痛表情识别。表 6为以AU43为例得到BN参数模型的约束集合。

下载CSV 表 6 AU43节点状态参数的约束集合 Table 6 Constraint sets of AU43 node state parameter

采用本文方法对不同等级的疼痛表情进行识别,结果如表 7所示。从表 7可以看出,本文方法对不同级别的疼痛表情识别率均在85%以上,说明本文方法可有效对疼痛表情进行识别。

下载CSV 表 7 本文方法对不同疼痛表情类型的识别率 Table 7 Recognition rate of different pain expression types by the proposed method  

为验证本文方法的有效性,实验对本文方法与PLSA模型[11]、SLPP+MKSVM[12]、AAM+SVM[13]、ELBP+SVM[14]、LBVCNN[15]的平均识别率进行对比,结果如表 8所示。从表 8可以看出,与其他5种方法相比,本文方法可显著提高疼痛表情识别率。这是因为本文方法通过CLNF模型有效提取疼痛表情特征,再利用相关AU进行BN建模更能有效描述出表情的状态,并充分利用建模参数间的约束关系与样本数据集进行变权重融合参数学习,缩小参数寻优空间,从而提高识别率并使得分类更加明确。

下载CSV 表 8 6种方法的平均识别率对比 Table 8 Comparison of average recognition rate of six methods 

为了进一步验证本文方法的性能,实验对不同方法的运行时间进行对比,结果如图 6所示。从图 6可以看出,本文方法的运行速度比其他5种方法快。

Download:
图 6 6种方法的运行时间对比 Fig. 6 Comparison of running time of six methods

除此之外,实验还引入了皮尔逊相关系数(Pearson Correlation Coefficient,PCC)与平均绝对误差(Mean Absolute Error,MAE)2个评价指标对不同方法进行对比分析。PCC是对不同变量间的相关程度进行衡量,计算方法如式(16)所示:

$ \mathrm{P}\mathrm{C}\mathrm{C}=\frac{\sum \limits_{i=1}^{n}({\widehat{\boldsymbol{y}}}_{i}-\stackrel{-}{\widehat{\boldsymbol{y}}})({\boldsymbol{y}}_{i}-\stackrel{-}{\boldsymbol{y}})}{\sqrt{\sum \limits_{i=1}^{n}({\widehat{\boldsymbol{y}}}_{i}{-\stackrel{-}{\widehat{\boldsymbol{y}}})}^{2}}\sqrt{\sum \limits_{i=1}^{n}({\boldsymbol{y}}_{i}{-\stackrel{-}{\boldsymbol{y}})}^{2}}} $ (16)

其中,$ n $为样本数量,$ {\widehat{\boldsymbol{y}}}_{i} $$ {\boldsymbol{y}}_{i} $分别表示变量$ \widehat{\boldsymbol{y}} $$ \boldsymbol{y} $$ i $点预测值和实际值,$ \stackrel{-}{\widehat{\boldsymbol{y}}} $$ \stackrel{-}{\boldsymbol{y}} $分别表示样本中元素的平均值。PCC的取值范围为‒1~1,计算数值的绝对值越大,则预测值与实际值的相关性越高。

MAE是对预测值与实际值之间绝对误差的平均值进行衡量,计算方法如式(17)所示,且MAE的取值范围为0$ ~+\mathrm{\infty } $,其数值越小,则该方法的效果越好。

$ \mathrm{M}\mathrm{A}\mathrm{E}=\frac{1}{n}\sum \limits_{i=1}^{n}\left|{\widehat{\boldsymbol{y}}}_{i}-{\boldsymbol{y}}_{i}\right| $ (17)

表 9给出了6种方法的PCC与MAE对比结果。从中可以看出,本文方法的PCC取值较大,而MAE取值较低,这说明该方法可以准确地得出疼痛表情的识别结果。

下载CSV 表 9 6种方法的PCC和MAE对比 Table 9 Comparison of PCC and MAE of six methods

通过数据库上的实验结果以及与其他方法的对比结果可知,本文方法具有一定的应用价值,但是通过BN进行建模分类存在计算较为复杂的局限性。在实验过程中,本文未考虑部分个体特征如不同人的脸型以及相邻疼痛强度之间的差异对识别结果造成的影响,而这些均可作为辅助判断疼痛表情的依据。

4 结束语

针对在疼痛表情识别过程中,用于建模的有效疼痛特征样本数量较少的问题,本文将CLNF模型与BN模型相结合,提出一种疼痛表情识别方法。由约束局部神经域方法获取疼痛表情关键特征点,再进一步得到AU标签样本集以及BN条件概率之间的约束集合。利用变权重融合方法进行BN模型参数估算,通过BN推理实现疼痛表情的识别。在UNBC-McMaster Shoulder Pain数据库上的实验结果表明,该方法可有效提高疼痛表情识别准确性与分类效率。下一步将通过研究相同表情下的不同人脸面部形状,以及相邻疼痛强度水平差异对疼痛表情识别准确性的影响,以得到鲁棒性更强的识别模型。

参考文献
[1]
HUANG Jian, LI Wenshu, GAO Yujuan. Research advance of facial expression recognition[J]. Computer Science, 2016, 43(z2): 123-126. (in Chinese)
黄建, 李文书, 高玉娟. 人脸表情识别研究进展[J]. 计算机科学, 2016, 43(z2): 123-126.
[2]
DIAO Ying, ZHOU Fangfang, YANG Bin. Research on facial action model for human-like Agent[J]. Computer Engineering, 2012, 38(1): 157-159, 162. (in Chinese)
赵颖, 周芳芳, 杨斌. 拟人Agent面部运动模型研究[J]. 计算机工程, 2012, 38(1): 157-159, 162.
[3]
EKMAN P, FRIESEN W V. Facial Action Coding System(FACS): a technique for the measurement of facial action[J]. Rivista Di Psichiatria, 1978, 47(2): 126-138.
[4]
PENG Jinye, YANG Ruijing, FENG Xiaoyi, et al. Survey on facial expression recognition of pain[J]. Journal of Data Acquisition and Processing, 2016, 31(1): 43-55. (in Chinese)
彭进业, 杨瑞靖, 冯晓毅, 等. 人脸疼痛表情识别综述[J]. 数据采集与处理, 2016, 31(1): 43-55.
[5]
WANG Jun, ZHAO Kai, CHENG Yong. Facial expression recognition based on convolutional neural network with occlusion perception[J/OL]. Computer Engineering: 1-11[2020-08-07]. https://doi.org/10.19678/j.issn.1000-3428.0059166. (in Chinese)
王军, 赵凯, 程勇. 基于遮挡感知卷积神经网络的面部表情识别方法[J/OL]. 计算机工程: 1-11[2020-08-07]. https://doi.org/10.19678/j.issn.1000-3428.0059166.
[6]
WANG Zhongmin, LI Hena, ZHANG Rong, et al. Fusing convolutional neural network and support vector machine for expression recognition[J]. Computer Engineering and Design, 2019, 40(12): 3594-3600. (in Chinese)
王忠民, 李和娜, 张荣, 等. 融合卷积神经网络与支持向量机的表情识别[J]. 计算机工程与设计, 2019, 40(12): 3594-3600.
[7]
ZHU Jinduo. Neonatal pain expression recognition based on deep learning[D]. Nanjing: Nanjing University of Posts and Telecommunications, 2018. (in Chinese)
朱金朵. 基于深度学习的新生儿疼痛表情识别[D]. 南京: 南京邮电大学, 2018.
[8]
ZHANG Liying, SHEN Shijie, QU Ziwen, et al. Intelligent monitoring system based on pain expression recognition[J]. Foreign Electronic Measurement Technology, 2020, 39(3): 148-151. (in Chinese)
张丽英, 沈诗婕, 瞿子文, 等. 基于痛苦表情识别的智能医疗监护系统[J]. 国外电子测量技术, 2020, 39(3): 148-151.
[9]
PENG Xianlin, HUANG Dong, ZHANG Haixi. Pain intensity recognition via multi-scale deep network[J]. IET Image Processing, 2020, 14(8): 1645-1652. DOI:10.1049/iet-ipr.2019.1448
[10]
WANG S, CHRISTOPHER E, EDMUND K. The time course of facial expression recognition using spatial frequency information: comparing pain and core emotions[J/OL]. The Journal of Pain: 1-13[2020-08-07]. https://doi.org/10.1016/j.jpain.2020.07.004.
[11]
ZHU Shaoping. Pain expression recognition based on PLSA model[J]. The Scientific World Journal, 2014, 2014: 1-8.
[12]
ZHANG Wei, HUANG Wei, XIA Liaoming, et al. Pain expression recognition based on SLPP and MKSVM[J]. International Journal of Engineering and Manufacturing, 2011, 1(3): 69-74. DOI:10.5815/ijem.2011.03.11
[13]
ASHRAF A B, LUCEY S, COHN J, et al. The painful face-pain expression recognition using active appearance models[J]. Image Vision Computing, 2009, 27(12): 1788-1796. DOI:10.1016/j.imavis.2009.05.007
[14]
NANNI L, BRAHNAM S, LUMINI A. A local approach based on a local binary patterns variant texture descriptor for classifying pain states[J]. Expert Systems with Applications, 2010, 37(12): 7888-7894. DOI:10.1016/j.eswa.2010.04.048
[15]
KUMAWAT S, VERMA M, RAMAN S. LBVCNN: local binary volume convolutional neural network for facial expression recognition from image sequences[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Washington D.C., USA: IEEE Press, 2019: 207-216.
[16]
GUO Wenqiang, GAO Wenqiang, XIAO Qinkun, et al. Facial expression recognition with small data sets based by Bayesian network modeling[J]. Science Technology and Engineering, 2018, 18(35): 179-183. (in Chinese)
郭文强, 高文强, 肖秦琨, 等. 基于小数据集下贝叶斯网络建模的面部表情识别[J]. 科学技术与工程, 2018, 18(35): 179-183. DOI:10.3969/j.issn.1671-1815.2018.35.030
[17]
LUCEY P, COHN J F, PRKACHIN K M, et al. Painful data: the UNBC-McMaster shoulder pain expression archive database[C]//Proceedings of the 9th IEEE International Conference on Automatic Face and Gesture Recognition and Workshops. Washington D.C., USA: IEEE Computer Society, 2011: 57-64.
[18]
CZUPRYSKI B, STRUPCZEWSKI A. High accuracy head pose tracking survey[C]//Proceedings of International Conference on Active Media Technology. Berlin, Germany: Springer, 2014: 407-420.
[19]
SUN Jinna, YUAN Mingting, DING Junhang, et al. Application of constrained local neural fields in face recognition[J]. Journal of Qingdao University(Engineering & Technology Edition), 2018, 33(2): 47-52. (in Chinese)
孙金娜, 原明亭, 丁军航, 等. CLNF在人脸识别中的应用研究[J]. 青岛大学学报(工程技术版), 2018, 33(2): 47-52.
[20]
LUCEY P, COHN J, LUCEY S, et al. Painful monitoring: automatic pain monitoring using the UNBC-McMaster shoulder pain expression archive database[J]. Image and Vision Computing, 2012, 30(3): 197-205. DOI:10.1016/j.imavis.2011.12.003
[21]
PRKACHIN K M, SOLOMON P E. The structure reliability and validity of pain expression: evidence from patients with shoulder pain[J]. Pain, 2008, 139(2): 267-274. DOI:10.1016/j.pain.2008.04.010
[22]
CAO Rusheng, NI Shihong, ZHANG Peng, et al. EM parameter learning algorithm of Bayesian network based on cloud model[J]. Computer Science, 2016, 43(8): 194-198. (in Chinese)
曹如胜, 倪世红, 张鹏, 等. 一种基于云模型的贝叶斯网络EM参数学习算法[J]. 计算机科学, 2016, 43(8): 194-198.
[23]
PÉREZ-BERNABÉ I, FERNÁNDEZ A, RUMÍ R, et al. Parameter learning in hybrid Bayesian networks using prior knowledge[J]. Data Mining & Knowledge Discovery, 2016, 30(3): 576-604. DOI:10.1007/s10618-015-0429-7
[24]
GUO Wenqiang, LI Ran, HOU Yongyan, et al. Extension parameters learning for BN based on constraints and maximum entropy model[J]. Application Research of Computers, 2019, 36(2): 390-394. (in Chinese)
郭文强, 李然, 侯勇严, 等. 约束条件下BN参数最大熵模型扩展学习算法[J]. 计算机应用研究, 2019, 36(2): 390-394.