International Open Access Journal Platform

logo
open
cover
Current Views: 1218655
Current Downloads: 1375656

Psychology of China

ISSN Print: 2664-1798
ISSN Online: 2664-1801
Contact Editorial Office
Join Us
DATABASE
SUBSCRIBE
Journal index
Journal
Your email address

动态微表情识别能力测验DMERT的建立

The Establishment of Dynamic Microexpression Recognition Ability Test

Psychology of China / 2024,6(11): 54-63 / 2024-11-11 look128 look156
  • Authors: 张剑心¹²³ 蔡宁¹ 殷明²⁴ 刘精华¹ 李沂宸¹ 王晓丹¹ 宋校能⁵
  • Information:
    1.江南大学教育学院学与教脑科学实验室,无锡;
    2.江苏省微表情智能感知与安全防控工程研究中心,南京;
    3.江苏小微数字科技有限公司,南京;
    4.江苏警官学院侦查系,南京;
    5.江南大学体育部,无锡
  • Keywords:
    Dynamic microexpression; DEMERT; Reliability; Validity; Recognition ability
    动态微表情; DEMERT; 信度; 效度; 识别能力
  • Abstract: The existing microexpression recognition tests only measured the static microexpression recognition ability, and neither of them investigated the dynamic microexpression recognition ability. Therefore, in this study, the transient static expressions with multiple emotional arousal gradients were used as the approximation of dynamic microexpression, and the dynamic microexpression recognition ability test DMERT was established. The experiment adopted 7 (background expressions: sadness vs. disgust vs. fear vs. anger vs. anger vs. Surprised vs. happy vs. calm) ×2 (background expression arousal: 3 vs. 5) ×6 (dynamic microexpression: sad vs. disgust vs. fear vs. anger vs. surprise vs. pleasure) ×2 (arousal of dynamic microexpression: 1→2→3→2→1 vs. 3→4→5→4→3). The results show that DMERT has good partition-half reliability, calibration validity, discriminative validity and ecological validity. The subjects had a certain degree of dynamic microexpression recognition ability, but the level was low. The DMERT established in this study can stably and effectively measure the dynamic microexpression recognition ability, and provides an operational definition for dynamic microexpressions. 已有微表情识别测验只测量静态微表情识别能力,较少考察动态微表情识别能力。因此,本研究采用多个情绪唤醒度渐变的短暂静态表情作为动态微表情的近似,建立动态微表情识别能力测验DMERT(DynamicMicroExpressionRecognitionTest)。实验采用7(背景表情:悲伤vs.厌恶vs.恐惧vs.愤怒vs.惊讶vs.愉快vs.平静)×2(背景表情唤醒度:3vs.5)×6(动态微表情:悲伤vs.厌恶vs.恐惧vs.愤怒vs.惊讶vs.愉快)×2(动态微表情唤醒度:1→2→3→2→1vs.3→4→5→4→3)被试内设计。结果发现:DMERT具有良好的分半信度、校标效度、区分效度和生态效度;被试具有一定程度的动态微表情识别能力但水平较低。本研究建立的DMERT能稳定有效地测量到动态微表情识别能力,为动态微表情提供操作性定义。
  • DOI: https://doi.org/10.35534/pc.0611007
  • Cite: 张剑心,蔡宁,殷明,等.动态微表情识别能力测验DMERT的建立[J].中国心理学前沿,2024,6(11):54-63.


1 引言

微表情是呈现时间特别短暂的表情,约为1/25~1/2秒,泄露人们试图压抑或隐藏的真实情绪,且很难自控,因此是测谎的有效方式(申寻兵、隋华杰、傅小兰,2017)。微表情识别能力指人们对他人微表情的识别能力,是情绪智力的重要组成部分,有助于觉察他人的真实情感,进行恰当的社会交往。

研究者松本等(2000)开发经典微表情识别测验JACBART(Japanese and Caucasian Brief Affect Recognition Test,Matsumoto et al.,2000)来测量人们的微表情识别能力,把短暂静态表情镶嵌在平静表情背景之间作为微表情的近似。但JACBART只考察平静表情背景,因此殷明、张剑心、史爱芹和刘电芝(2016)提出应建立生态化微表情识别测验,张剑心等(2017)以七种基本表情(悲伤、恐惧、愤怒、厌恶、平静、惊讶、愉快)作为表情背景,除平静外六种基本表情镶嵌在表情背景中短暂呈现作为生态化微表情,建立生态化微表情识别测验EMERT,背景表情和微表情都是情绪唤醒度4(国际表情库情绪唤醒度为1~6,Ekman and Friesen,1976)。殷明、张剑心、疏德明和刘电芝(2020)发现EMERT的生态化微表情识别能力的相关静息态脑区为额叶、脑岛、扣带回、海马、尾状核、丘脑和小脑(Yin et al.,2020)。殷明、田良臣、华伟、张剑心和刘电芝(2019)把唤醒度2的微表情镶嵌在唤醒度4表情背景中,建立生态化弱微表情识别测验WEMERT(Yin et al.,2019)。朱传林、殷明、陈心韵、张剑心和刘电芝等人发现抑郁症患者和抑郁倾向大学生的EMERT简版测验正确率低于常人(Zhu et al.,2017;Zhu et al.,2019)。但这些研究都采用表情背景组块block设计,为平衡顺序效应做了被试间拉丁方设计,导致不同被试做测验的组块顺序不同。因此张剑心、殷明、疏德明和刘电芝(2020)建立伪随机生态化微表情识别测验PREMERT,保证每个被试做同样测验(Zhang et al.,2020)。张剑心、殷明、疏德明和刘电芝(2022)采用探索性因子分析,进一步在PREMERT中提取了共同因子,提出一般微表情识别能力概念和操作性定义,更概括简洁地测量微表情识别能力(Zhang et al.,2022)。

真实微表情有四个主要行为特征:(1)动态变化;(2)有不同情绪唤醒度;(3)镶嵌在各种表情背景中;(4)微表情和表情背景随机出现。以上微表情识别测验都采用短暂静态表情作为微表情的近似,没考虑动态特征。中科院傅小兰团队颜文靖、吴奇、梁静、陈雨欣和傅小兰(2013)发现真实微表情与表情类似可分为出现—高峰—消退的动态三阶段,只是时间更短(Yan et al.,2013)。 颜文靖、吴奇、刘永进、王甦菁和傅小兰(2013)改进压抑-诱发范式,构建CASME(Yan et al.,2013);颜文靖等(2014)进一步构建CASMEII(Yan et al.,2014),为中国本土化微表情研究提供数据库支持。它们采用实验室压抑-诱发范式:让被试观看情绪图片,整个过程必须压抑由情绪材料诱发的真实表情,保持平静表情;如果压抑失败就会短暂泄露出现动态微表情。但情绪材料与被试自我关联度较小,获得的动态微表情峰值的唤醒度和面部肌肉变化都很小,这与真实微表情存在差异。如果采用多个唤醒度渐变的短暂静态表情作为动态微表情的近似,由于峰值唤醒度自由操控,获得的动态微表情就能更接近真实微表情。

因此本研究对EMERT进行改进,采用多个情绪唤醒度渐变的短暂静态表情作为动态微表情的近似,建立动态微表情识别能力测验DMERT(Dynamic Micro Expression Recognition Test)。为动态微表情提供操作性定义,建立动态微表情识别测验工具;可应用于各领域人们动态微表情识别能力测量。

2 实验

2.1 假设

DMERT具有良好的信效度,能稳定有效地测量到动态微表情识别能力。

2.2 被试

从大学方便采样了104名被试参加研究,男生16人,女生88人。其中10名被试数据发生程序错误而丢失,或者中途退出实验,因此作为无效数据删除。进入数据分析的被试共94人,男生16人,女生78人,年龄M±SD =21.41±0.74岁,均为右利手,矫正视力正常,无色盲色弱。被试无参与类似研究经历,合格完成本研究后获得相应酬劳。所有被试自愿参与,可以随时退出,在实验前填写知情同意书,在完成实验后得到相应报酬。实验遵循《赫尔辛基宣言2013年修订版》的伦理准则,并经江南大学医学伦理委员会批准。

2.3 实验仪器和材料

在艾克曼和弗瑞森(1976)国际表情库中(Ekman and Friesen,1976),选取4个白人模特面孔表情图片,男女各半,共七种表情类型,分别是悲伤、恐惧、厌恶、愤怒、惊讶、愉快、平静,其中前六种表情图片的情绪唤醒度为1~5,平静的情绪唤醒度为0。图片经过处理,去除掉面部肌肉以外的其他部分如耳朵、头发等,保证同一个人的面部表情阴影相同、头部姿势相同。所有图片均修改为338 像素×434像素,灰色背景的图片(GRB:127,127,127)。

实验仪器为联想笔记本电脑Legion Y7000 2019 PG0,显示器为15.6英寸,分辨率1920×1080,刷新频率为60Hz,显示背景为灰色,采用标准键盘作为实验反应仪器。采用E-prime3.0编制实验程序。

2.4 实验设计和程序

本研究改进了EMERT实验范式,把静态短暂表情图片替换为5张情绪唤醒度渐变的短暂静态表情图片,以近似动态微表情,从而建立动态微表情识别能力测验DMERT。实验为7(背景表情:悲伤vs. 厌恶vs. 恐惧vs. 愤怒vs. 惊讶 vs. 愉快vs. 平静)×2(背景表情唤醒度:3 vs. 5)×6(动态微表情:悲伤vs. 厌恶vs. 恐惧vs. 愤怒vs. 惊讶 vs. 愉快)×2(动态微表情唤醒度:1→2→3→2→1 vs. 3→4→5→4→3)×2(组别:男女模特A组 vs.男女模特B组)混合实验设计,前4个自变量是被试内变量,最后1个自变量是被试间变量。

设计目的:7种背景表情,除了平静外的6种背景表情又有弱和强两种唤醒度,是为了保证背景表情具有良好的生态效度;6种动态微表情,又有弱和强两种唤醒度,也是为了保证动态微表情具有良好的生态效度。把6种动态微表情镶嵌在7种背景表情之中,既考察动态微表情的情绪效价,又考察背景效应。平静下动态微表情近似JACBART经典微表情识别测验,可作为动态微表情的校标。设置男女模特A组和男女模特B组是为了尽量平衡模特面孔喜好度影响,增加面孔多样性,当然更好的方式是4个模特都放在同一组,但这会导致试次增加一倍,被试难以完成。

微表情单个试次的构建:选取某个模特的某种表情图片如愉快作为前后背景表情,呈现时间都为1000ms,选取该模特的唤醒度渐变的5张短暂表情图片如悲伤作为动态微表情,每张呈现时间为33.33ms/张,5张共167ms,如图1所示。由于有7种表情背景和6种动态微表情,采用伪随机设计平衡顺序效应。

实验在电脑上完成,被试眼睛距离屏幕60厘米。实验开始前,要求被试将自己的左手无名指、中指、食指分别放在S、D、F三个键上,将自己的右手食指、中指、无名指分别放在J、K、L三个键上,分别对应悲伤、厌恶、恐惧、愤怒、惊讶、 愉快。然后进行按键练习,6种表情词语(平静除外)以1000ms的时间伪随机出现2次,一共12个试次,被试需在按顺序呈现这六种表情词语的选项页面上按键选择出现的表情词语是什么。按键练习完成后,呈现实验指导语,告知被试:“请认真注视屏幕中央,你将看到屏幕上出现一个注视点“+”,注视点消失后你将会看到第一种表情图片(时间较长),然后会快速闪过第二种表情图片(即微表情图片,它们有五张,都是同一种表情,只是表情强度不同,所以会有动起来的感觉),之后第一种表情图片会再次出现(时间较长)。请将你看到的第二种表情图片(即微表情图片)的表情类型按键选出来。只要求尽准确,不要求尽快。按键选择后是1000ms的空屏,然后呈现注视点“+”500s,下一个试次开始。” 单个试次动态微表情识别流程图如图1所示。

图 1 单个试次动态微表情识别流程图(表情图片来自公开发表的国际表情库Ekman and Friesen,1976)

Figure 1 Single trial of dynamic microexpression recognition flow chart (Image from the published international Emoji library Ekman and Friesen, 1976)

先进行动态微表情识别程序练习,共14 个试次,其中7种背景表情各出现2次,6种微表情各出现2~3次。然后进行正式实验,为让被试充分休息,实验分为6个组段,每个组段52个试次,一共312个试次,包括了[6(背景表情:悲伤vs. 厌恶vs. 恐惧vs. 愤怒vs. 惊讶 vs. 愉快)×2(背景表情唤醒度:3 vs. 5)+ 1(背景表情:平静)×1(背景表情唤醒度:0)]×6(动态微表情:悲伤vs. 厌恶vs. 恐惧vs. 愤怒vs. 惊讶 vs. 愉快)×2(动态微表情唤醒度:1→2→3→2→1 vs. 3→4→5→4→3)×2(模特:男vs.女)=312个试次。每两个组段间隔60秒休息。

2.5 数据分析步骤

借鉴已有研究(张剑心 等,2017;Yin et al.,2019;Yin et al.,2020;Yin et al.,2020;Zhang et al.,2020;Zhang et al.,2022),数据分析步骤如下:

(1)DMERT的信效度检验

分半信度:将动态微表情识别按照奇数和偶数试次分半,得到奇数和偶数试次的识别正确率,计算奇数和偶数试次识别正确率的皮尔逊相关,得到分半信度。

校标效度:平静背景下动态微表情既是动态微表情的一个特例,又近似JACBART经典微表情,用动态微表情与它做皮尔逊相关就可以作为校标效度,表明动态微表情确实是微表情。当背景表情与微表情图片是同类情绪效价时(如都是悲伤),被试看到的仍然是动态微表情,因为微表情的情绪唤醒度发生了变化。

区分效度和生态效度:方差分析ANOVA比较DMERT与已有静态微表情的识别正确率,考察动态微表情识别与静态微表情识别是否有显著差异,作为区分效度和生态效度。

(2)动态微表情识别能力的水平

方差分析ANOVA:以动态微表情识别正确率为因变量,做7(背景表情)×6(动态微表情)的重复测量方差分析。不考察背景表情和微表情的情绪唤醒度,是因为如果考察这两个自变量,会导致每个自变量水平试次过少;但把它们合起来计算正确率,则既保证了试次数量,又包含了这两个自变量,保证了生态效度。不考虑组别自变量,是为了尽量平衡模特面孔喜好度影响,增加面孔多样性。

单样本t检验:动态微表情识别能力有三层。第一层为42小类动态微表情,即7种背景表情下6种动态微表情。第二层为6大类动态微表情,即以某种动态微表情在7种背景表情下(如悲伤动态微表情在悲伤、厌恶、恐惧、愤怒、惊讶、愉快、平静背景下)识别正确率的平均数作为该大类动态微表情识别正确率,标准差作为该大类动态微表情的背景效应。第三层为一般动态微表情,计算6大类动态微表情的平均数(即悲伤、厌恶、恐惧、愤怒、惊讶、愉快6大类微表情识别正确率之和除以6)作为一般动态微表情识别能力MM,标准差为一般动态微表情识别能力的情绪效价效应MS;计算6大类动态微表情背景效应的平均数作为一般动态微表情的背景效应SM,标准差为一般动态微表情背景效应的情绪效价效应SS(即不同微表情的背景效应的差异程度)。把42小类动态微表情识别正确率和6大类动态微表情识别正确率与随机水平1/6(因每个试次6个选项)做单样本t检验,考察哪些动态微表情识别能力高于随机;把一般动态微表情识别正确率与1/6和0.5(对或错)做单样本t检验,考察一般动态微表情识别能力水平;把背景效应、情绪效价效应与0做单样本t检验,考察识别稳定性。

3 结果

用SPSS 19.0进行统计分析。

3.1 DMERT的信效度检验

三层动态微表情识别能力数据如表1所示。做动态微表情奇数和偶数试次指标的相关分析发现,除了厌恶愤怒下奇偶数不相关,其他41小类动态微表情的奇偶数识别正确率均呈显著正相关;6大类动态微表情奇偶数识别正确率或背景效应都呈显著正相关;除一般微表情SS奇偶数不相关,其他一般微表情的奇偶数指标都呈显著正相关,表明DMERT具有良好的分半信度。

表 1 各小类动态微表情得分和奇偶数相关(N=94)

Table 1 Dynamic microexpression scores of each subclass and odd-even correlation (N=94)

续表

动态微表情 整体(M±SD) 单样本t d 奇数(M±SD) 偶数(M±SD) 奇偶数r
动态微表情 整体(M±SD) 单样本t d 奇数(M±SD) 偶数(M±SD) 奇偶数r
悲伤悲伤下 0.41±0.3 7.77*** 0.81 0.44±0.34 0.38±0.36 0.480**
悲伤厌恶下 0.18±0.22 0.68 0.15±0.23 0.22±0.26 0.578**
悲伤恐惧下 0.22±0.21 2.42* 0.25 0.21±0.22 0.23±0.25 0.535**
悲伤愤怒下 0.24±0.23 3.04** 0.32 0.23±0.25 0.25±0.27 0.526**
悲伤惊讶下 0.22±0.24 2.25* 0.22 0.22±0.24 0.23±0.29 0.599**
悲伤愉快下 0.36±0.28 6.63*** 0.69 0.31±0.3 0.4±0.32 0.635**
悲伤平静下 0.31±0.29 4.86*** 0.49 0.3±0.32 0.32±0.37 0.374**
厌恶悲伤下 0.39±0.25 8.58*** 0.89 0.32±0.28 0.46±0.33 0.324**
厌恶厌恶下 0.43±0.24 10.78*** 1.1 0.43±0.28 0.42±0.31 0.264*
厌恶恐惧下 0.38±0.25 8.44*** 0.85 0.36±0.27 0.4±0.3 0.536**
厌恶愤怒下 0.38±0.2 10.63*** 1.07 0.4±0.29 0.37±0.25
厌恶惊讶下 0.41±0.3 7.96*** 0.81 0.34±0.31 0.48±0.34 0.620**
厌恶愉快下 0.38±0.27 7.65*** 0.79 0.39±0.3 0.37±0.31 0.565**
厌恶平静下 0.54±0.29 12.25*** 1.29 0.56±0.36 0.51±0.34 0.384**
恐惧悲伤下 0.23±0.22 2.7*** 0.29 0.2±0.24 0.25±0.29 0.363**
恐惧厌恶下 0.19±0.21 0.95 0.18±0.21 0.2±0.27 0.522**
恐惧恐惧下 0.34±0.26 6.4*** 0.67 0.34±0.28 0.34±0.32 0.561**
恐惧愤怒下 0.2±0.2 1.68 0.17±0.23 0.23±0.24 0.402**
恐惧惊讶下 0.22±0.18 2.68** 0.3 0.23±0.25 0.2±0.19 0.319**
恐惧愉快下 0.3±0.27 4.71*** 0.49 0.3±0.28 0.29±0.32 0.616**
恐惧平静下 0.2±0.25 1.49 0.2±0.29 0.21±0.32 0.327**
愤怒悲伤下 0.2±0.2 1.86*** 0.17 0.17±0.2 0.24±0.26 0.470**
愤怒厌恶下 0.24±0.19 3.65*** 0.39 0.24±0.24 0.23±0.22 0.425**
愤怒恐惧下 0.26±0.24 3.63*** 0.39 0.2±0.26 0.31±0.29 0.519**
愤怒愤怒下 0.24±0.24 3.13** 0.31 0.22±0.26 0.27±0.3 0.407**
愤怒惊讶下 0.28±0.26 4.12*** 0.44 0.29±0.3 0.27±0.29 0.522**
愤怒愉快下 0.17±0.21 0.22 0.17±0.24 0.17±0.23 0.601**
愤怒平静下 0.23±0.23 2.45* 0.28 0.2±0.31 0.25±0.29 0.242*
惊讶悲伤下 0.63±0.32 14.32*** 1.45 0.64±0.35 0.63±0.35 0.646**
惊讶厌恶下 0.71±0.34 15.32*** 1.6 0.7±0.35 0.72±0.36 0.848**
惊讶恐惧下 0.5±0.24 13.33*** 1.39 0.41±0.26 0.59±0.31 0.421**
惊讶愤怒下 0.66±0.35 13.73*** 1.41 0.65±0.37 0.66±0.37 0.756**
惊讶惊讶下 0.48±0.28 11.11*** 1.12 0.48±0.29 0.48±0.33 0.605**
惊讶愉快下 0.63±0.33 13.43*** 1.4 0.63±0.36 0.62±0.35 0.721**
惊讶平静下 0.71±0.32 16.67*** 1.7 0.7±0.38 0.72±0.35 0.523**
愉快悲伤下 0.67±0.33 14.96*** 1.53 0.65±0.33 0.69±0.36 0.802**
愉快厌恶下 0.7±0.34 15.16*** 1.57 0.72±0.36 0.68±0.36 0.820**
愉快恐惧下 0.59±0.32 12.87*** 1.32 0.61±0.33 0.58±0.35 0.781**
愉快愤怒下 0.73±0.34 15.83*** 1.66 0.7±0.34 0.76±0.36 0.901**
愉快惊讶下 0.68±0.33 15.03*** 1.56 0.67±0.36 0.69±0.34 0.800**
愉快愉快下 0.45±0.34 8.1*** 0.83 0.45±0.37 0.45±0.36 0.750**
愉快平静下 0.78±0.35 17.19*** 1.75 0.76±0.39 0.8±0.35 0.747**
悲伤微表情 0.28±0.16 6.7*** 0.71 0.26±0.16 0.29±0.18 0.777**
厌恶微表情 0.42±0.17 14.42*** 1.49 0.4±0.17 0.43±0.19 0.724**
恐惧微表情 0.24±0.15 4.67*** 0.49 0.23±0.15 0.25±0.18 0.688**
愤怒微表情 0.23±0.13 4.88*** 0.49 0.21±0.14 0.25±0.14 0.679**
惊讶微表情 0.62±0.22 19.47*** 2.06 0.6±0.23 0.63±0.23 0.893**
愉快微表情 0.66±0.24 19.65*** 2.06 0.65±0.24 0.66±0.25 0.931**
悲伤的背景效应 0.22±0.08 27.15*** 2.75 0.24±0.08 0.27±0.09 0.418**
厌恶的背景效应 0.21±0.07 27.05*** 3 0.27±0.08 0.26±0.09 0.277**
恐惧的背景效应 0.18±0.07 26.8*** 2.57 0.22±0.08 0.23±0.09 0.242*
愤怒的背景效应 0.19±0.08 22.65*** 2.38 0.22±0.09 0.24±0.08 0.352**
惊讶的背景效应 0.24±0.07 30.96*** 3.43 0.28±0.08 0.28±0.08 0.468**
愉快的背景效应 0.26±0.08 30.5*** 3.25 0.28±0.08 0.28±0.08 0.599**
一般微表情MM 0.41±0.13 -7.05*** -0.69 0.39±0.13 0.42±0.14 0.927**
一般微表情MS 0.22±0.09 25.03*** 2.44 0.23±0.09 0.23±0.09 0.838**
一般微表情SM 0.21±0.04 46.36*** 5.25 0.25±0.03 0.26±0.05 0.580**
一般微表情SS 0.07±0.02 28.67*** 3.5 0.08±0.03 0.08±0.03
经典微表情M 0.46±0.17 -2.24* -0.24 0.45±0.18 0.47±0.17 0.737**
经典微表情S 0.35±0.09 39.19*** 3.89 0.39±0.1 0.4±0.08 0.291**

注:悲伤悲伤下表示悲伤动态微表情在悲伤背景表情下,其它同理。单样本t值,对42小类动态微表情,比较标准是1/6;对6大类动态微表情识别正确率,比较标准是1/6;对背景效应,比较标准是0;对一般微表情MM和经典微表情M,比较标准是0.5(对或错),对一般微表情情绪效价效应和背景效应的MS,SM,SS和经典微表情背景效应S来说,比较标准是0。*表示 p<0.05,**表示 p<0.01,***表示 p<0.001,下同。

各表情背景下动态微表情识别正确率与对应的平静下动态微表情识别正确率(经典微表情)做皮尔逊相关发现,如表2和图2所示:36小类动态微表情中(去除平静下动态微表情即经典微表情),悲伤悲伤下、厌恶厌恶下、恐惧恐惧下、愤怒恐惧下、愤怒愤怒下与对应经典微表情不相关,惊讶惊讶下和愉快愉快下与对应经典微表情呈显著负相关,其他29小类动态微表情都与对应经典微表情呈显著正相关;6大类动态微表情与对应经典微表情呈显著正相关;一般微表情MM与经典微表情M显著呈正相关,r=0.905**,p<0.01,表明DMERT具有良好的校标效度。

表 2 各小类动态微表情与平静下动态微表情相关(N=94)

Table 2 Correlation betrween each subclass dynamic microexpression and dynamic microexpression under neutral (N=94)

续表

动态微表情 悲伤平静下 厌恶平静下 恐惧平静下 愤怒平静下 惊讶平静下 愉快平静下
动态微表情 悲伤平静下 厌恶平静下 恐惧平静下 愤怒平静下 惊讶平静下 愉快平静下
悲伤悲伤下
悲伤厌恶下 0.500**
悲伤恐惧下 0.328**
悲伤愤怒下 0.540**
悲伤惊讶下 0.518**
悲伤愉快下 0.444**
厌恶悲伤下 0.320**
厌恶厌恶下
厌恶恐惧下 0.263*
厌恶愤怒下 0.260*
厌恶惊讶下 0.322**
厌恶愉快下 0.285**
恐惧悲伤下 0.490**
恐惧厌恶下 0.473**
恐惧恐惧下
恐惧愤怒下 0.476**
恐惧惊讶下 0.478**
恐惧愉快下 0.542**
愤怒悲伤下 0.222*
愤怒厌恶下 0.254*
愤怒恐惧下
愤怒愤怒下
愤怒惊讶下 0.271**
愤怒愉快下 0.406**
惊讶悲伤下 0.780**
惊讶厌恶下 0.756**
惊讶恐惧下 0.447**
惊讶愤怒下 0.806**
惊讶惊讶下 -0.349**
惊讶愉快下 0.736**
愉快悲伤下 0.852**
愉快厌恶下 0.866**
愉快恐惧下 0.801**
愉快愤怒下 0.903**
愉快惊讶下 0.877**
愉快愉快下 -0.619**
悲伤微表情 0.732**
厌恶微表情 0.599**
恐惧微表情 0.740**
愤怒微表情 0.576**
惊讶微表情 0.864**
愉快微表情 0.924**

图 2 一般动态微表情MM与经典微表情M的相关(r=0.905**)

Figure 2 Correlation between general dynamic microexpression MM and classical microexpression M (r=0.905**)

已有静态微表情识别正确率为M±SD = 0.52 ± 0.16(样本量53人,Zhang et al.,2022)和45%~59%(Matsumoto and Hwang,2011),呈现时间为133ms或更小;而本研究动态微表情呈现时间更大,为167ms,但识别正确率只有M±SD = 0.41±0.13(样本量94人),显著低于静态微表情识别,F(1,145)=21.98,p<0.001,η2=0.132,分布在0.16~0.70之间,分布区间更大。这表明动态微表情识别与静态微表情识别有显著差异,区分效度和生态效度良好,有必要建立动态微表情识别测验。

3.2 DMERT测得的动态微表情识别能力水平

以上统计分析发现DMERT具有良好的分半信度、校标效度、区分效度和生态效度,已经证明DMERT是信效度良好的测验,那么就能够稳定有效地测量到被试的动态微表情识别能力水平。以动态微表情识别正确率为因变量,做7(背景表情)×6(动态微表情)的重复测量方差分析ANOVA:

(1)背景表情的球形度检验p<0.05,做Greenhouse修正,背景表情主效应显著,F(5.32,94)=19.26,p<0.001,η2=0.172,表明背景表情影响了动态微表情识别能力。

(2)动态微表情的球形度检验p<0.05,做Greenhouse修正,微表情主效应显著,F(3.34,94)=169.95,p<0.001,η2=0.646,表明动态微表情类型影响了动态微表情识别能力。

(3)背景表情×动态微表情的球形度检验p<0.05,做Greenhouse修正,三者交互效应显著,F(4.42,94)=10.68,p<0.001,η2=0.103。表明背景表情和动态微表情交互影响了动态微表情识别能力。

单样本t检验发现,除了的悲伤厌恶下、恐惧厌恶下、恐惧愤怒下、愤怒愉快下、恐惧平静下与1/6差异不显著,其他各小类动态微表情都显著大于1/6,如表1所示;6大类动态微表情都显著大于1/6;一般微表情识别正确率显著大于1/6,t(1,94)=17.97,p<0.001,d = 1.87,但显著小于0.5。说明没有经过训练,被试原初就有一定程度的动态微表情识别能力,但较低。6大类动态微表情的标准差、一般微表情SM都显著大于0,表明存在显著的背景效应。

4 讨论

4.1 动态微表情识别测验DMERT具有良好的信效度

相关分析发现,41小类动态微表情识别的奇偶数正确率均显著相关,证明DMERT具有良好的分半信度。各动态微表情识别与平静下动态微表情识别(经典微表情识别JACBART)存在普遍相关,证明DMERT具有良好校标效度。动态微表情识别与已有研究静态微表情识别有显著差异,证明DMERT区分效度和生态效度良好。本研究开发的DMERT信效度良好,可以稳定有效地测量到动态微表情识别能力,为动态微表情提供操作性定义。颜文靖、吴奇、梁静、陈雨欣和傅小兰(2013)发现真实微表情与表情类似,可分为出现—高峰—消退的动态三阶段,只是时间更短(Yan et al.,2013)。本研究采用多个情绪唤醒度渐变的短暂静态表情作为动态微表情的近似,情绪唤醒度为1→2→3→2→1 和3→4→5→4→3,近似真实微表情的出现—高峰—消退的动态三阶段;每张微表情图片只呈现33.33ms,5张微表情图片组成动态微表情为167ms,处于微表情定义的1/25~1/2秒的时间范围内。颜文靖、吴奇、刘永进、王甦菁和傅小兰(2013)和颜文靖等(2014)采用实验室压抑-诱发范式,情绪材料与被试自我关联度较小,获得的动态微表情峰值的情绪唤醒度和面部肌肉变化都很小(Yan et al.,2013;Yan et al.,2014),这与真实微表情存在差异。本研究则采用5张情绪唤醒度渐变的短暂静态表情作为动态微表情的近似,设置了动态微表情峰值的两种情绪唤醒度,获得的动态微表情更接近真实微表情。

4.2 动态微表情识别能力处于较低水平

方差分析ANOVA发现,背景表情、微表情主效应都显著,背景表情×动态微表情的交互效应显著,表明背景表情、动态微表情和二者的交互都影响了动态微表情识别能力。DMERT无论在测验设计上,还是在统计结果上,都符合生态化微表情识别测验EMERT的定义(张剑心 等,2017;Yin et al.,2019;Yin et al.,2020;Yin et al.,2020;Zhang et al.,2020;Zhang et al.,2022),而且包括了出现—高峰—消退的动态三阶段(Yan et al.,2013;Yan et al.,2013;Yan et al.,2014),生态化程度更高,更近似真实微表情,因此是对已有EMERT的改进发展。

大部分小类动态微表情大于随机1/6;6大类动态微表情都大于随机;一般微表情识别正确率大于1/6,但小于0.5。说明没有经过训练,被试原初就有一定程度的动态微表情识别能力,但水平较低,比静态微表情识别能力低(Zhang et al.,2022;Matsumoto and Hwang,2011)。6大类动态微表情的标准差、一般微表情SM都大于0,这与方差分析得到的背景主效应显著的结果一致,表明背景效应的量化指标有效。可见42小类→6大类→一般动态微表情微表情识别能力的逐层提炼,既可以使得量化指标越趋概括简介,又能保留足够的信息(Zhang et al.,2022)。

5 结论

(1)动态微表情识别能力测验DMERT具有良好的信效度,为动态微表情提供操作性定义。

(2)被试具有一定程度的动态微表情识别能力,但水平较低。

参考文献

[1] 申寻兵,隋华杰,傅小兰.微表情在欺骗检测中的应用[J].心理科学进展,2017,225(2):211-220.

[2] 殷明,张剑心,史爱芹,等.微表情的特征、识别、训练和影响因素[J].心理科学进展,2016,24(11):1723-1736.

[3] 张剑心,路立,殷明,等.生态化微表情识别测验EMERT的建立——对JACBART微表情识别测验的改进与发展[J].心理学报,2017,49(7):886-896.

[4] Ekman P,Friesen W V.Pictures of facial affect[M].Palo Alto,CA:Consulting Psychologists Press,1976.

[5] Matsumoto D,Hwang H S.Evidence for training the ability to read microexpressions of emotion[J].Motivation and Emotion,2011(35):181-191.

[6] Matsumoto D,Leroux J,Wilsoncohn C,et al.A new test to measure emotion recognition ability:matsumoto and ekmans japanese and caucasian brief affect recognition test(JACBART)[J].Journal of Nonverbal Behavior,2000,24(3):179-209.

[7] Yan W J,Li X B,Jang S J,et al.CASME II:An Improved Spontaneous Micro-Expression Database and the Baseline Evaluation[J].PLoS ONE,2014(9):86041.

[8] Yan W J,Wu Q,Liang J,et al.How fast are the leaked facial expressions:The duration of micro-expressions[J].Journal of Nonverbal Behavior,2013(37):217-230.

[9] Yan W J,Wu Q,Liu Y J,et al.CASME Database:A Dataset of Spontaneous Micro-Expressions Collected From Neutralized Faces[M].10th Proc Int Conf Autom Face Gesture Recognit(FG2013).Shanghai,China:IEEE,2013.

[10] Yin M,Tian L C,Hua W,et al.The establishment of weak ecological microexpressions recognition test(WEMERT):An extension on EMERT[J].Frontiers in Psychology,2019(10).

[11] Yin M,Zhang J X,Liu D Z,et al.The Personality Influence Factors of Ecological Microexpressions Recognition and Natural Exposure Training Effect:Openness,Depression and Gender[J].Psychology and Behavioral Sciences,2020,9(4):37-43.

[12] Yin M,Zhang J X,Shu D M,et al.The relevant resting-state brain activity of ecological microexpression recognition test(emert)[J].PLoS ONE,2020,15(12):e0241681.

[13] Zhang J X,Yin M,Shu D M,et al.The Establishment of Pseudorandom Ecological Microexpression Recognition Test(PREMERT)and Its Relevant Resting-State Brain Activity[J].Frontiers in Human Neuroscience,2020(14):281.

[14] Zhang J X,Yin M,Shu D M,et al.The establishment of the general microexpression recognition ability and its relevant brain activity[J].Frontiers in Human Neuroscience,2022(12):894702.

[15] Zhu C L,Chen X Y,Zhang J X,et al.Comparison of ecological micro-expression recognition in patients with depression and healthy individuals[J].Frontiers in behavioral neuroscience,2017(11):199.

[16] Zhu C L,Yin M,Chen X Y,et al.Ecological micro-expression recognition characteristics of young adults with subthreshold depression[J].PloS one,2019,14(5).


Already have an account?
+86 027-59302486
Top