面部表情分析系统

数据收集

面部表情分析系统的分析步骤

  1. 面部定位 – 应用Viola-Jones 算法对人脸的准确位置进行识别。
  2. 面部建模 – 应用“主动外观模型”进行面部建模,模型可描述面部500多个关键点的位置及面部特征。将建模结果与Deep Face算法的结果相结合,从而实现更高的分类精度。当面部建模不成功时(例如,当一只手遮住嘴部,但两只眼睛都可以被发现时),系统将通过深度学习的Deep Face算法进行分析。
  3. 面部分类 – 输出结果包括7种表情(快乐,悲伤,愤怒,惊讶,害怕,厌恶和轻蔑)和一个“中立”状态。

 

为了帮助您节省分析视频的宝贵时间和精力,面部表情分析系统会自动分析:

    1. 嘴巴张开-闭合
    2. 眼睛睁开-闭合
    3. 眉毛上扬-自然-降低
    4. 头部朝向
    5. 视线方向
    6. 个人特征:性别,年龄,面部毛发(胡须等)
您还可以根据需要手动添加其他变量。

设置您的自定义表情

您可以通过组合面部表情分析系统可识别的 动作单元 来自定义面部表情或心理状态。此外,也可以在自定义表情时使用效价,唤醒度,头部朝向(AU51-56),心率和心率变异性。

自定义表情功能的应用范围十分广泛,例如:

  • 通过将AU 6 和AU 12*结合,定义“杜乡微笑”(真正的微笑)
  • 通过AU 1、5、25和26*的组合来分析积极情绪“敬畏”
  • 根据AU4、6、7、9、10、25、26、27、43*进行与疼痛有关的研究
  • 更改表情的名称,例如用“微笑”代替“高兴”
  • 测量表情的强度
  • 测量一些常用的情绪状态,例如感兴趣,无聊,困惑等,都已经在购买动作单元时被设置好作为例子提供使用参考

*如果您对测试或验证这些内容有兴趣,请与我们联系。如果您已经开发了自己的自定义表情,并希望与其他研究人员分享,请联系我们!

被试的情绪分析

面部表情分析系统可以将被试的面部表情可视化为条形图、饼状图和折线图。情绪环形模型可以体现情绪的负性或正性(效价)。通过时间轴,可对数据进行详细的可视化再现。

面部表情分析系统会在单独的报告窗口中显示带有百分比的饼状图,笑脸和信号灯,说明一个人的情绪是正面、中立还是负面。系统会实时提供所有可视化数据,并且支持反复查看数据。在项目分析模块中,系统可以提供高级的面部表情分析。

深度学习:在充满挑战的情况下分析面部表情

通过使用Deep Face模型分类引擎,面部表情分析系统可以处理大量复杂的数据。

Deep Face模型应用了深度学习,它基于人工神经网络,在输入和输出之间建立多个卷积层,计算每个输出结果的概率。

目前,Deep Face模型是机器学习中一项成功的人工智能技术。像真实的神经网络一样,输入端的信息由与之相连的神经元收集和处理,输入到输出的映射通过一系列非线性计算,将较低级别的信息汇总以形成较高级别的功能。(例如表达的情感,年龄,性别等)。

隐私政策与道德声明

面部表情分析系统的现场安装过程会遵守严格的保密协议。例如,在分析过程中,软件为您提供了不记录被试面部的选项,选中该选项,软件仅从与身份识别无关的面部记录中获取元数据,包括面部表情,头部姿势,年龄和性别等。

面部表情分析系统是用于科学研究的软件工具,无法进行面部或身份识别,因此不适用于监视目的。想要了解更多详细信息,请参阅我们的 道德声明隐私政策