tjy/Emotion/FacialEmotion
PEAandDA ff11a09b8b 代码迁移 2024-06-20 18:22:33 +08:00
..
logs 代码迁移 2024-06-20 18:22:33 +08:00
README.md 代码迁移 2024-06-20 18:22:33 +08:00
best.pth 代码迁移 2024-06-20 18:22:33 +08:00
class_indices.json 代码迁移 2024-06-20 18:22:33 +08:00
model.py 代码迁移 2024-06-20 18:22:33 +08:00
model_config.py 代码迁移 2024-06-20 18:22:33 +08:00
my_dataset.py 代码迁移 2024-06-20 18:22:33 +08:00
predict.py 代码迁移 2024-06-20 18:22:33 +08:00
predict_api.py 代码迁移 2024-06-20 18:22:33 +08:00
train.py 代码迁移 2024-06-20 18:22:33 +08:00
transformer.py 代码迁移 2024-06-20 18:22:33 +08:00
unfold_test.py 代码迁移 2024-06-20 18:22:33 +08:00
utils.py 代码迁移 2024-06-20 18:22:33 +08:00
video.py 代码迁移 2024-06-20 18:22:33 +08:00

README.md

基于视觉的表情识别系统

该项目是一个基于图像的表情识别系统。它使用MobileViT在人脸表情数据集上进行训练,然后可以从摄像头输入的视频中检测人脸,并为每个检测到的人脸预测表情类型共支持8类表情。

核心文件

  • class_indices.json: 包含表情类型标签和对应数值编码的映射。
  • predict_api.py: 包含图像预测模型的加载、预处理和推理逻辑。
  • video.py: 视频处理和可视化的主要脚本。
  • best.pth: 训练的模型权重文件。

使用方法

  1. 确保已安装所需的Python库,包括opencv-pythontorchtorchvisionPillowdlib
  2. 运行video.py脚本。
  3. 脚本将打开默认摄像头,开始人脸检测和表情预测。
  4. 检测到的人脸周围会用矩形框标注,并显示预测的表情类型和置信度分数。
  5. q键退出程序。

模型介绍

该项目使用MobileViT作为基础模型,对人脸表情图像数据集进行训练,以预测人脸图像的表情类型。模型输出包含8个值,分别对应各表情类型的概率。

数据集介绍

该项目使用的表情图像数据集来自网络开源数据数据集包含35887张标注了皮肤病类型的人体皮肤图像。

算法流程

  1. 人脸检测: 使用Dlib库中的预训练人脸检测器在视频帧中检测人脸。
  2. 预处理: 对检测到的人脸图像进行缩放、裁剪和标准化等预处理,以满足模型的输入要求。
  3. 推理: 将预处理后的图像输入到预训练的Mobile-ViT模型中,获得不同表情类型的概率预测结果。
  4. 后处理: 选取概率最高的类别作为最终预测结果。
  5. 可视化: 在视频帧上绘制人脸矩形框,并显示预测的表情类型和置信度分数。