目标
一个live demo, 从摄像头获取视频,逐帧进行人脸检测,对每个检测到的人脸,输入一个表情分类器,输出分类结果。人脸检测使用现有的开源实现。人脸表情分类器使用现有的开源数据库和深度学习框架训练得到。
表情识别
1 图像输入
这里的输入图像在实际应用中通常是从视频中获得,如商店中的监控视频。在我们的研究工作中,输入的图像来自一些公开的表情数据集,如JAFFE,CK,NVIE,IMM,Recola,Semaine等。
2 人脸检测
表情识别中我们的研究对象是人脸,但通常在第一步中的输入图像中还包括了非人脸区域,所以我们需要使用人脸检测算法检测出我们感兴趣的人脸区域。人脸检测本身也是一个很热的研究点,但在表情识别中,这不是重点。
3 图像预处理
图像预处理的对象是第二步中得到的人脸图片。为什么需要预处理呢?图像的归一化!!因为在第二步中得到的人脸区域中,它们的大小、长宽比例、光照条件通常是不一样的,所以为了后续提取特征的统一处理,就需要将它们的尺寸、光照等进行归一化处理。
4 特征提取
计算机跟人不一样,人能一眼识别出表情,这对计算机来说却很难做到。通常计算机需要我们给它特征来区分不同的表情,所以我们应该选择区分度高的特征给计算机。这是表情识别中很关键的一步,对于特征提取方法的选择,前后有很多学者尝试了很多不同的特征,如LBP, Gabor, SIFT, DCT, FAP等等。
特征可以分为纹理特征和几何特征,从另一个角度也可以分为全局特征和局部特征。特征提取的好坏将直接影响后续的分类或回归结果。
5 模式分类/回归
该步骤是用机器学习算法对第四步得到的特征进行训练,训练完成后就会得到一个分类器或者回归器。这一步骤也是表情识别中很关键的一步,通常我们总是希望得到的分类器或回归器具有更好的预测能力,所以很多学者也尝试了用不同的机器学习算法来设计分类器,比较常见有SVM,KNN,NN(Neural Network),HMM,SVR,RVM等等。
6 识别结果
最后一步就是对表情进行识别,具体来讲就是把经过前面几步提取到的表情特征送入训练好的分类器或回归器,让分类器或回归器给出一个预测的值。
表情识别中的重点和难点是特征提取和模式分类/回归,已有的研究中的大部分创新基本上都集中在这两步,如特征提取中采用多特征融合,预测时采用决策级融合等。
转载自:http://blog.csdn.net/computerme/article/details/39371557
https://blog.csdn.net/zwx2445205419/article/details/79086288
https://web.kamihq.com/web/viewer.html?source=extension_pdfhandler&file=https%3A%2F%2Farxiv.org%2Fpdf%2F1802.06664.pdf