基于离散余弦变换和稀疏表示的人脸识别.doc基于离散余弦变换和稀疏表示的人脸识别摘要: 传统的基于稀疏表示的人脸识别方法是基于人脸的整体特征的, 这类方法要求每位测试者的人脸图像要有足够多幅, 而且特征维度高, 计算复杂, 针对这一问题, 提出一种基于离散余弦变换和稀疏表示的人脸识别方法, 对人脸图像进行分块采样, 对采样样本使用离散余弦变换和稀疏分解,然后使用一种类似于词袋的方法得到整幅图像的特征向量, 最后使用相似度比较的方法进行分类识别。实验表明, 在此提出的方法比传统的基于稀疏表示的人脸识别方法在训练样本较少时效果更好。关键词: 人脸识别; 离散余弦变换; 稀疏表示; 词袋; 局部特征中图分类号: TN919?34; 文献标识码: A 文章编号: 1004?373X ( 2015 ) 06?0115?04 Face recognition based on DCT and sparse representation WANG Guang?liang , GUO He?fei ( School puter Science and Engineering , Nanjing University of Science and Technology , Nanjing 210094 , China ) Abstract : Traditional face recognition methods based on sparse representation are based on holistic feature of face image. The methods requires enough face images for each test person and the high dimensional feature , and plexity. Aiming at these ings ,a face recognition method based on discrete cosine transform ( DCT ) and sparse representation is proposed , which divides an image into regions , samples in each region , poses the samples by DCT and sparse representation , gets feature vector of the whole image with a method like bag?of?word , and then classifies and identifies them by paring method. The experiment results indicate that the method outperform the traditional face recognition methods based on sparse representation when there are few training samples. Keywords : face recognition; discrete cosine transform; sparse representation; bag?of?word; local feature 0引言人脸识别一直是计算机视觉领域非常热门的研究课题之一, 有效的人脸识别技术可以应用于社会生活的方方面面,比如公共安全、考勤门禁、人机交互等。近年来, 学者们提出了很多人脸识别的方法, 但是要建立起一个能够在现实环境中进行自动人脸识别的系统还是面临着诸多颇具挑战性的问题[1] , 比如光照变化、表情变化、镜头角度变化、物体遮挡[2] 等。近年来, 人脸识别的方法层出不穷, 其中一类是将信号处理领域常用的稀疏表示的方法应用到人脸识别: Wright 等人在文献[3] 中提出了一种基于稀疏表示的分类方法( Sparse Representation based Classification , SRC ), 并将此方法应用于人脸识别。 SRC 方法的主要思想是将测试图片用字典原子的稀疏线性组合进行表示,然后对于各个类别, 分别只用该类的字典原子对原图像进行重构, 将重构残差最小的那一类作为测试图片的类别。后来有一些学者对这种分类方法进行了改进, Yang 和 Zhang 提出了基于 Gabor 特征的 SRC ( GSRC ) [4] , GSRC 比原始的 SRC 对光照变化和较小的角度变化更加鲁棒;Yang 等人还提出了一种鲁棒稀疏编码( Robust Sparse Coding , RSC ) [5] 的方法,这种
基于离散余弦变换和稀疏表示的人脸识别 来自淘豆网m.daumloan.com转载请标明出处.