照片vs素描多视图特征提取与识别文献综述

 2022-07-15 06:07

《照片VS素描多视图特征的提取与识别》文献综述

引言

21世纪是信息高速发展的智能时代,模式识别(Pattern Recognition,PR)[1-2]得到了巨大发展,成为人们研究的热点领域。模式识别为信息科学、图像处理、人工智能学习以及计算机视觉等学科提供了一定的技术支持,它通过计算机实现对各种形式的事物或现象进行处理分析、描述、识别、分类和解释的过程。近几十年来,随着科学技术的发展,尤其是计算机技术突飞猛进,人们获取的数据维数普遍过高,高维数据的特征提取成为模式识别中必不可少的一个关键环节,从上世纪中叶起,研究学者们就开始这方面的研究,提出了许多理论和方法,积累了大量的研究成果。今天,模式识别已扩展到于文字识别、遥感、图像检索、生物认证、医学诊断、数字挖掘等领域,为人们带来了很大的益处。

在现实生活中,普遍存在这一现象:对于同一个对象的刻画,可以被不同类型的数据信息所表示。比如在自然语言理解问题中,同一语义对象,可用不同语言来表达;一个人的身份可以通过指纹或者人脸识别;互联网上的网页信息可由文本数据、相应的图片以及超链接三者反映某个共同的主题;在计算机视觉应用中,从多个角度拍摄人脸或物体可以得到多姿态的图像,可见光成像或者近红外成像可以使我们得到多光谱的图像,对于一副图像也可用颜色、形状和纹理等描述来刻画,从而也能使我们得到多种类型的数据,这些数据经常被称为多视图数据。由于多视图相较于单视图而言,多视图本身含有丰富的信息,学习性能优于单视图,因此目前的多视图特征提取方法已经成为模式识别领域的重点研究内容之一,多视图特征提取方法旨在充分利用不同的视图之间特性(即关联性和互补性)提取出有效的特征,从而可以改善目标任务的学习性能。因此,近年来在模式识别领域中,多视图学习已经成为比较活跃的一个研究方向。

一个典型的模式识别系统主要由四个环节组成,即信息获取、预处理、特征提取、分类识别(如图1.1所示)。作为模式识别系统分类器设计环节中的一个重要组成部分,支持向量机是根据有限的样本信息在模型的学习能力(即无错误地识别任意样本的能力)和复杂性(即对特定训练样本的学习精度)之间寻求最佳折衷,不仅期望较好的分类精度,而且能获得良好的推广能力。它以结构风险最小原理和统计学习理论为基础。本文将支持向量机分类技术应用于多视图的模式识别具有一定的先进性和研究价值。

2.特征提取

随着数据采集和存储技术的发展,海量的数据信息,内容丰富却复杂,为了能够在庞大的数据中获取到直接有效的特征,进行识别分类,特征提取已经成为模式识别中必不可少的工具之一。特征提取,即在庞大的原始特征中获取最有效的、最重要的特征, 在不丢失原始数据的可识别信息的情况下,实现降低特征空间维数,辅助进行有效分类的目的。目前有许多特征提取方法,其中最经典的是主成分分析[3]-[4](Principal Component Analysis,PCA)和线性鉴别分析[5](linear discriminant analysis,LDA)。PCA最初是由K.Person在1901年提出的,通过求解投影矩阵并对投影矩阵进行变换,提取最佳特征,去除冗余特征以及不相关特征,降低原始复杂数据的维数,进一步辅助分类识别过程。但是PCA忽略了原始数据样本的类内和类间结构,这导致数据分类效果并不是最佳的。1936年,Fisher提出的LDA克服了这一问题,它在对原始数据进行降低特征空间维数后,考虑到同类别数据的投影点应尽可能的接近,同时最大化不同类别的数据的类别中心之间的距离。随后,众多研究者在PCA方法的基础上进行了深入研究,新的方法被进一步提出,比如Yang[6]等人将PCA应用到图像处理中提取数据特征提出了二维主成分分析方法(Two-Dimensional PCA,2DPCA)。受到2DPCA的思想启发,对LDA在二维矩阵模式下进行变换,Li[7]等人提出了二维线性判别分析(Two-Dimensional LDA,2DLDA),直接利用基于Fisher准则函数从特征空间的图像数据矩阵提取特征。在模式识别领域中,由于我们目前处理的数据大多数是多视图数据,为了能将视图间的特征联合起来,接着进行高效地鉴别分类。许多有效的多视图特征提取方法开始涌现出来,有人提出了一种多元统计分析方法,用于研究两个变量(可以理解为两个视图)之间相关关系。Foster[8]等人首先提出了用于研究两个视图的方法---典型相关分析(Canonical Correlation Analysis,CCA),它主要是创建在两组变量之上,CCA是PCA在多视图的扩展。在CCA的基础上,Ketterning[9]实现了多视图典型相关分析(Multi-view Canonical Correlation Analysis,MCCA),MCCA的基本思想是寻找多个视图的线性变换,并对每个视图的样本数据进行投影,使得投影向量之间的相关性达到最大。然而,MCCA没有考虑有区别的信息,这可能不利于跨视图的分类。于是广义多视图分析(GMA)[10]框架被提出,在该框架中引入了监督信息,得到了一个判别公共子空间。GMA虽然可以得到一个判别公共子空间,但它只考虑了视图内的判别信息,而忽略了视图间的判别信息。其他一些方法试图分解每个视图的变化。2016年,Kan[11]等人提出了一种多视图判别分析(MvDA)方法,同时考虑了视图之间和视图内部的变化,是通过优化广义瑞利商问题,即在公共空间中,最大化类间的变化,最小化类内视图和视图之间的变化。将该问题重新表述为比值跟踪问题,通过广义特征值分解,实现了多重线性变换的分析和同步,同时通过引入了一个约束来强制多个线性变换的视图一致性,取得令人满意的结果。

上述所提到的算法在某种情况下取得了显著的成果,但其目标函数几乎都是通过L2范数的平方来求解数据样本的最优投影向量,L2范数中的平方运算使得异常值占据主导地位,因为基于L2范数的方法对异常值非常敏感,容易降低算法的灵活性。相比L2范数,L1范数[12-14]在提高鲁棒性方面更具优势,因此诸多基于L1范数的方法被提出,例如与L1 范数结合的主成分分析(Principal component analysis based on L1-norm optimization ,PCA-L1)[15]、基于L1 范数距离的线性判别分析(L1- LDA) [16] 、基于L1范数的局部主成分分析(LPCA-L1)[17]、基于L1范数距离的二维主成分分析(2DPCA-L1)[18]等等。基于 L1范数的特征提取算法已经取得了一些进展,从而使得最终对于含噪声任务学习特征提取的准确率有所上升。于是,Wright[19]等人提出一种鲁棒主成分分析(RPCA)模型,尽可能克服异常值的消极影响,与传统的PCA不同,鲁棒性主成分分析具有稀疏性,其目标函数采用 L1范数且投影向量受 Lp 范数约束,Lp范数约束下的主成分分析算法的鲁棒性是优于上述算法。相关文献表明[20-22],Lp范数距离度量对于提高鲁棒性是一个更好的选择,通过同时进行Ls范数距离最大化和Lp范数距离,重新设计了一种灵活的线性判别分析最小化(FLDA-Lsp) [23], 解决了一种新的更有效的求解目标的迭代算法,做出了卓越的贡献,这项研究的结果显示了Lp范数距离度量的收敛性和优越性。

3. 支持向量机

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。