基于粗糙集理论的神经网络算法研究与应用文献综述

 2023-10-25 11:10

文献综述

(一)课题研究的现状及发展趋势

1982年,波兰数学家Z.Pawlak提出了粗糙集理论,粗糙集理论能有效地对各种不完备信息进行分析和处理,是一种强大的处理不精确、不完备和模糊知识的数据分析工具,它对数据属性进行约简的前提条件是保留关键信息,然后求出规则(知识)的最简表示,并能从经验数据中获得容易被验证的规则(知识),发现内在的规律,从而为利用粗髓集方法进行数据分类提供理论基础。因此,对于粗髓集的研究主要集中在属性约简和规则的提取上。但是粗糙集也存在对噪声数据的敏感性的限制,需要将粗糙集与其他智能方法相结合来研究。

早在1943年,心理学家W·Mcculloch和数理逻辑学家W·Pitts首次提出神经元的数学模型(M-P模型),并且一直沿用至今,影响最为深远的是误差反传算法及其网络模型(BP神经网络)的提出。神经网络具有自组织、自学习、自适应、容错性、大规模并行处理以及联想记忆等特点,并被广泛应用于许多科学研究领域,如模式识别,图像识别,数据压缩等。但是,传统的神经网络也存在着很多问题,如易陷入局部极小,训练时间较长,过拟合等问题,为了解决以上问题,许多优化算法被引入到神经网络权值的学习和结构的自动设计中,但是在处理和分析数据时存在训练时间长、学习效率低下及泛化能力差等问题,而这些问题目前仍然没有较好地解决。

(二)研究的意义和价值

在实际处理数据的过程中发现,如果仅仅使用粗糙集来处理数据,不足以克服粗糙集对噪声数据敏感的缺点;如果仅仅使用人工神经网络来处理数据,不能够克服由于数据规模大而导致的训练时间过长、收敛速度慢的缺点。综合两者的优缺点,若将两者结合起来,会形成优势互补,达到双赢的结果,用粗糙集的属性约简对高维度的数据进行预处理,除去冗余属性,从而降低数据的维度,再用神经网络对数据进行训练和学习,会大大减少训练的时间,提高训练的效率,且使得预测结果也更加准确。

(三)参考文献

[1]鲍迪, 张楠, 童向荣, 等. 区间值决策表的正域增量式属性约简算法[J/OL]. 计算机应用:1-10[2019-05-06].http://kns.cnki.net/kcms/detail/51.1307.TP.20190417.1753.004.html.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。