面向资源受限设备的深度学习主存占用改善方法文献综述

 2022-11-26 02:11

背景:

深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向,它被引入机器学习的领域中,使其更加接近其最初的目标——人工智能(AI, Artificial Intelligence)。

深度学习意在让机器学习样本数据的内在规律和表示层次。它的最终目标是让机器能够像人一样具有分析和学习能力,进而能够识别文字、图像和声音等数据。深度学习使机器模仿视听和思考等人类的活动,解决了很多复杂的模式识别难题,使得人工智能相关技术取得了很大进步。

深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。在学习的过程中所获得的信息,对诸如文字、图像和声音等数据的解释也能够提供相当大的帮助。不仅如此,深度学习在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术,以及其他相关领域都取得了很多成果。

然而,深度学习在嵌入式设备上实施的时候,由于计算资源和存储资源有限,移动端将难以承载并运行较大规模的网络模型。

为解决此问题,准备设计一种面向资源受限设备的深度学习主存优护方法,以解决深度学习部署时,主存资源不足的问题。该方法根据嵌入式系统应用需求特点,在保证深度学习结果精度的同时,降低主存开销。针对典型深度学习模型,实施并验证所提出方法的有效性

国内外研究现状:

深度学习是人工神经网络的一个分支,具有深度网络结构的人工神经网络是深度学习最早的网络模型。

1943年,美国数学家沃尔特·皮茨(W.Pitts),与同为美国人的心理学家沃伦·麦克洛克(W.McCulloch)首次提出了人工神经网络这一概念,并使用数学模型对人工神经网络中的神经元进行了理论建模,开启了人们对人工神经网络的研究 [1]。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。