您的当前位置:首页正文

深度学习在图像处理领域的研究

2023-06-11 来源:步旅网
ACADEMIC RESEARCH 学术研究 >≥ 深度学习在图像处理领域的研究 ◆侯字昆 一、卷积神经网络简介 不同的GPU上使用相同的数据进行训练,得到的结果直接连 接作为下一层的输入。 卷积神经网络(Convolutional Neural Network,CNN)是一种 2.4采用了新函数的模型。按照函数的类型,其模型又可 前馈神经网络,通过权值共享等方式降低了网络的复杂性, 由此可以进行深层次的特征学习,目前CNN的主要应用:音 频处理,图像处理、自然语言处理,检索,识别等方面。CNN 特点是局部感受,权值共享,空间或时间采样。结构一般为 卷积层,特征采样层,最后为全连接层。 二、卷积神经网络模型 由于卷积神经网络在图像领域的优异表现。许多学者致 力于对传统的卷积神经网络改进,期望其取得良好的表现。 按照改进方式,可以将现有的模型分为:数据预处理后的模型, 将各层特征融合的模型,采用多GPU并行结构训练的模型, 采用了新函数的模型。 2.1数据预处理后的模型。传统的CNN数据的输入是将 整个图像的像素作为输入,这种未将图进行处理的输入,数 据混入了当量的噪声。所以有研究者对图像数据进行预处理, 以期望这种预处理过的数据能作为好的图像表征。SuperCNN 是一种用来做图像显著性检测的卷积神经网络。首先把图像 区域的具有相似特征的像素聚合成一个小区域,即对图像进 行了超像素分割;然后从这些分割后的区域提取两个特征序 列,颜色序列和颜色分布序列;将此序列作为网络的输入, 且是三个通道的输入;最后经此网络的学习得到了一个平滑 的特征图谱。 2.2将各层特征融合的模型。当图像(或特征)输入卷积 神经网络之后,开始在网络结构中进行层层映射,每一层都 是一个特征。传统卷积神经网络只将最后一层网络输出作为 整个神经网络的深度特征提取结果。Wang 提出一种层间特 征融合的思想用于解决年龄分类问题。在输出特征提取结果 时,不仅仅只采样最后一层的映射输出,而是将图像在深度 网络中每一层的特征经过降维后都进行输出,将其融合,最 后得到一个融合的多层深度特征。这个融合的特征用来分类。 2-3采用多GPU并行结构训练的模型。由于卷积神经网 络的深层结构,带来了大量的参数,若是在传统的CPU上训 练,会耗费大量的时间。为此现在的学者采用了多GPU并行 训练的方式。Alex Kfizhevsky提出的ImageNet中采用了2-GPU 并行结构,即第1、2、4、5卷积层都是将模型参数分为2部 分并行训练在不同的GPU上,将若干层的模型参数进行切分, 以分为两类:采用了新的映射函数和对采用了新的误差函数 的模型。 2.4.1非线性映射函数改进。在CNN每个映射层之后其结 果都会经过一个映射函数处理,一般采用sigmoid函数或tanh 双曲正切函数。有研究者发现使用ReLU时误差函数的收敛速 度会比sigmoid和tanh快很多,因此现在大部分的卷积神经网 络将ReLU函数作为映射函数。DCNN中将卷积神经网络用于 对韩文字体的识别,模型的最大池化层使用这种函数,公式 (2一1)是ReLU函数. 1厂( )=max(0, ) (2一1) 2.4.2误差函数。对于分类问题,网络的最后往往使用 softInax分类层,分类层的输出与真实值之间的差距应该最小, 这样才能将网络用于训练。对网络的参数训练即是将这种误 差函数收敛,而一般使用误差平方和函数,DCNN而使用了一 种交叉熵作为误差函数。设有个c个类sofimax分类层的c个 节点作为每个类的概率预测,其值为,而正确的输出应是, 第N个样本的误差函数为公式(2—2): E=一∑d。log(xN) (2—2) 三、总结 卷积神经网络这种深度学习模式,被越来越多的研究者 证实,提取出来的抽象特征有利于图像识别。所以研究者对 这一学习方式改进试用不同的场合,由此产生了不同的卷积 神经网络的模型。∞ 参考文献 [1]Shengfeng He,Ryn sonW H Lau1,Wenxi Liu SuperCNN: A Superpixelwise Convolutional Neural Network for Salient Object Detection,2014. [2]Wang Xiaolong,Guo R ui,Kambhamettu C.Deeply—leamed feature for age estimation 2015 IEEE Winter Conference on Apphcafons of Computer Vision(WACV),Waikoloa,HI,USA,2015:534—541 (校级创新项目编号:YCXl654) (作者单位:北方民族大学) 信息系统工程I 2017 7 2O 1 63 

因篇幅问题不能全部显示,请点此查看更多更全内容