基于全卷积网络FCN的图像处理
摘 要 基于深度神经网络的学习是目前计算机领域的热门话题。全卷积网络在图像处理、语义分割方面有着广泛的应用。在暗光条件下,受到低信噪比和低亮度的影响,图片的质量会受到很大的影响。目前,很多关于去噪、去模糊、图像增强等技术的研究已被相继提出,但是在一些極端条件下,这些技术的作用就很有限了本文网络实现的核心观点是,介绍全卷积神经网络,利用全卷积神经网络进行图像处理以及网络的训练过程。
关键词 神经网络 图像处理 语义分割
中图分类号:TP391 文献标识码:A
0引言
近年来,随着互联网的迅猛发展而产生的大量数据以及计算机硬件的飞速发展和各种机器学习算法的不断优化,基于神经网络的深度学习在计算机视觉及图像识别分类、自然语言处理、语音识别等领域成果卓著。全卷积神经网络作为深度学习的一个重要部分,以其独特的结构优势,在图像处理方面取得了广泛的应用。
1全卷积网络FCN
卷积网的每层数据是一个h*w*d的三维数组,其中h和w是空间维度,d是特征或通道维数。第一层是像素尺寸为h*w,颜色通道数为d的图像。高层中的位置和图像中它们连通的位置相对应,被称为接收域。
卷积网是以平移不变性作为基础的。其基本组成部分(卷积,池化和激励函数)作用在局部输入域,只依赖相对空间坐标。在特定层记Xij为在坐标(i,j)的数据向量,在下一层中有Yij,Yij的计算公式如下:
其中k为卷积核尺寸,s是步长或下采样因素,fks决定了层的类型:一个卷积的矩阵乘或者是平均池化,用于最大池的最大空间值或者是一个激励函数的一个非线性元素,亦或是层的其他种类等等。当卷积核尺寸和步长遵从转换规则,这个函数形式被表述为如下形式:
当一个普通深度的网络计算一个普通的非线性函数,一个网络只有这种形式的层计算非线性滤波,我们称之为深度滤波或全卷积网络。FCN理应可以计算任意尺寸的输入并产生相应(或许重采样)空间维度的输出。
2训练网络
2.1数据集获取
室外场景下,相机的亮度一般在0.2 lux 和5 lux 之间。室内图像通常更暗。在室内场景中的相机亮度一般在0.03 lux 和0.3 lux 之间。输入图像的曝光时间设置为1/30和1/10秒。在每个场景中,相机设置 (如光圈,ISO,焦距和焦距) 进行了调整,以最大限度地提高参考图像(长曝光时间)的质量。
2.2模型训练
使用 L1 损失和 Adam 优化器,开始训练网络。在训练过程中,网络输入是原始的短曝光图像,在 sRGB 空间中的真实数据是相应的长曝光时间图像(由一个原始图像处理库 libraw 处理过得参考图像)。然后为每台相机训练一个网络,并将原始图像和参考图像之间曝光时间的倍数差作为放大因子(例如,x100,x250,或x300)。在每次训练迭代中,随机裁剪一个512?12的补丁用于训练并利用翻转、旋转等操作来随机增强数据。初始学习率设定为0.0001,在2000次迭代后学习率降为0.00001,训练一共进行4000次迭代。
2.3实验结果
在本次实验中,通过网络训练最终得出实验结果,可以看到经过4000次迭代的图像清晰可见。如图1所示:
3损失函数
L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓“惩罚”是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型建叫做Lasso回归。本文评估了几个损失函数后最终采用L1损失函数,L1正则化有助于生成一个稀疏权值矩阵。公式如下:
4总结
由于图像低光子数和低信噪比的影响,快速低光成像系统是一个艰巨的挑战。黑暗中快速成像系统更是被认为是一种不切实际、与传统的信号处理相悖的技术。基于 FCN 模型结构,通过端到端训练,改善了传统的处理低光图像的方法。实验结果表明该方法能够成功抑制噪声并正确地实现颜色转换,表现出较好的性能,并展现了该领域不错的研究前景。
作者简介:秦瑜(1991—),女,汉,河南省三门峡市,长安大学硕士研究生,基于全卷积网络FCN的图像处理。
参考文献
[1] Eigen,D.&D. Krishnan, and R. Fergus. Restoring an imagetaken through a window covered with dirt or rain[J].In Com-puter Vision (ICCV), 2013 IEEE International Conferenceon,2013:633-640.
[2] Matan,O.&C. J. Burges&Y. LeCun&J. S. Denker. Multi-digit recognition using a space displacement neural network[J].In NIPS,1991:488-495
[3] Krizhevsky,A.&I.Sutskever&G. E. Hinton. Imagenetclassification with deep convolutional neural networks[J]. InNIPS, 2012.
[4] Zeiler,M.D.&R.Fergus.Visualizing and understanding convolutional networks[J].In Computer Vision-ECCV ,2014:818-833..
[5] Long,J.&E.Shelhamer&T. Darrell. Fully convolutionalnetworks for semantic segmentation[J].In CVPR, 2015.