基于同态滤波的图像去雾方法毕业论文


     XX大学 本科毕业设计(论文) 题 目: 基于同态滤波的图像去雾方法 指导教师: 专业班级: 学 号: 姓 名: 日 期: 20XX年X月X日 基于同态滤波的图像去雾方法 摘 要 在雾霭等天气条件下获得的图像,模糊不清、颜色失真,影响视觉效果。因此有必要对图像进行去雾研究。图像去雾是通过一定的手段去除图像中雾的干扰,达到快速有效的去雾和清晰度恢复的作用,从而得到高质量的图像。 图像去雾的方法众多,同态滤波是一种在频域中进行的图像对比度增强和压缩图像亮度范围的特殊滤波方法。这种方法能减少低频并增加高频,即尽量保留低频中的灰度级(保存图像原貌),又锐化细节,从而达到去雾的效果。 本文把基于同态滤波的去雾算法,与全局均衡化的图像去雾算法等方法进行对比,借鉴其他算法的优点,优化同态滤波算法,使图像去雾效果更加理想。实验结果表明,同态滤波能较好的锐化细节,同时保持原图概况。若要使图片达到更好的清晰度,需结合多种算法,叠加运行。 关键词:图像去雾;图像增强;同态滤波;直方图均衡化 Image defog method based on the method of image filterin Abstract The image obtained in bad weather conditions such as fog, blur, color distortion, visual effects.Therefore, it is necessary to study images defogging.Images defogging is through a certain means of removing fog interference and achieve rapid recovery of fog and clarity of role, resulting in high quality images. Homomorphic filtering is an image in the frequency domain of contrast enhancement and special filtering method of image brightness range, homomorphic filtering can reduce the frequency and increase the frequency, that is, try to keep the low frequency of gray levels (save the original image) and sharpen details, so as to achieve the effect of fog. This fog based on homomorphic filtering method, and global equalization algorithm for images defogging method compares the advantages of other algorithms, optimizing the homomorphic filter algorithm, making the image to fog effect is more ideal. Experimental results show that the homomorphic filtering can be used to sharpen detail, while keeping the original profile. To make the image better definition, should be combined with a variety of algorithms, stacking operation. Key words: image, image enhancement, image enhancement, image enhancement, image enhancement, histogram equalization. 目录 1 引言 1 1.1 课题研究的背景和意义 1 1.2 图像去雾的研究历史和发展现状 2 1.3 本文主要研究内容和结构安排 3 1.3.1 本文主要研究内容 3 1.3.2 本文结构安排 3 2 图像去雾概述 5 2.1 图像去雾的概念 5 2.2 图像去雾的分类 5 2.2.1 基于物理模型的方法 6 2.2.2 基于非物理模型的方法 8 2.3 图像去雾的应用 12 3 基于同态滤波的图像去雾方法 13 3.1 同态滤波概念与定义 13 3.2 同态滤波的原理 13 3.3 同态滤波的操作的基本流程 13 4 实验结果 18 4.1 灰度版 18 4.2 彩色版 20 4.3 实验结果分析与评价 22 5 评价与改进 24 5.1 直方图 24 5.2 暗通道 26 5.3 改进 29 5.3.1 红外处理 29 5.3.2 红外与同态滤波结合优化 29 5.3.3 实验结果图 30 结论 31 致谢 33 参考文献 34 附录 37 外文资料翻译及原文 48 1 引言 图像去雾是图像处理中一个不可缺少的环节,在遥感、航拍、水下图像分析、户外视频、日常照片、处理等诸多方面有着广泛应用。本章对图像去雾的技术进行介绍,并着重阐述基于同态滤波的图像去雾方法,深入研究了基于同态滤波的图像去雾方法,对雾天退化图像的增强进行了实验验证。同时也增强了雾天降质图像的对比度和色彩保真度,提高了户外成像系统在雾霭等天气下工作的稳定性和可靠性。本章简要介绍了图像去雾处理的背景与意义,图像去雾的国内外研究现状,并给出了本文的主要研究内容。 1.1 课题研究的背景和意义 众所周知,雾和霾是一种常见的天气现象,在雾霾条件拍摄的图片就不是很清晰,因此有必要对图像进行去雾研究。图像去雾技术是通过一定的手段去除图像中雾的干扰,从而得到高质量的图像,以便于得到满意的视觉效果并获取更多有效的图像信息。图像去雾技术是图像处理领域一个重要的研究分支。因其具有跨学科、前沿性以及应用前景广阔等特点,而备受国内外的大批研究者的关注,目前已成为计算机视觉和图像处理领域的研究热点。同时作为一门新兴学科,由于去雾问题涉及到天气条件的随机性与复杂性,使得人们研究的起步比较晚,只有二十年的研究历程。目前虽然有新方法大量涌现,但几乎每一种方法都有一定的局限性,也都处于不断的发展中。一些己取得的研究成果虽然在某一方面得到大家的认可,但还是需要完善和改进。因此,为提高雾天退化图像的质量,需要寻找有效的办法来减少或去除雾的影响。 1.2 图像去雾的研究历史和发展现状 图像去雾技术一个跨学科的前沿性课题,具有广阔的应用前景,近几年来已经成为计算机视觉和图像处理领域研究的热点问题之一,吸引了国内外很多研究人员的兴趣。该技术主要应用于计算机视觉的初级阶段,是目标检测与跟踪、目标分类与识别、目标行为分析与理解等中、高级阶段的基础。 图像去雾技术的研究工作开展较晚,尽管国内外研究机构已经取得了一定的研究成果,然而仍有待完善。研究最早可追溯到1992年L.Bissonnette等人针对雾和雨天气下所做的图像去雾处;随后,John P.Oakley等人针对恶劣天气下航拍降质彩色图像进行了去雾处理,并取得一定的研究成果。后来,McCartney对不同天气条件下大气粒子的类型、大小和浓度进行了研究。Nayar和Narasimhan对大气粒子的类型、大小和浓度造成各种天气的成因进行了简单分析。Garg等人提出雨滴动力学模型,利用模型约束来区分雨和其他类型的信号,有效地检测并去除复杂场景中的雨滴。 与国内相比,国外的研究工作开展较早,且研究机构较多。在国外著名的研究机构中,美国国家航空航天局(NASA)的Langley研究中心(LRC)深人研究基于邻域(surround-based)的Retinex算法,对雾、烟、水下和夜晚图像进行增强,并将其算法嵌人DSP便携式图像增强视觉系统中,处理分辨率为256×256的灰度图像可达到30帧/s,基本满足实时性的要求;哥伦比亚大学的计算机视觉实验室研究如何利用不同天气条件下同一场景的多幅图像来恢复清晰图像,并建立了不同天气条件下同一场景的 WILD(Weather and Illumination Database)数据库;以色列的联合成像实验室;研究基于偏振滤波的方法,该方法对大气成像和水下成像均适用;曼彻斯特大学电气和电子工程学院的传感、图像和信号处理组在图像对比度恢复方面进行了长期的研究,英国Dmist公司在此研究基础上开发了商业产品C1earVue。 在国内的研究机构中,微软亚洲研究院与香港中文大学(Chinese University ofHong Kong)信息工程系的多媒体实验室合作,研究基于数据假设的单幅图像去雾方法,其成果较为显著,但与实际应用仍存在较大差距。其他研究所和高校的相关研究工作尚处于进一步发展中。现阶段,比较优秀的去雾手段,都是根据每种算法的优、缺点,进行优势结合。一般而言,良好去雾效果都要复合几层算法进行叠加,例如,基于同态滤波的红外图像增强新方法。先对原红外图像自适应中值滤波,既保留了原有图像细节,又去除噪声。 1.3 本文主要研究内容和结构安排 1.3.1 本文主要研究内容 本文介绍基于同态滤波的图像去雾方法。将基于同态滤波的去雾图像,与经全局均衡化直方图的图像去雾算法、暗通道去雾算法等方法进行对比,借鉴其红外技术的优点,优化同态滤波算法,使得图像去雾效果更加理想。 1.3.2 本文结构安排 本文共分为五个部分。具体结构如下: 第一部分 绪论。主要介绍了图像去雾的研究背景和意义、国内外研究现状、发展前景以及本文的主要研究内容。 第二部分 图像去雾原理与技术。主要介绍了图像去雾的基本原理、基本特征和图像去雾的分类,归纳了图像去雾的典型算法以及主要应用。 第三部分 研究基于同态滤波的图像去雾方法。 第四部分 实验结果。 第五部分 实验方法评价与改进。 第六部分 对本文进行总结。 2 图像去雾概述 2.1 图像去雾的概念 图像去雾技术(雾、霆等类似大气粒子的散射现象均可用米氏散射理论描述,为了描述的方便,简称为去雾)的主要任务是去除天气因素对图像质量的影响,从而增强图像的视见度。 2.2 图像去雾的分类 图像去雾技术在经过近20年的研究发展中,经过国内外研究学者们的努力,已经形成了许多可应用于实践的技术方法。目前的主流方向是通过物理模型和非物理模型展开的。依据是否依赖大气散射模型,将现有的方法分为两类:基于物理模型的方法(MB)和非物理模型的方法( NMB)。基于物理模型的方法即是图像复原方法,基于非物理模型的方法即是图像复原方法。 雾天图像复原是研究雾天图像退化的物理机制,并建立雾天退化模型,反演退化过程,补偿退化过程造成的失真,以便获得未经干扰退化的无雾图像或无雾图像的最优估计值,从而改善雾天图像的质量。这种方法针对性强,得到的去雾效果自然,一般不会有信息损失,处理的关键点是模型中参数的估计。雾天图像的增强方法不考虑图像退化原因,适用性广,能有效地提高雾天图像的对比度,增强图像的细节,改善图像的视觉效果,但对于突出部分的信息可能会造成一定损失。对于每一类方法,按照去雾方法的相似性进一步归纳为不同的子类方法:基于图像处理的雾天图像增强方法分为全局化的图像增强方法和局部化的图像增强方法;基于物理模型的雾天图像复原方法则包括基于偏微分方程的雾天图像复原、基于深度关系的雾天图像复原和基于先验信息的雾天图像复原。   下图详细描述了这种分类层次: 图2.1 图像去雾方法分层 2.2.1基于物理模型的方法 图2.2 基于物理模型的复原方法 (1)基于偏微分方程的雾天图像复原 由于利用大气信息条件或场景深度复原雾天图像的方法不能局部修正恢复结果,所以对于场景深度变化较大的图像,部分区域的对比度仍然比较低,不能很好满足应用要求。因此在某些对图像的色彩清晰度和对比度有较高要求的场合,采用偏微分方程的图像去雾方法得到了广泛的应用。 针对雾天图像处理,可借助大气散射模型,建立户外图像全局去雾和局部去雾的能量最优化模型,推导相应的包含图像梯度和场景景深的偏微分方程。同时利用用户提供的简单附加信息消除恢复中的不确定性,实现仅从一幅降质图像的去雾恢复。 (2)基于深度关系的雾天图像复原 降质图像的场景深度信息是复原雾天图像的一条重要线索。根据场景深度信息是否己知可将此种复原 方法分为两类。一类是假设场景深度信息已知的方法。这种基于物理模型来复原场景对比度的方法使用一个简单的高斯函数对场景中的光路进行预测,取得了较好的复原效果,并且不需要天气预测信息,但此方法需要雷达装置获取场景深度。另一类是用辅助信息进行场景深度提取的方法。但以上提取场景深度的方法也存在着一定的局限性,比如利用偏振光的方法只能应用于大气散射程度较弱的薄雾,而不适于大雾天气。而其它一些方法则需要用到不同天气状态下相同景物的图像或需要用户的交互,因而很难满足对变换场景的实时图像处理需求。 (3)基于先验信息的雾天图像复原 传统的去雾方法往往只能有限度地提升降质图像的清晰度,由于忽略了真实图像的雾气分布不均的事实而以整体统一处理的方式去雾,致使图像某些部分显得不够清晰,而某些部分却因过度处理而失真。近年来,众多研究者致力于如何针对单幅降质图像按照图中雾气浓度的变化,达到彻底去雾的效果。例如基于暗原色的单一图像去雾技术。该方法通过收集大量不受雾气影响的图像,发现了一套能识别雾气浓度的暗原色统计规律。即把图像分成多个子块,每个子块中都有一些亮度很低的像素。这些“黑点”通常存于物体阴影、黑色物体以及具有鲜艳颜色的物体中。根据这一规律,只需按雾气浓度局部修复图像各部分的颜色,就能有效地达到很好的去雾效果,但当场景目标的亮度与大气光相似时,暗原色先验信息将失效。 2.2.2 基于非物理模型的方法 图2.3 基于非物理模型的方法 (1)全局化的图像增强方法 全局化的雾天图像增强方法是指依据整幅雾天图像的统计信息决定对灰度值的调整,而不考虑被调整点所处的区域。由于雾天下场景的退化程度与其深度相关,而一幅图往往包含复杂的景深信息,所以全局化的处理方法往往不能收到理想的效果,但当雾天图像的场景相对简单时,不失为一种有效的途径。典型的全局化雾天图像增强方法主要有以下六种: 1)全局直方图均衡化算法。该方法的基本思想是把有雾图像的直方图变换为均匀分布的形式,这样就增加了像素灰度值的动态范围从而达到增强雾天图像整体对比度的效果。直方图均衡化的去雾效果是进行去雾算法对比时的典型参照。 2)同态滤波算法。该算法是一种把频率过滤和灰度变换相结合的图像增强处理方法,也是一种把照明反射模型作为频域处理的基础,利用压缩亮度范围和增强对比度来改善图像质量的处理技术。该方法及其推广在彩色图像增强方面得到了广泛的应用。 3)小波方法。小波与多尺度分析在对比度增强上的应用取得了很大进展。例如,在多个尺度上对雾天图像的细节进行均衡化,对图像的细节有很好的锐化作用。 4)Retinex算法。Retinex是一种描述颜色不变性的模型,它具有动态范围压缩和颜色不变性的特点,对由于光照不均而引起的低对比度彩色图像具有很好的增强效果。 5)曲波变换。曲波是一种在小波变换基础上发展起来的新的多尺度分析方法,由于它特别适合于各向异性奇异性特征的信号处理,因此能够很好的弥补小波变换在图像的曲线边缘增强方面的局限性。 6)基于大气调制传递函数(Atmospherical Modulation Transfer Function,MTF)增强雾天图像。该方法的原理是:首先通过对大气调制传递函数的预测,近似估计大气对图像质量的退化过程。当得到先验信息时,通过预测公式计算出相应的瑞流调制传递函数和气溶胶调制传递函数,再由前两者的乘积得到总的大气调制传递函数。然后利用大气调制传递函数在频域内对天气退化图像进行复原,并对户外景物图像中由大气调制传递函数造成的衰减进行补偿。天气退化图像进行清晰化处理均是采用大气调制传递函数处理。 (2)局部化的图像增强方法 对于上述全局化的图像增强方法而言,由于此类方法是对整幅图像进行操作,而且在确定变换或转移函数时是基于整个图像的统计量。而在实际应用中常常需要对图像某些局部区域的细节进行增强,但这些局部区域内的像素数量相对于整幅图的像素数量往往较小,在参与整幅图的计算时其影响常被忽略掉,并且从整幅图像得到的函数也不能保证这些所关心的局部区域得到所需的增强效果。因此,需要根据所关心的局部区域的特性来计算变换或转移函数,并将这些函数用于所关心的区域,以得到所需的增强效果。目前主要有以下三类局部化的图像增强方法: 1)局部直方图均衡化方法,也称块重叠直方图均衡化,是一种标准的自适应直方图均衡化方法(Adaptive Histogram Equalization,AHE)。其基本思想是将直方图均衡化运算分散到图像的所有局部区域,通过局部运算的叠加自适应地增强图像局部信息。 2)局部对比度增强方法。这有三种方式:a、常数增益(Constant Gain Trace,CGT)算法。该算法求得雾天图像的局部均值并设定比例常数,在雾天图像的每个像素位置上根据变换函数放大图像的局部变化;b、饱和度反馈算法。该算法将雾天图像转换到HIS色彩空间中进行处理;c.自适应饱和度反馈算法。该算法通过有饱和度分量和亮度分量的局部相关性来确定反馈的极性和程度,从而使饱和度反馈算法具有了自适应能力。 3)基于局部方差的增强方法。该算法通过计算并比较局部标准方差的大小来判断局部图像的增强程度,然后以灰度均值为基准进行局部灰度拉伸。此算法同样适用于深度信息多变且对比度较低的雾天图像,但相对于局部直方图均衡化算法在噪声方面有所增加。因此,如何在增强细节和抑制噪声方面找到较好的折中点是该方法需要进一步研究的问题。 2.3 图像去雾的应用 随着图像去雾技术的发展,图像去雾的应用领域也得到了扩展,图像去雾的基本应用领域是在视频监控、地形勘测和自动驾驶等领域。目前图像去雾的应用主要集中在以下几个方面:遥感、航拍、水下图像分析、户外视频、日常照片、处理等诸多方面有着广泛应用。 3 基于同态滤波的图像去雾方法 3.1 同态滤波概念与定义 同态滤波是把频率过滤和灰度变换结合起来的一种图像处理方法,它依靠图像的照度/反射率模型作为频域处理的基础,利用压缩亮度范围和增强对比度来改善图像的质量。使用这种方法可以使图像处理符合人眼对于亮度响应的非线性特性,避免了直接对图像进行傅立叶变换处理的失真。 3.2 同态滤波的原理 将像原灰度值看作是照度和反射率两个组份的产物。由于照度相对变化很小,可以看作是图像的低频成份,而反射率则是高频成份。通过分别处理照度和反射率对像元灰度值的影响,达到揭示阴影区细节特征的目的。 3.3 同态滤波的操作的基本流程 ① ③FFT ② LOG ④ ⑤IFFT ⑦ ⑥EXP 图3.1 同态滤波图像去雾操作流程图 其中,表示原始图像,表示去雾处理后图像。取对数处理,取指数处理。表示傅里叶变换,表示傅里叶你变换。表示进行同态滤波处理。 ① 二维函数形式表示图像在特定的坐标处的值或幅度是一个正的标量,其物理意义由图像源决定。当一幅图像从物理过程产生时它 的值正比于物理源的辐射能量。因此一定是非零和有限的,即 。 (1) 函数可由两个分量来表征: (1)入射到观察场景的光源总量; (2)场景中物体反射光的总量。这两个分量分别称为入射分量和反射分量,表示为和。这两个函数合并成, 即 (2) 其中, (3) (式3)指出反射分量限制在0(全吸收)和1(全反射)之间,的性质取决于照射源,取决于成像物体的表面特性。 图像的灰度不仅仅由光照函数(入射光)决定,而且还与反射函数有关,反射函数反映出图像的具体内容。光照强度一般具有一致性,在空间上通常具有缓慢变化的性质,在傅立叶变换下表现为低频分量,然而不同的材料或物体的反射率差异很大,常引起反射光的急剧变化,从而使图像的灰度值发生变化,这种变化与高频分量有关。 为了消除不均匀照度的影响,增强图像的细节,可以采用建立在频域内的同态滤波器对光照不足的或有光照变化的图象进行处理,可以减少因光照不足引起的图像质量下降,并对感兴趣的景物进行有效增强,这样就在很大程度保留图像原貌的同时对图像细节增强。同态滤波是一种在频域中进行的图像对比度增强和压缩图像亮度范围的特殊滤波方法。同态滤波能够减少低频并增加高频,从而能减少光照变化并锐化边缘或细节。 通过对光照分量和反射分量的研究可知,光照分量一般反映灰度的恒定分量,类似于频域中的低频信息。减弱光照函数(入射光)就可以起到缩小图像灰度范围的作用;而反射光与物体的边界特性是密切相关的,类似于频域中的高频信息。增强反射光就可以起到提高图像对比度的作用。因此,同态滤波的传递函数一般在低频部分小于1,在高频部分大于1。 ②进行同态滤波处理,首先要对原图像取对数,使图像模型中的乘法运算转化为简单的加法运算 (4) ③再对函数做傅里叶变换,将函数转换到频域 (5) ④选择合适的传递函数,压缩分量的变化范围,削弱,增强分量的对比度,提升,增强细节,即确定一个合适的。由以上分析可知大致形状如图3.2所示。其中代表高频增益,代表低频增益,表示点到滤波中心的距离。 图3.2 同态滤波处理示意图 利用对(6)式进行滤波,可得 (6) ⑤最后对滤波结果进行傅立叶反变换和⑥指数运算,得到同态滤波后的输出结果⑦. (7) (8) 4 实验结果 4.1 灰度版 图4.3.1(a) 雾前 图4.3.1(b) 雾后 图4.3.2(a) 雾前 图4.3.2(b) 雾后 图4.3.3(a) 雾前 图4.3.3(b) 雾后 图4.3.4(a) 雾前 图4.3.4(b) 雾后 图4.3.5(a) 雾前 图4.3.5(b) 雾后 4.2 彩色版 图4.4.1(a) 雾前 图4.4.1(b) 雾后 图4.4.2(a) 雾前 图4.4.2(b) 雾后 图4.4.3(a) 雾前 图4.4.3(b) 雾后 图4.4.4(a) 雾前 图4.4.4(b) 雾后  图4.4.5(a) 雾前 图4.4.5(b) 雾后 4.3实验结果分析与评价 在进行Matlab操作达到图片去雾效果时,采用了两种办法,分别为灰度方法和彩色方法。第一种灰度方法的图像去雾,将彩色图片转化为灰度图片进行处理,即原始图片输入的是彩色的,经 Matlab处理后呈现的原始图片和去雾以后的图均为黑白颜色。第二种彩色图像去雾是针对彩色图片的去雾处理,即输入的原始图片和输出的原始图片及去雾以后的图片成像都是彩色图像。 从处理效果图的清晰度上看,这两版去雾算法达到了图像去雾的目的。灰色版黑白颜色差异更加分明,故而比原始图像清晰。彩色版颜色分辨度也增强,一些细节被细化,图片比原始图像清晰,去雾效果也比灰度去雾方法更清晰。 在对这些图片进行Matlab操作过程中,有时运行结果差强人意。在处理灰色版本时,同态滤波处理原色就很深的图片,处理后的图像颜色更暗,如图(a1-1)(a1-2)所示,细节锐化的不明显,没能达到较好的去雾处理效果。为找到最优配比度,进行了修改相关系数操作,但改进过后的算法的深色图像去雾效果,依旧无太大改善。 在处理彩色版本时,做了许多调研、学习准备。在搞懂程序语言的同时,百度相关经验与方法。总结失败原因是:没有真正弄明白怎样同时对三个色彩维度进行定义,总在灰度图片上打转。例如在原灰色版的基础上,在图片进行输出前,加入一段经灰色图片变成彩色的代码,结果只能出一张彩色原图。我又尝试定义三个色彩区间,在图片录入代码定义fR=rgb(:,:,1);fG=rgb(:,:,2); fB=rgb(:,:,3),结果出来两张灰色图像。最后学会运用正确彩色图像定义,输入正确的代码,才实现了彩色图像的去雾处理。 5评价与改进 为对比去雾效果,将对五幅有雾图片进行直方图去雾操作以及暗通道去雾操作,并对比去雾效果并评价算法。 5.1 直方图 图5.1.1(a) 雾前 图5.1.1(b) 雾后 图5.1.2(a) 雾前 图5.1.2(b) 雾后 图5.1.3(a) 雾前 图5.1.3(b) 雾后 图5.1.4(a) 雾前 图5.1.4(b) 雾后 图5.1.5(a) 雾前 图5.1.5(b) 雾后 比较结论:直方图去雾使得色彩失真,冷色系的颜色突变为暖色系颜色,细节锐化程度总体不如同态滤波明显。在图像原貌保持方面,同态滤波去雾方法,更好地保持图像原貌,而直方图去雾方法使得图像颜色改变很大。在细节处理方面,同态滤波方法细节锐化程度比在原图光照明亮的地方所加强的细节比暗通道明显。相反,直方图去雾方法在原图光照较暗的地方所加前的细节比同态滤波明显。 5.2 暗通道 图5.2.1 雾后 图5.2.2 雾后 图5.2.3 雾后 图5.2.4 雾后 图5.2.5 雾后 比较结论:暗通道去雾效果良好。色彩基本保留,细节锐化明显。经暗通道处理的图像,颜色会比原图颜色加深。在图像原貌保持方面,同态滤波去雾方法,更好地保持图像原貌,但暗通道去雾方法使得图像看起来颜色更加突出。在细节处理方面,同态滤波方法在原图光照明亮的地方所加强的细节比暗通道明显。相反,暗通道方法在原图光照较暗的地方所加前的细节比同态滤波明显。 5.3 改进 5.3.1 红外处理 红外成像的目标和背景的红外辐射需经过大气传输、光学成像、光电转换和电子处理等过程,才被转换成为红外图像。所以从红外图像的产生过程分析,红外图像主要有以下特点: 1)空间相关性强,对比度低;2)表征对象的温度分布,是灰度图像,分辨率较低,图像比较模糊;3)噪声干扰较大,噪声比较复杂,信噪比低;4)存在器件性的非均匀性等。 我们可以看出红外图像存在很多缺陷,对人眼来说其最显著的特点就是对比度很低,图像很模糊。红外图像存在的散粒噪声,随机噪声等,并且它们大部分是图像中的高频信息,而同态滤波正是处理锐化高频的一种好方法,能有效加强细节。 5.3.2红外与同态滤波结合优化 本文提出了一种基于同态滤波的红外图像增强新方法。先对原红外图像自适应中值滤波,既保留了原有图像细节,又去除噪声。利用了同态滤波的优势,增强了红外图像细节特征。采用限制对比度自适应直方图均衡方法,进一步调整图像的灰度动态范围。此方案解决了同态滤波所存在的缺陷,最终提高了图像的分辨率和对比度,并通过仿 真验证得到非常好的增强效果。 5.3.3 实验结果图 图5.3.1(a) 原图 图5.3.1(b) 红外 图5.3.1(b) 同态滤波 图5.3.2(a) 原图 图5.3.2(b) 红外 图5.3.2(b) 同态滤波 图5.3.3(a) 原图 图5.3.3(b) 红外 图5.3.3(b) 同态滤波 结论 表5.1 去雾方法对比分析 类别 子类 去雾方法 优点 缺点 基于图像处理的雾天图像増强方法 全局化增强 全局直方图均衡化 ⑴算法简单 ⑵对单景深图像的复原效果好 难反映景深多变的图像中局部景深的变化 同态滤波 ⑴能去掉由光照不均所产生的黑斑暗影 ⑵能较好地保持图像的原始而貌 需耍两次傅立叶变换,占用较大运算空间 暗通道 能较好地增强图像的细节 光亮的地方细节处理效果一般 表5.1是主要去雾方法的优缺点比较。这些方法尽管在解决问题的思路上存在着根本的区别,但是由于各种方法各有优缺点,所以在实际应用中,根据需要多采用“累试法”进行处理。即对于一幅有雾图像,根据研究人员的判定来处理,如果采用增强方法改善灰度对比度的效果好,就釆用增强方法;若采用图像复原方法可行,就依据退化模型进行复原处理。为了直观地考察各种算法的清晰化效果,我们对上述几种典型的基于图像处理的增强方法和最新提出的基于物理模型的图像复原方法进行了实验仿真,图1-3即为各算法的清晰化效果示例。 图6.1 原图 图6.2 同态滤波 图6.3 直方图 图6.4 暗通道 图6.5 红外 图6.6 红外+同态滤波 观察图片,可知这个去雾算法的效果优劣。图6.6的去雾效果最好,它既应用了红外技术,提高高频,又应用同态滤波,在保持图像原貌的同时,使得图像的细节处理更加细腻。若要使图片达到更好的清晰度,需结合多种算法,叠加运行。 致谢 时光飞逝,大学里的最后一个学期很快过去了,经历了毕业设计的整个过程让我感觉到自己在这个过程中过得很充实、很愉快。 本文是在北方工业大学理学院的郭芬红老师的悉心指导和帮助下完成的。从选题到寻找相关资料、到开题答辩、中期检查、到过程中的编程实现,再到最后的论文定稿以及答辩,郭老师一直都是很耐心、竭尽所能的帮助我们。从前期资料查询准备,到开题答辩书写修改与答辩准备,到后来代码运行,论文成文修改,郭老师一直拽着我们前进。 郭老师总是很及时的将毕业设计相关的信息和通知第一时间的告知我们。在论文撰写和程序设计方面,老师非常仔细,我们每个人的论文都是老师一字一句认真仔细的阅读并帮助我们标注出不恰当的地方,指导我们做出修改,帮助我们精益求精。在这里真诚地感谢导师郭芬红无私的付出。 朱喜玲学姐在同态滤波代码修改中,挤出自己的时间来无私的帮助我改正代码。对此,表以深深地感谢。 在这一个学期的学习过程中,也少不了同学之间的互相帮助,家人的支持和鼓励,更少不了那些为了这个课题刻苦钻研的工作者和学者们的付出,我们现在所做的学习和研究真的是站在巨人的肩膀上,是这些人让我们看得更高,走的更远。 谨以此在本篇论文完成之际,感谢身边每一位的帮助过我的老师、家人、同学和朋友,致谢! 参考文献 [1]陈春宁,王延杰.在频域中利用同态滤波增强图像对比度[J].微计算机信息,2007,23(2):265-266. [2]武英.利用同态滤波改善光照不足图像[J].南京晓庄学院学报,2007(6):70-71. [3]胡窦明,赵海生,李云川,等.一种基于同态滤波的红外图像增强新方法[J].红外技术,2012,34(4):224-228. [4]禹晶,徐东彬,廖庆敏.图像去雾技术研究进展[J].中国图形学报,2011,16(9):1561-1576. [5]范有臣,李迎春,韩意,等.波的同态滤波在图像烟雾弱化中的应用[J].中国图象图形学报,2012,17(5):635-640. [6]马龙,张成义.基于Matlab的同态滤波器的优化设计[J].应用光学,2010,31(4):584-588. [7]李云红,张龙,廉继红.红外图像增强方法的研究[J].西安工程大学学 报,2010,24(4):517-520. [8]杨靖宇,张永生,邹晓亮,等.利用暗原色先验知识实现航空影像快 速去雾[J].武汉大学学报,信息科学版,2010,35(11):1292-1295. [9]史经俭,王盼攀.改进后的同态滤波图像处理技术中的应用[J].中国科 学,2010,7:432-434. [10嵇晓强.图像快速去雾与清晰度恢复技术研究[D].长春:中国科学院长春光学精密机械与物理研究所,2012. [11]郭璠.图像去雾方法和评价及其应用研究[D].长沙:中南大学信息科学与工程学院,2012. [12]许欣.图像增强若干理论方法与应用研究[D].南京:南京理工大学,2010. [13]廖欢.雾天降质图像的增强方法研究[D].广东:华南师范大学,2012. [14]张锐.雾天或背光条件下图像清晰化算法研究及硬件实现[D].哈尔滨:哈尔滨工业大学,2008. [15]王恒进.基于小波的遥感图像薄云去除的研究与实现[D.西安:西北工业大学,2002. [16]冈萨雷斯.数字图像处理(MATLAB版)[M](阮秋琦译).北京:电子工业出版社,2014,55-78. [17]Oakley J P,Satherley B L.Improving image quality in poor visibility conditions using a physical model for contract degradation[J].IEEE Transactions on Image Processing,1998,7(2):167-179. [18]Narasimhan S G,Nayar S K.Contrast restoration of weather degraded image[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(6):713-724. [19]Ebner M.Evolving color constancy[J].Pattern Recognition Letters,2006,27(11):1220-1229. [20]Joung-Youn Kim,Lee-SuP Kim,Seung-Ho Hwang.An advanced Contrast Enhaneement Using Partially Overlap Ped Sub-Block Histogram Equalization [J].IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY,2001,11(4):475-483. [21]OAKLEY JP,BUHONG.Correction of simple contrast loss in color images[J].Image Processing,2007,16(2):511-522. [22]TAN R T.Visiblity in bad weather from a single image [C].Proceedings of Computer Society Conference on Computer Vision and Pattern Recognition 2008:1-8. [23]Hongbo Yang, Jiuhe Wang..Color Image Contrast Enhancement by Co-occurrence Histogram Equalization and Dark Channel Prior [C].Proceedings of  IEEE Conference on 2010 3rd International Congress on Image and Signal Processing,2010,7:848-851. 附录 I.同态滤波的代码 灰色版 clc;clear all;close all img=imread('E:\Matlab\R2008a\abc\4.jpg'); img=rgb2gray(img); img=imresize(img,[256,256]); % figure(1); imshow(img),title('原始图片'); img=im2double(img);%将图片img转换成double型 k1=8; k2=8; r=161; % alf=1600; % alf=161; alf=20; nn=floor((r+1)/2); % nn=81为尺度C,取80最合适 for i=1:r %从1循环到81 for j=1:r % h(i,j) =exp(-((i-nn)^2+(j-nn)^2)/(k1*alf))/(k2*pi*alf*10000); %高斯函数 h(i,j) =exp(-((i-nn)^2+(j-nn)^2)/(2*alf^2)) ; %高斯函数 end end gauss = h/sum(sum(h));% R=conv2(img,gauss,'same'); %灰度 R=log(R); S=log(img)-R; % T=S+R; % K2=exp(T);%取指数 % K2=uint8(K2); % figure,imshow(K2) %% V变换 % V1=load('M_256.mat'); % V1=V1.y; % Fimg1=V1*R*V1'; % Fimg2=V1*S*V1'; %% 傅里叶变换 Fimg1=fft(R);%傅里叶变换 Fimg2=fft(S);%傅里叶变换 %% [M,N]=size(Fimg1); % figure(2); % imshow(uint8(abs(P)),[]),title('滤波前的频谱图像');%绘制源图像的频谱的幅度谱 x0=floor(M/2);%向下取整数 y0=floor(N/2); %同态滤波参数设置 D0=3; c=1.50; Hh=1.6;Hl=0.8;%Hh>1,Hl<1 for u=1:M for v=1:N D(u,v)=sqrt((u-x0)^2+(v-y0)^2); H(u,v)=(Hh-Hl)*(1-exp(-c*(D(u,v)^2/D0^2)))+Hl;%同态滤波器函数 end end Y1=Fimg1.*H; Y2=Fimg2.*H; %% 傅里叶逆变换 Q1=ifft(Y1); Q2=ifft(Y2); %% Q=Q1+Q2; J=exp(Q);%取指数 J=im2uint8(J); figure,imshow(J),title('去雾后的图片') J1=double(J); [SD,ENTR,AVEGRAD]=Sd(J1) II.同态滤波第二次修改代码 彩色版 clc;clear all;close all img=imread('E:\Matlab\R2008a\aaa\1.jpg'); img=imresize(img,[256,256]); imshow(img),title('原始图片'); Y=zeros(256,256,3); for ii=1:3 L=img(:,:,ii); img1=im2double(L);%将图片img转换成double型 k1=8; k2=8; r=161; % alf=1600; % alf=161; alf=20; nn=floor((r+1)/2); % nn=81为尺度C,取80最合适 for i=1:r %从1循环到81 for j=1:r % h(i,j) =exp(-((i-nn)^2+(j-nn)^2)/(k1*alf))/(k2*pi*alf*10000); %高斯函数 h(i,j) =exp(-((i-nn)^2+(j-nn)^2)/(2*alf^2)) ; %高斯函数 end end gauss = h/sum(sum(h));% R=conv2(img1,gauss,'same'); %灰度 R=log(R); S=log(img1)-R; % T=S+R; % K2=exp(T);%取指数 % K2=uint8(K2); % figure,imshow(K2) %% V变换 % V1=load('M_256.mat'); % V1=V1.y; % Fimg1=V1*R*V1'; % Fimg2=V1*S*V1'; %% 傅里叶变换 Fimg1=fft(R);%傅里叶变换 Fimg2=fft(S);%傅里叶变换 %% [M,N]=size(Fimg1); % figure(2); % imshow(uint8(abs(P)),[]),title('滤波前的频谱图像');%绘制源图像的频谱的幅度谱 x0=floor(M/2);%向下取整数 y0=floor(N/2); %同态滤波参数设置 D0=3; c=3.50; Hh=1.6;Hl=0.8;%Hh>1,Hl<1 for u=1:M for v=1:N D(u,v)=sqrt((u-x0)^2+(v-y0)^2); H(u,v)=(Hh-Hl)*(1-exp(-c*(D(u,v)^2/D0^2)))+Hl;%同态滤波器函数 % H(u,v)=(Hh-Hl)*(1/(1+(D0/c*D(u,v))))^2+Hl;%巴特沃斯 end end Y1=Fimg1.*H; Y2=Fimg2.*H; %% 傅里叶逆变换 Q1=ifft(Y1); Q2=ifft(Y2); %% Q=Q1+Q2; J=exp(Q);%取指数 J=im2uint8(J); Y(:,:,ii)=J; end figure;imshow(mat2gray(Y));title('去雾以后的图'); III.直方图均衡化程序 sourcePic=imread('E:\Matlab\R2008a\abc\22.jpg'); [m,n,o]=size(sourcePic); figure,imshow(sourcePic,[]); title('原图'); %grayPic=rgb2gray(sourcePic); grayPic=sourcePic(:,:,1); gp=zeros(1,256); %计算各灰度出现的概率 for i=1:256 gp(i)=length(find(grayPic==(i-1)))/(m*n); end newGp=zeros(1,256); %计算新的各灰度出现的概率 S1=zeros(1,256); S2=zeros(1,256); tmp=0; for i=1:256 tmp=tmp+gp(i); S1(i)=tmp; S2(i)=round(S1(i)*256); end for i=1:256 newGp(i)=sum(gp(find(S2==i))); end newGrayPic=grayPic; %填充各像素点新的灰度值 for i=1:256 newGrayPic(find(grayPic==(i-1)))=S2(i); end nr=newGrayPic; grayPic=sourcePic(:,:,2); gp=zeros(1,256); %计算各灰度出现的概率 for i=1:256 gp(i)=length(find(grayPic==(i-1)))/(m*n); end newGp=zeros(1,256); %计算新的各灰度出现的概率 S1=zeros(1,256); S2=zeros(1,256); tmp=0; for i=1:256 tmp=tmp+gp(i); S1(i)=tmp; S2(i)=round(S1(i)*256); end for i=1:256 newGp(i)=sum(gp(find(S2==i))); end newGrayPic=grayPic; %填充各像素点新的灰度值 for i=1:256 newGrayPic(find(grayPic==(i-1)))=S2(i); end ng=newGrayPic; grayPic=sourcePic(:,:,3); gp=zeros(1,256); %计算各灰度出现的概率 for i=1:256 gp(i)=length(find(grayPic==(i-1)))/(m*n); end newGp=zeros(1,256); %计算新的各灰度出现的概率 S1=zeros(1,256); S2=zeros(1,256); tmp=0; for i=1:256 tmp=tmp+gp(i); S1(i)=tmp; S2(i)=round(S1(i)*256); end for i=1:256 newGp(i)=sum(gp(find(S2==i))); end newGrayPic=grayPic; %填充各像素点新的灰度值 for i=1:256 newGrayPic(find(grayPic==(i-1)))=S2(i); end nb=newGrayPic; res=cat(3,nr,ng,nb); figure,imshow(res,[]); title('处理后图像'); 外文资料翻译及原文 灰度直方图 摘要 图像去雾技术是利用一定的模型或算法处理的图像去雾恢复图像的原始特征。本文介绍了常用的霾雾的三种方法,包括基于光分离模型算法,提出了一种基于直方图均衡化算法和基于暗原色先验。在MATLAB平台上设计和实现了一种数字图像处理系统的雾,使用上述算法对雾天图像,效果更好。 关键词:图像去雾;光分离模型;直方图均衡化;暗通道 1.1 引言 在数字图像处理中,一个最简单和最有用的工具是灰度直方图。该函数概括了一幅图像的灰度级内容。任何一幅图像的直方图都包括了可观的信息,某些类型的图像还可以由其直方图完全描述。直方图的计算是简单的,特别是当一幅图从一个地方被复制到另一个地方时,直方图的计算可以用非常低的代价来完成。 1.1.1 定义 灰度直方图是灰度级的函数,描述的是图像中具有该灰度级的像素的个数:其横坐标是灰度级,纵坐标是该灰度出现的频率(像素的个数),图1-1为一示例。 图1-1 一幅图像及其灰度直方图 灰度直方图也有另一种方式的定义[1],以下的练习将更清楚地看到这种方法的用处。假设我们有一幅由函数所定义的连续图像,它平滑地从中心的高度灰度级变化到边沿的低灰度级。我们可以选择定某一灰度级,然后定义一条轮廓线,该轮廓线连接了图像上所有具有灰度级的点。所得到的轮廓线形成了包围灰度级大于等于的区域的封闭曲线。 图1-2中的图像,有一条灰度级为的轮廓线。在更高的灰度级处还画有第二条轮廓线。是第一条轮廓线所包围区域的面积,同样,是第二条轮廓线所包围的区域面积。 图1-2 一幅图像的轮廓线 将一幅连续图像中被具有灰度级D的所有轮廓线所包围的面积,称为它的阈值面积函数。则直方图可定义为 (1) 因此,一幅连续图像的直方图是其面积函数的导数的负值。负号的出现是由于随着D的增加在减小。如果将图像看成是一个二维的随机变量,则面积函数相当于其累积分布函数,而灰度直方图相当于其概率密度函数。 对于离散函数,我们固定为1,则等式(1)变为 (2) 对于数字图像,任一灰度级D的面积函数就是大于或等于灰度值D的像素的个数。 1.1.2 二维直方图 人们经常发现构造高维直方图比一维直方图更为有用。特别是对于研究彩色图像。图1-3是一幅经过数字化的显微图像,其中含有一个白血球和几个红血球。图像在白光(a),并借助滤光片在红光(b)和蓝光(c)下进行数字化,右下图是从后两幅图得到的红—蓝直方图。 二维直方图是两个变量:红光图像的灰度值和蓝光图像的灰度值的函数。坐标处的值是指在红光图像中具有灰度值,同时在蓝光图像中同一位置具有灰度值的像素(对)的个数。这是一种多光谱的数字图像,在每个采样点有一个像素,每个像素有多个变量——在此处,变量的个数为2 。二维直方图表示像素值在两种灰度级的组合中的分布情况。如果红光图像和蓝光图像相同,直方图除了在 斜线位置上有值外,在其余各处值将为0 。如果每个像素(对)中红分量大于蓝分量,或者反之,直方图的分布将分别在斜线之上或之下。 在白光下,图1-3中显微镜下的区域显示了关于彩色的许多信息。红血球呈现粉红色,而白血球则呈现灰色并有一个经染色处理而显示深蓝色的核。红细胞在蓝光下因吸收蓝光而较暗,在红光下因透过红光而较亮。同样核在红光下颜色更深。红-蓝直方图有四个不同的峰值,一个由背景(B)产生,一个由红细胞(R)产生,一个由核(N)产生,最后一个是由白血球细胞质(C)产生。 图1-3 二维直方图示例 (a) 白光图像(b)红光图像(c)蓝光图像(d)红-蓝直方图 1.1.3 直方图的性质 当一幅图像被压缩为直方图后,所有的空间信息都丢失了。直方图描述了每个灰度级具有的像素的个数,蛋不能为这些像素在图像中的位置提供任何线索。因此,任一特定的图像有唯一的直方图,但反之并不成立 ——极不同的图像可以有着相同的直方图。例如,在图像中移动物体一般对直方图没有影响。尽管如此,直方图仍确实有一些有用的信息。 如果我们替换等式(1)的变量,并对等式两边从D到进行积分,我们将得到 (3) 即面积函数如果我们令,并假设灰度级为非负,我们将有 (4) 对于离散图像的情形,有 (5) 其中NL和NS分别是图像行和列的数目。 如果一幅图像包含一个灰度均匀一致的物体且背景与物体的对比度很强,我们规定物体的边界是由灰度级定义的轮廓线,则 (6) 如果图像包含有多个物体,并且所有轮廓线处的灰度级均为,则公式(6)给出了所有物体的面积之和。 通过除以图像的面积来归一化灰度直方图可得到图像的概率密度函数(PDF),对面积函数进行同样的归一化处理可得到图像的累积分布函数(CDF)。这些函数在对图像进行统计处理时是有用的。 直方图还有另一个有用的性质,该性质可从其定义——每一灰度级的像素个数——直接得到:如果一图像由两个不连接的区域组成,并且每个区域的直方图已知,则整幅图像的直方图是该两个区域的直方图之和。显然,该结论可推广到任何数目的不连接区域的情形。 1.2 直方图的用途 1.2.1 数字化参数 直方图给出了一个简单可见的指示,用来判断一幅图像是否合理地利用了全部被允许的灰度级范围。一般一幅数字图像应该利用全部或几乎全部可能的灰度级,如图1-1。否则等于增加了量化间隔。一旦被数学化图像的级数少于256,丢失的信息(除非重新数字化)将不能恢复。 如果图像具有超出数字化器所能处理的范围的亮度,则这些灰度级将被简单地置为0或255 ,由此将在直方图的一端或两端产生尖峰。数字化时对直方图进行检查是一个好的做法。对直方图的快速检查可以使数字化中产生的问题及早暴露出来,以免浪费大量时间。 1.2.2 边界阈值选择 如前所述,轮廓线提供了一个确立图像中简单物体的边界的有效的方法。使用轮廓线作为边界的技术被称为阈值化。用最合适的技术来选择灰度阈值是图像处理中讨论得很多的一个课题。 假定一幅图背景是浅色的,其中有一个深色的物体。图1-4为这类图像的直方图。物体中的深色像素产生了直方图上的左锋,而背景中大量的灰度级产生了直方图上的右锋。物体边界附近具有两个峰值之间灰度级的像素数目相对较少,从而产生了两峰之间的谷。选择谷作为灰度阈值将得到合理的物体的边界。 图5-4 双峰直方图 在某种意义上来说,对应于两峰之间的最低点的灰度级作为阈值来确定边界是最适宜的。从等式(1)可知,直方图是面积函数的导数。在谷底的附近,直方图的值相对较小,意味着面积函数阈值灰度级的变化很缓慢。如果我们选择谷底处的灰度作为阈值,将可以使其对物体的边界的影响达到最小。如果我们试图测量物体的面积,选择谷底处阈值将使测试量对于阈值灰度变化的敏感降低到最小。 1.2.3 综合光密度 给出(图1-4的)直方图后,我们可以在甚至没有看到图像的情况下确定物体的最佳灰度阈值以便计算物体的面积(等式(6))。另外,一种可从简单图像的直方图直接计算的量是综合光密度(IOD)。它是反映图像中“质量”的一种有用度量,其定义为 (7) 其中,a和b是所划定的图像区域的边界。如果在灰度级为0的背景上有深色的物体,则IOD反映了物体的面积和密度的组合。 对数字图像,有 (8) 其中,是处像素的灰度值,令代表灰度级为k时所对应的像素的个数。则等式(8)可被写成 (9) 显然,该式是将一幅图像内所有像素的灰度级加起来。然而,只是灰度级k所对应的直方图上的值,故公式(9)可写成为 (10) 即用灰度级加权的直方图之和,令式(8)等于式(10),并且令灰度级的增量趋向极限0 ,我们可得到类似的适用于连续图像的表达式 (11) 和 (12) 如果图像中的物体被阈值灰度级为T的边界勾划出来,则物体边界内的IOD可由下式给出 (13) 内部灰度级的平均(mean)值MGL等于IOD与面积之比: (14) 1.3 直方图与图像的关系 因为对于一特定的图像而言,其直方图是唯一的,所以,若简单图像的函数形式已知,就可以推导出其直方图。这种技术也许很少被使用,而它却可以使我们对直方图有更深的理解。 假定我们已知一幅图像的函数形式,希望计算其直方图。我们知道直方图是面积函数关系等于灰度级的导数的负数(等式(1))。因此,如果我们首先从图像本身的表达式得到面积函数,就有可能求到直方图。有时,通过观测就可以达到此目的。 1.3.1 一维 为了简单起见,我们首先考虑一维的情况。 在此,“面积”实际上是指长度,但它可用来说明图像与其直方图之间的关系。 考虑一维高斯脉冲(图1-5) (15) 图5-5 高斯脉冲 注意到对与非负的x,函数是单调的。而且,面积是图像函数的逆函数。因此,对于非负数的x,可通过解方程(15)得到作为灰度级的函数的x: (16) 上式就是图像右半部分的“面积”函数,因为图像的左右两半是对称的,总的面积函数是等式(16)的两倍。其直方图可表示为: (17) 如图1-6所示,在处直方图有一尖峰,这是由于在较大处有大面积的低灰度值点(灰度)。在处有一小尖峰,是由于图像在处斜率为0引起的(即,高斯函数在其顶部附近时平坦的)。 图1-6 高斯脉冲的直方图 1.3.2 二维 通过对图像的对称性的巧妙利用,同样处理过程可被推广到二维情形。例如,假定等式(15)的一维高斯脉冲实际上是二维图像中的一条线段,那么,如果所有线段都是一样的,则直方图也具有如图1-6所示的形状,仅仅是纵坐标刻度有所不同的而已。 在下述方法中利用了圆的对称性,假定图像时中心在原点的圆对称高斯脉冲(如图1-7) 图像函数的极坐标表示如下 , (18) 图1-7 圆形高斯点 灰度级为常数P的轮廓线是半径为的图 (19) 该轮廓线所包围的面积为 (20) 公式(20)所表示的面积函数可被微分,从而得到直方图[1] (21) 如图1-8 ,注意虽然原点处斜率为0 ,但它不够强,不能像在一维情形时那样在处产生尖峰。 图1-8 图像高斯点的直方图 对于更为复杂的图像,首先应将图像划分为一些不相邻的区域,并分别确定每个区域的面积函数,然后用上述方法得到它们的直方图,整个图像的直方图是所有不相连区域直方图之和。 1.4 要点总结 1. 灰度级直方图是阈值面积函数的导数的负值。 2. 直方图表明在每一灰度级有多少个像素。 3. 观察直方图可以看出不合适的数字化。 4. 简单物体的面积和IOD可以通过图像的直方图来求得。 5. 具有特定函数形式的图像的直方图可以通过面积函数来求得。 参考文献: 1. R.J,Wall,A.Klinger,and K.R.Castleman,"Analysis of Image Histograms,"Proc.Second Int.Cong.on Pattern Recognition,Copenhagen,1974. 2. C.L.Novak and S.A.Shafer,"Anatomy of a Color Histogram,"Proceedings of the 1992 IEEE Computer Society Conference on Computer Vision and Pattern Recognnition,599—605,IEEE Computer Society Press,Los Alamitos,CA,1992. 3. J.Prewitt and M.Mendelsohn,"The Analysis of Cell Images ,"Annals of the New York Academy of Sciences,128,1035—1053,January 1966. 4. M.Mendelsohn,B.Mayall,J.Prewitt,R.Bostrom,and R.Holcomb,"Digital Transformation and Computer Analysisi of Microscope Images,"in R.Barer and V.Cosslet,eds.,Advances in Optical and Electron Microscopy ,2, Academic Press ,London ,1968 . Research on Image Defogging Methods ZHANG Chi School of Computer and Software,Nanjing University of Information Science and Technology,Nanjing 210044 ABSTRACT Image dehazing is to use a certain model or algorithm to process the defogging image to restore the original features of the image.The paper introduces three methods commonly used to haze the fog, including an algorithm based on light separation model,an algorithm based on histogram equalization and an algorithm based on dark channel prior. In the MATLAB platform design and implementation of a digital image processing system to fog, to use the above algorithm to the fog image, the effect is better. Key words: image defogging; light separation model; histogram equalization; dark channel prior The Gray-Level Histogram 1.1 INTRODUCTION One of the simplest and most useful tools in digital image processing is the gray-level histogram. The function summarizes the gray-level content of an image. While the histogram of any image contians considerable information,certain types of images are completely specified by their histograms. Computation of the histogram is simple and may be done at little apparent cost when an image is copied from one place to another. 1.1.1 Definition The gray-level histogram is a function showing,for each gray level,the number of pixels in the image that have that gray level. The abscissa is gray level and the ordinate is frequency of occurrence(number of pixels). Figure 1-1 shows an example. There is another way to define the gray-level histogram[1],and the following exercise yields insight into the usefulness of this function. Suppose we have a continuous image,defined by the function ,that varies smoothly from high gray level at the center to low gray level at the borders. We can select some gray level and define a set of contour lines connecting all points in the image with value . The resulting contour lines from closed curves that surround regions in which the gray level is greater than or equal to . Figure 1-2 shows an image containing one contour line at the gram level .A second contour line has been drawn at a higher gray level . is the area of the region inside the first contour line, and similarly. is the area inside the second line. The threshold area function of a continuous image is the area enclosed by all contour lines of gray level D. Now the histogram may be defined as (1) Thus, the histogram of a continuous image is the negative of the derivatives of its area function. The minus sign results from the fact that decreases with increasing D. If the image is considered a random variable of two dimensions, the area function is proportional to its cumulative distribution function and the gray level histogram to its probability density density function. Figure 1-1 An image and its gray-level histogram Figure 1-2 Contour lines in an image For the case of discrete functions, we fix at unity, and E.(1) becomes (2) The area function of a digital image is merely the number of pixels having gray level greater than or equal to D for any gray level D. 1.1.2 The Two-Dimensional Histogram Frequently, one finds it useful to construct histograms of higher dimension than one. This is particularly useful for color images [2],as discussed in Chapter 21.figure 1-3 shows images digitized from a microscope field containing a white blood cell and several red blood cells. The field was digitized in white light and ,through colored filters, in red and blue light. At the lower right is the two-dimensional red-versus-blue histogram of the latter two images. The two-dimensional histogram is a function of two variables: gray level in the red image and gray level in the blue image. Its value at the coordinate is the number of corresponding pixel pairs having gray level in the red image and gray level in the blue image. Recall that a multispectral digital image such as this can be thought of as having a single pixel at each sample point, but each pixel has multiple values —in this case, two . The two-dimensional histogram shows how the pixels are distributed among combinations of two gray levels. If the red and blue component images were identical, the histogram would have zero value except on the diagonal. Pixels having higher red than blue gray level, and vice versa, contribute to the histogram above and below the diagonal line, respectively. In white light, the microscope field of Figure 1-3 shows considerable information in color. The red blood cells appear pinkish, Thus ,the red cells appear dark in blue light, which they absorb, and light in red light, which they transmit. Similarly, the nucleus is much denser in red light. The red-versus-blue histogram therefore has four distinct peaks, one each due to the background ,the red blood cells , and the nucleus and cytoplasm of the white cell. The analysis of two-dimensional histograms is discussed further in Chapter 21. 1.1.3 Propertise of the Histogram When an image is condensed into a histogram, all spatial information is discarded. The histogram specifies the number of pixels having each gray level, but gives no hint as to where those pixels are located within the image. Thus, the histogram is unique for any particular image, but the reverse is not true: Vastly different images could have identical histograms. Such operations as moving objects around within an image typically have no effect on the histogram. The histogram does. Nevertheless ,possess some useful properties. If we change variables in Fq.(1) and integrate both sides from D to infinity, we find that (3) The area function. If we then set ,assuming nonnegative gray levels, we obtain area of image (4) Figure 1-3 Example two-dimensional histogram (a)white-light image;(b)red-light image;(c)blue-light image;(d)red-blue histogram Or ,in the discrete case, (5) Where NL and NS are the number of rows and columns, respectively,in the image. If an image contains a single uniformly gray object on a contrasting background, and we stipulate that the boundary of that object is the contour line defined by gray level ,then area of object (6) If the image contains multiple objects. All of whose boundaries are contour lines at gray level .Then Eq.(6) gives the aggregate area of all the objects. Normalizing the gray-level histogram by dividing by the area of the image produces the probability density function(PDF) of the image. A similar normalization of the area function produces the cumulative distribution function (CDF) of the image. These functions are useful in the statistical treatment of images. As illustrated in chapter 6. The histogram has another useful property,which follows directly from its definition as the number of pixels having each gray level: if an image consists of two disjoint regions. And the histogram of each region is known, then the histogram of the entire image is the sum of the two regional histograms. Clearly, this can be extended to any number of disjoint regions. 1.2 USES OF THE HISTOGRAM 1.2.1 Digitizing Parameters The histogram gives a simple visual indication as to whether or not an image is properly scaled within the available range of gray levels. Ordinarily, a digital image should make use of all or almost all of the available gray levels, as in Figure 1-1. Failure to do so increases the effective quantizing interval. Once the image has been digitized to fewer than 256 gray levels, the lost information cannot be restored without redigitizing. Likewise, if the image has a greater brightness range than the digitizeris set to handle, then the gray levels will be clipped at 0 and/or 255. Producing spikes at one or both ends of the histogram. It is a good practice routinely to review the histogram when digitizing. A quick check of the histogram can bring digitizing problems into the open before much time has been wasted. 1.2.2 Boundary Threshold Selection As mentioned earlier,contour lines provide an effective way to establish the boundary of a simple object within an image. The technique of using contour lines as boundaries is called thresholding . The use of optimal techniques for selecting threshold gray levels is a subject of considerable discussion in the literature and is treated in Chapter 18. Suppose an image contains a dark object on a light background. Figure 1-4 illustrates the appearance of the histogram of such an image. The dark pixels inside the object produce the rightmost peak in the histogram. The leftmost peak is due to the large number of gray levels in the background. The relatively few mid level gray pixels around the edge of the object produce the dip betwee n the two peaks. A threshold gray level chosen in the area of the dip will produce a reasonable boundary for the object . Figure 1-4 a bimodal histogram In one sense ,the gray level corresponding to the minimun between the two peaks is optimal for defining the boundary. Recall from Eq.(1) that the histogram is the derivative of the area function. In the vicinity of the dip, the histogram takes on relatively small values, implying gray level at the dip, we minimize its effect upon the boundary of the object. If we are concerned with measuring the object's area, selecting a threshold at the dip in the histogram minimizes the sensitivity of the area measurement to variations in threshold gray level. 1.2.3 Integrated Optical Density Given the histogram in Figure 1-4, we could determine an optimal threshold gray level for the object and compute its area [Eq.(6)] without ever seeing the image. Another measurement that can be computed directly from the histogram of simple images is the integrated optical density (IOD). A useful measure of the "mass" of an image, it is defined as (7) Where a and b delimit the region of the image . When the image consists of a dark object situated on a background of zero gray level, the IOD reflects a combination of the area and density of that object. For a digital image (8) Where is the gray level of the pixel at line i, sample j. Let be the number of pixels in the image whit gray level equal to k. Then Eq.(8) can be written as (9) Since, clearly, this adds up the gray levels of all pixels within the image. However, is merely the histogram evaluated at gray level k. Thus Eq.(9) can be written as (10) That is, a gray-level-weighted summation of the histogram . By equating Eqs.(8)and (10)and taking a limit as the increment between gray levels approaches zero, we derive similar expressions for continuous images: (11) And (12) If an object within the image is delineated by a threshold boundary at gray level T, the IOD within the object boundary is given by (13) The mean interior gray level is the ratio of IOD to area : (14) 1.3 RELATIONSHIP BETWEEN HISTOGRAM AND IMAGE Since the histogram of a particular image is unique, it is possible to derive the histogram of simple images whose functional from is known. While this technique is perhaps seldom used, it does yield insight into the histogram , and it establishes a basis for further study of threshold selection in chapter 18. Suppose we have an image of given functional from, and we desire to computer its histogram. We know that this is the negative of the derivative with respect to gray level of the area funcyion [Eq.(1)]. Thus , we may derive the histogram if we first derive the area function from the expression for the image itself . Sometimes this can be done simply by observation . 1.3.1 One Dimension For simplicity, we first address the one-dimensional case. Here the "area" is actually a length, but it demonstrates the relationship between a histogram and its image. Consider the one-dimensional Gaussian pulse (Figure 1-5 )given by (15) Notice that for nonnegative x, the function is monotonic. Furthermore, the area is merely the inverse of the image function. Thus, for nonnegative values of x, we may solve Eq.(15) for x as a function of gray level to yield (16) Which is the area function for the right half of the image. Since the two halves of the image Figure 1-5 the gaussian pulse are symmetrical, the overall area function is twice that of Eq.(16). The histogram is given by (17) And is shown in Figure 1-6 . The histogram builds up to a spike at because of the large areas of low gray level at large positive and negative values of x. The small spike at results from the image having zero slope at (i.e.the Gaussian is locally "flat" at the very top). Figure 1-6 histogram of the Gaussian pulse 1.3.2 Two Dimensions The same procedure may be extended to two-dimensional images by judicious use of symmetry within the image. For example, suppose that the one-dimensional Gaussian pulse of Eq.(15) is actually one line of a two-dimensional image. Then if all lines are identical, the histogram will have the same shape as that in Figure 1-6 , differing only in ordinate scale. One may take advantage of circular symmetry in the following way. Suppose the image is a circularly symmetric Gaussian pulse centered on the origin (Figure 1-7). The image function in polar coordinates is given by , (18) Figure 1-7 the circular Gaussian spot A contour of constant gray level P is a circle of radius (19) Such a contour encloses an area (20) The area function of Eq.(20) may now be differentiated to yield the histogram [1] (21) Shown in Figure 1-8. Notice that the point of zero slope at the origin is not powerful enough to produce a spike at . As it did in the one-dimensional case. For more complex images, the histogram may be derived by first partitioning the imageinto disjoint regions over which the area function may be determined. The histogram of the complete image is then the sum of the histograms of all the disjoint regions. Figure 1-8 histogram of the circular Gaussian spot 1.4 SUMMARY OF IMPORTANT POINTS 6. The gray-level histogram is the negative of the derivative of the threshold area function. 7. The histogram shows how many pixels occur at each gray level. 8. Inspection of the histogram points out improper digitization. 9. The area and IOD of a simple object can be computed from the histogram of its image. 10. The histogram of an image of specified functional from can be derived with the aid of the area function. REFERENCES 1. R.J,Wall,A.Klinger,and K.R.Castleman,"Analysis of Image Histograms,"Proc.Second Int.Cong.on Pattern Recognition,Copenhagen,1974. 2. C.L.Novak and S.A.Shafer,"Anatomy of a Color Histogram,"Proceedings of the 1992 IEEE Computer Society Conference on Computer Vision and Pattern Recognnition,599—605,IEEE Computer Society Press,Los Alamitos,CA,1992. 3. J.Prewitt and M.Mendelsohn,"The Analysis of Cell Images ,"Annals of the New York Academy of Sciences,128,1035—1053,January 1966. 4. M.Mendelsohn,B.Mayall,J.Prewitt,R.Bostrom,and R.Holcomb,"Digital Transformation and Computer Analysisi of Microscope Images,"in R.Barer and V.Cosslet,eds.,Advances in Optical and Electron Microscopy ,2, Academic Press ,London ,1968 . 本文档由香当网(https://www.xiangdang.net)用户上传

    下载文档到电脑,查找使用更方便

    文档的实际排版效果,会与网站的显示效果略有不同!!

    需要 10 香币 [ 分享文档获得香币 ] 0 人已下载

    下载文档