利用下界比较算法进行块匹配

利用下界比较算法进行块匹配

孙斌[1]2014年在《分布式MIMO雷达目标定位与功率分配研究》文中认为多发多收(Multiple-Input Multiple Output,MIMO)雷达是雷达领域研究前沿的热点问题之一。按照天线间距分为集中式和分布式MIMO雷达,集中式MIMO雷达利用波形分集增益提高雷达系统的角度分辨率,分布式MIMO雷达利用空间分集增益对抗目标的RCS闪烁。分布式MIMO雷达能够从不同的观测方向对目标进行探测,为解决常规雷达面临的隐身目标难以检测以及抗干扰能力差等实际问题提供了有效解决途径,对分布式MIMO雷达所取得的初步探索成果已经显示了它在目标检测和参数估计方面的巨大优势。然而,对于分布式MIMO雷达的处理技术、性能评估以及系统设计研究成果较少,诸多概念以及关键技术问题还有待深入研究。本文围绕分布式MIMO雷达的目标定位和功率优化展开研究,主要致力于解决现有目标定位方法和功率优化分配方法所面临的关键问题。具体地,本文的研究内容包括如下几个方面:第一章为绪论,阐述了课题研究背景及意义,介绍了MIMO雷达尤其是分布式MIMO雷达的研究现状,分析了目前分布式MIMO雷达参数估计和功率分配面临的问题,并指出了开展目标定位方法和功率优化管理研究的可行性。第二章主要研究了分布式MIMO雷达的目标定位性能和它对雷达天线位置误差的敏感性问题。根据似然函数与似然比的关系得到似然函数,将目标定位问题抽象为位置参数的最大似然估计问题,推导了了目标位置参数的Fisher信息矩阵和克拉美-罗下界。针对雷达天线位置存在测量误差可能导致定位性能下降的问题,首先利用一阶泰勒近似推导了忽略天线位置误差时目标位置估计的均方误差,然后基于统计独立的思想推导了同时考虑天线位置误差和目标位置参数的联合克拉美-罗下界,定量分析了天线位置误差对定位精度的影响,为后续研究奠定了理论基础。第叁章针对单目标定位场景,主要研究了基于半定规划理论的分布式MIMO雷达间接定位方法。将基于双站距离观测的间接定位建模为非线性最小二乘问题,通过一阶泰勒近似推导了线性化定位方法。为了从理论上保证获得全局最优解,借助凸优化思想提出了基于半定规划的目标定位方法。该方法通过引入多余变量,将非线性最小二乘问题转化为带约束的凸优化问题,然后通过半定松弛技术对非凸约束条件进行松弛再转化为可解的半定规划问题。在该框架下,还推导了存在天线位置误差情况下的半定规划定位方法,该方法大幅度降低了天线位置误差带来的影响,提高了目标定位的稳健性能。第四章针对多目标定位场景,主要研究了基于稀疏重构理论的分布式MIMO雷达直接定位方法。将基于匹配滤波信号的直接目标定位建模为一种块稀疏表示模型,目标定位转化为块稀疏重构问题。为解决上述问题,在块稀疏贝叶斯学习框架下发展出一种多目标定位方法,该方法利用块内的相关性,可以提高重构精度。实验结果表明,所提算法课不需要数据关联处理,具有处理密集目标、压缩采样等条件下定位问题的能力。另外,针对相参处理中可能存在的相位不同步问题,在块稀疏贝叶斯学习和最大似然估计框架下提出了一种迭代算法来解决上述问题,具体来说,迭代利用最大似然估计出相位误差和块稀疏贝叶斯学习重构出目标散射系数,该算法在相位失配情况下体现出良好的误差校正能力和较高的定位精度。第五章主要研究了分布式MIMO雷达针对目标定位的功率分配问题。针对间接定位模型,严格推导了目标位置的贝叶斯Fisher信息矩阵,详细给出了随机可观测性的粒子近似计算方法。以随机可观测性为目标函数、发射总功率为约束条件,将功率优化分配建模为非凸二次问题。为解决上述问题,阐述了合作博弈理论中沙普利值的概念、性质和求解,在该框架下提出了一种基于沙普利值的功率分配方法,给出了迭代实现流程。该方法利用加权图理论简化了沙普利值的计算过程,且具有明确的物理意义。仿真结果表明,所提算法通过合理优化分配发射功率,有效提高了目标定位精度和资源使用效率。第六章对本文的研究工作和主要创新点进行了总结,并指出了下一步可能的研究方向。

薛全[2]2004年在《H.264/AVC中运动估计、变换与解码器优化》文中提出2003年3月,联合视频工作组JVT(Joint Video Team)正式提出了新一代视频压缩标准H.264/AVC,该标准是ITU-T与ISO/IEC两个国际标准化组织继MPEG-2/H.262标准之后,再一次共同提出的视频编码标准。H.264/AVC标准支持从低带宽、高误码率的无线移动视频通信到高码率、低延迟的视频广播及在线流媒体等多种应用,因此,日益受到业界的关注。为了实现更高的编码效率,H.264/AVC标准采用了很多新的编码技术,如多参考帧预测、多尺寸编码块模式、1/4像素精度运动矢量、整数变换量化、基于内容的熵编码、新型帧内预测、去除方块效应的滤波器等。在保证相同解码图像质量下,H.264/AVC比MPEG-2和H.263的编码性能至少提高一倍以上。 与此同时,H.264/AVC编解码器的计算复杂度与其它视频压缩标准相比,高出了几倍甚至十几倍,需要消耗大量的时间和系统资源。因此,基于PC平台的实时编解码器实现面临巨大的挑战,需要寻找高效的优化算法,以减少巨大的计算复杂度。本文主要从实时视频应用的角度,对H.264/AVC编码过程中运动估计、整数变换模块的加速和H.264/AVC解码器优化叁个方面进行了研究。 首先,本文针对H.264/AVC编码过程中耗时最多的运动估计模块进行了深入的分析,根据该方法支持多参考帧预测、多尺寸编码块模式和高像素精度运动矢量的特点,从四个方面分别进行了优化:①整数像素运动矢量搜索过程中,提出了非失真多层逐次消元搜索模式和带有中途停止的扩展菱形搜索搜索模式两种方法,通过结合初始搜索起点预测、搜索窗口自适应伸缩、中途停止准则等多种优化策略,给出了满足不同编码质量的快速整数像素运动估计算法;②根据分数像素局部范围内,误差曲面严格满足单峰分布特点,提出了一种基于抛物曲面方向预测的快速分数像素运动矢量算法;③通过对匹配过程中相邻块之间的运动矢量与绝对值误差和SAD相关性进行了深入的研究,针对16×8、8×16、8×8、8×4、4×8和4×4编码块模式,提出了叁条块模式优化选择准则;④并进一步提出了块特征分类预测方法,结合原点绝对值误差和(OSAD)与最小绝对值误差和(MSAD)之间关系,给出了一种多参考帧优化选择方法。 其次,本文对H.264/AVC中使用的整数变换系数分布规律进行了统计分析,并参考H.263全零块判别准则的分析方法,对适用于H.264/AVC编码的全零块判别准则进行了讨论,推导得到了全零块判别的上界和下界。通过对具有不同特征的图像序列进行综合测试、分析,给出了具有统计意义的最优全零块判别准则。对于中低码率的视频编码,全零块检测方法可以有效地减少变换量化模块的计算量。 最后,本文讨论了基于通用PC平台的H.264/AVC解码器优化问题,从算法角度提出了一种新型分组的可变长快速CAVLC熵解码算法,并且从代码实现上给出了程序优化的原则,并结合处理器特性讨论了进一步优化的可行性,最终实现了基于高性能PC平台的CIF图像实时H.264/AVC解码器。

王彤[3]2015年在《短块移动排序距离和序列拼接问题研究》文中进行了进一步梳理随着对基因组的研究深入和逐渐破译,我们的生活发生了巨大的变化。尤其是在医疗界中,随着人们对于基因组的了解迈上了新台阶,很多疾病的病因被逐渐的揭开,医务工作者在设计药物时能够更加科学有效,从而使得通过基因疗法来治疗一些当前医疗手段还无法治愈的疾病成为现实。通过控制人类的某些生化特性,从而达到恢复或者修复人体细胞和器官功能的目的,因此通过对基因组信息的操作甚至可以改变人类的进化过程。在农作物领域,人们可以通过控制基因组来改良果蔬品种,从而快速的提高农作物的品质,我们可以预见将会有越来越多的转基因植物、动物和食品问世,在新世纪里人类可能培养出超级作物。由此可见,在科技发展如此迅猛的今天,对于基因组的研究已然成为医疗、作物等多个生物科研领域中一个十分重视的问题。应运而生的则为计算生物学,科学家们通过数学建模和计算机仿真计算等方式对基因组中的相关操作进行分析,对基因组数据进行处理并从中获取生物信息。其中,典型的问题包括计算基因组间的重组距离、基因组片段的拼接、通过生物测序技术来得到基因组序列中冗余或丢失的信息等。但是由于基因庞大的数目、突变导致的相似性等问题的存在,当前对于计算生物领域的绝大部分问题都是NP-难的,这就要求计算生物领域的研究者们更多的致力于设计出多项式时间近似算法。本文主要针对计算基因组间的重组距离、基因组片段的拼接两类问题进行了分析讨论。对于排列短块移动排序距离问题,使用了基因组重排操作中的转位操作。次转位操作也称为一次块移动。短块移动是最常见的一种块移动。一次短块移动是将一个元素从排列中某个位置移动到最多偏离原来两个位置的块移动,因此也称为3-bounded转位。针对排列短块移动排序距离问题,文中给出了一类称之为双递增排列的特殊的排列,并得出了其短块移动排序次数的下界。以此为依据,分析原始排列中的所有最大双递增子排列,从而给出了任意排列短块移动排序次数的下界,改进了Heath和Vergara的负面结果,并为更好的近似算法的设计打下基础。而对于基于A-Bruijn图的基因组序列拼接问题,本文对Pevzner提出的用于解决单一基因组序列的RepeatGluer算法进行了详细的解释说明,此算法对基于A-Bruijn图的基因组副本进行分组。最后给出了相关步骤的部分代码,以期能够通过对A-Bruijn图的学习与实现,更好的了解并探讨解决基因组序列拼接问题的方法。

姚乃萌[4]2014年在《基于整数变换与滤波的图像降噪研究》文中研究指明图像噪声是妨碍人们对真实图像信息进行接收的因素之一,产生于图像传输过程之中。电荷耦合器件(CCD)在成像过程中会产生复杂噪声,同时外界环境也会导致噪声的生成。图像降噪作为减少数字图像中噪声的手段,一直是图像处理领域的一个基础性问题。针对不同噪声,合适的去噪算法不同。经典的去噪算法主要分为空间域去噪和频域去噪,但随着去噪质量要求的提高,很多算法开始混用两种理论方法实现去噪。比如,叁维块匹配算法(BM3D)通过运用空间域和频域去噪理论进行去噪。算法主要包括块匹配和频域滤波过程:块匹配完成了空间域中相似块的聚集,而频域滤波实现了变换域的去噪。BM3D的这种相似块匹配和叁维联合滤波的去噪过程凭借其优秀的去噪能力成为目前主流算法之一。但是,此算法包含复杂的变换和滤波过程,也因此限制了其被移植到嵌入式系统上,特别是只支持整型化运算的嵌入式系统。针对上述缺点,本文提出了一种整型化BM3D算法。算法将所有的浮点型运算转换成整型运算,其中包括二维小波变换(DWT)、二维离散余弦变换(DCT)、一维哈达玛变换(Hadamard)、维纳滤波器和在聚集过程中使用的凯撒窗函数。整型变换与滤波过程,不仅提高了整体算法的实现效率,并且使算法在嵌入式系统中得以实现。实验结果表明,在低噪声区,去噪后的结果与其他算法相近,但是在高噪声环境下,获得了比其他算法更好的结果。并且,算法的复杂度减小了将近20%,大大提高了原始去噪算法的运行效率。

郑欢[5]2014年在《数字图像修复算法研究》文中研究指明数字图像修复技术作为数字图像处理领域当前的研究热点,其目的是填补图像中的缺损区域或者需要移除的区域,同时保持图像结构和纹理的连续性,使得修复结果自然合理。现阶段的数字图像修复算法主要包括两大类:一类为针对小尺度破损的图像修补技术,主要用于修复小尺度划痕和斑点;另一类为针对大区域破损图像的修复技术,主要涉及填充大目标去除后空白区域的背景补全技术。目前,针对小尺度破损的修复技术主要使用基于高阶偏微分方程的算法,相关技术已经比较成熟,本文不再作具体介绍。大面积破损区域修复是当前图像修复领域的研究重点,本文针对此类问题进行了深入研究。论文首先介绍了数字图像修复算法的研究背景和意义,总结了国内外相关技术的发展历程和现状;然后重点分析了两种快速图像块匹配算法。1)基于Walsh-Hadamard变换的模板匹配算法,该算法能够实现最优匹配块的快速搜索,大幅减少计算量;2)基于随机的快速搜索算法,PatchMatch能够有效利用图像中相邻位置之间的匹配块之间的联系,迅速准确的找到所有块的匹配关系。其次,论文通过改进传统的能量函数,引入LM优化算法求解最优参数,搜索过程完成之后使用均值填充算法填充破损区域,同时利用分层方案由粗到细对修复结果进行优化,实现了旋转及尺度空间拓展。仿真实验结果表明,当图像存在旋转和尺度变换关系时,本方法能够有效降低匹配误差,获得理想的图像修复效果。论文最后讨论了两种基于金字塔的图像修复算法。1)是基于位移映射的修复算法,该算法使用数据项和平滑项作为代价函数,建立金字塔模型,并利用图像分割技术优化图像标签,根据位移-映射关系对破损区域内像素进行填充。2)是基于卷积金字塔的融合修复算法,该算法采用卷积金字塔模型,将优化后的滤波器集作用于残差图像,最后进行残差补偿。仿真实验结果表明,融合后的图像能够明显降低破损区域边界的不连续性,获得更加自然合理的图像修复效果。

刘昌进, 郭立, 李敬文, 刘俊, 杨福荣[6]2007年在《一种优于SAD的匹配准则及其快速算法》文中研究表明本文根据运动估计后的残差图像DCT交流系数的统计分布规律,推导出了一种块匹配运动估计的匹配准则,并针对该匹配准则需要较多乘法运算的缺点,设计了快速算法以减少计算量。实验结果表明对有亮度变化的帧,该匹配准则可以取得比SAD匹配准则更好的图像质量,同时快速算法可以减少约80%的乘法计算量。

郑亚光, 潘久辉[7]2016年在《一种基于滑动分块的重复数据检测算法》文中认为当被插入或删除的字节接近于匹配失败数据段两侧时,会导致SBBS算法回溯功能局部甚至完全失效。为此,提出一种改进的重复数据检测算法。采用滑动与滚动相结合的窗口移动模式减少窗口计算量,利用Rsync滚动校验和算法与MD5算法优化窗口计算模式,加快匹配速度。通过回溯匹配失败数据段,检测其中的重复数据段,以提升重复数据的检测精度。实验结果表明,与SBBS算法相比,该算法在重复数据段均匀分布与非均匀分布时的查全率分别提高约4.32%和5.28%。

徐国明[8]2014年在《基于稀疏表示的图像超分辨率重建方法研究》文中进行了进一步梳理在数字图像应用领域,受多种因素限制和影响,人们通常获取的是质量较差、分辨率较低的图像或图像序列,在许多情况下无法满足实际应用需求。为解决成像设备不足和成像条件限制,人们基于已有成像设备和当前观测图像,研究提高图像空间分辨率的“软”方法,即图像超分辨率重建技术。图像超分辨率重建通过建立图像退化模型,利用图像先验知识,采用信号处理的方法,在不改变现有成像系统的条件下,试图从一幅或多幅低分辨率图像中重构丢失的截止频率以外的高频信息,并消除退化因素影响,以最低的成本得到高分辨率图像。该技术具有广泛的应用前景,并得到了国内外学者广泛而深入的研究。信号稀疏表示理论给基于学习的超分辨率重建带来了新的机遇和前景,是目前超分辨率研究的热点问题。本文基于稀疏表示理论,利用机器学习方法从图像样本集中学习先验知识,将基于学习方法与基于重建的正则化项方法相结合,围绕单幅图像超分辨率重建所面临的关键问题展开深入研究,主要包括超分辨率重建模型建立、稀疏编码精度问题、局部与非局部先验联合稀疏表示,以及快速超分辨率重建与应用等问题。主要研究工作如下:1、提出稀疏域鲁棒性单幅图像超分辨率重建模型和数值求解算法。将基于重建方法中的正则化约束项建模思想统一到稀疏表示下的超分辨率重建框架内,与基于样本学习方法中的高频细节重建效果好的优势进行互补,建立带图像先验正则化约束项的稀疏域超分辨率重建统一模型。构造鲁棒性图像超分辨率模型,该模型能够对噪声(稀疏分解残差)进行有效抑制,并分别学习出高/低分辨率字典。在重建阶段,通过建立重建目标函数并增加局部约束,使待重建图像与观测图像的初始插值估计在全局保真度(以L2范数来衡量),以及局部的图像块稀疏重建保真度下误差最小。通过不同类型图像的多组数值仿真实验,验证了所提方法的有效性。2、针对目前在稀疏域进行超分辨率,普遍采取L2范数来刻画图像块的逼近误差与实际情况不一致的问题,提出超分辨率重建的混合高斯稀疏编码方法。在最大似然估计下,从其概率密度分布函数构造混合高斯稀疏编码模型,将模型转化为加权范数逼近问题;然后设计权值矩阵以适合图像的超分辨率重建,建立符合混合高斯分布的最小二乘问题模型,采用适合大规模问题的大尺度快速L1正则化最小二乘内点法求解该模型;利用所提方法对稀疏同构高/低分辨率双字典学习方法进行改进;最后对输入图像采用混合高斯稀疏编码方法逐一图像块进行稀疏编码并与高分辨率字典的线性组合重建图像并更新,进一步改善了重建质量。3、对于特定人脸图像的超分辨率重建问题,提出结合局部与非局部联合稀疏表示的幻觉脸方法。将人脸图像从局部特征和非局部特征两个方面进行联合稀疏表示,分两个阶段对人脸图像进行重建。在第一个阶段,提出稀疏性NMF特征脸获取方法,并转化为在线字典学习问题进行求解全局特征脸。在第二个阶段,考虑人脸图像块的非局部自相似特征,用PCA聚类紧的子字典取代过完备冗余字典,来表示不同结构特征的人脸图像块。在重建过程中,为进一步降低稀疏编码噪声,利用聚类中心参数,对编码模型增加集中稀疏逼近项,以使稀疏表示系数能够更接近原始图像,从而能够较好的重建人脸图像。4、速度是超分辨率重建算法在实际应用中的瓶颈问题,针对大样本下基于学习的超分辨率重建方法运行效率低的问题,从减少搜索匹配的样本空间和待处理的输入图像块两个方面,利用图像块的局部结构在相邻多尺度分辨率图像之间具有相似性的特征,以及对输入图像的平滑和非平滑区域进行区分以使用不同的处理方法,提出基于局部自相似样本匹配和多级采样滤波的快速超分辨率重建方法。对于图像中结构信息不丰富的光滑区域,利用奇异值分解来计算表达图像块局部梯度和边缘方向的能量信息,以寻找纹理丰富区域,通过阂值设定,以减少无需复杂方法处理的光滑图像块,在保持重建效果的情况下,进一步提高重建速度。上述问题的解决,有效克服了目前基于稀疏表示的超分辨率重建存在的不足,进一步提高了重建性能和算法运行效率,一方面为新理论下图像超分辨率重建技术的实用化奠定基础,另一方面,有助于理解信号表示理论与图像处理相关问题的本质,对相似的图像处理反问题如图像去噪、修复和去模糊等具有借鉴意义。

柴新新[9]2016年在《图像复制粘贴篡改检测技术研究》文中进行了进一步梳理在互联网和多媒体如此繁盛的今天,图像俨然已成为我们日常生活中相当重要的信息载体。然而随着各种图像编辑处理软件的出现和广泛应用,图像能够轻而易举的被篡改,使得图像的真实性和完整性受到破坏。如果被篡改过的图像应用于医学鉴定,司法证据,新闻媒体,科学研究等重要的领域,将有可能引起重大事故。因此,开展针对图像篡改检测技术的研究具有非常重要的意义。图像篡改检测技术主要分为主动检测技术和被动盲检测技术,主动检测技术简单易实现,但由于成本高、校验繁琐等原因使其应用有限,而被动盲检测是在没有先验的情况下进行检测,因此被动盲检测成为篡改图像检测技术的热点。本文针对图像复制粘贴篡改检测技术进行分析和研究,主要研究工作包括:(1)在图像块匹配方法中不同的特征提取方法会对检测结果产生较大影响,针对现有算法中的特征提取方法造成对复制粘贴以及后处理操作图像检测的鲁棒性较低的问题,本文提出了基于改进梯度方向直方图(HOGOBP)的图像复制粘贴篡改检测算法。尽管梯度方向直方图(HOG)信息可以反映图像的纹理等特征,但在检测复制粘贴块时,分块大小和方式直接影响提取的HOG信息,采用不当的分块方式提取HOG信息是造成复制块误检率较高的主要原因。本文的HOGOBP改进算法按照像素重迭对图像分块,提取的每一子块HOG信息更精确,更适合图像复制粘贴篡改检测,仿真结果也表明该算法有效提高了图像复制粘贴篡改检测的正确率。(2)虽然HOGOBP算法改善了复制粘贴块的检测正确率,但逐像素重迭分块却引起信息提取和特征匹配的计算量增加,为进一步改进HOGOBP算法,本文利用K-means分类算法先对各块的特征向量进行分类,在各类中再进行特征向量匹配,有效节省了计算开销。同时,利用特征向量分布基本连续的特点,改进了K-means算法的初始化中心随机分配机制,有效减少迭代次数,提高分类效率。(3)本文不仅对灰度图像、彩色图像、不同篡改面积以及篡改形状的图像进行检测,验证本文算法设计的有效性,而且还对后处理操作包括模糊、亮度调整、色彩失真、对比度调进行了检测,并与基于SVD、PCA、DCT的图像复制粘贴篡改检测算法进行了比较,仿真结果验证了本文算法有较高的鲁棒性。

邢春波[10]2008年在《闪存磨损均衡算法研究》文中研究指明嵌入式系统已经广泛地渗透到科学研究、工程设计、军事技术、各类产业和商业文化艺术、娱乐业以及人们的日常生活等各方面。随着嵌入式系统越来越广泛的应用,嵌入式系统中的数据存储和数据管理已经成为一个重要的课题摆在设计人员面前。闪存(Flash Memory)是嵌入式系统中一种常用的存储介质,具有体积小、容量大、成本低、掉电数据不丢失等一系列优点。目前已经逐步取代其他半导体存储元件,成为嵌入式系统中的主要数据和程序载体。通常,一个闪存是由若干个闪存块组成,每个闪存块又分为若干个物理页。闪存块是擦除操作的最小单位,而读和写都是以页为单位进行,对一个物理页进行重写之前,必须先对该页所在的块执行擦除操作。而每一个闪存块的擦除次数是有限的,一般是在10万次到100万次之间,只要有一个闪存块的擦除次数达到了上限,数据存储就变得不可靠,会影响到整个闪存的读写效率和性能。因此,需要设计高效的磨损均衡处理(wear-leveling)策略,尽可能让各闪存块保持相近的擦除次数以延长闪存的使用寿命。本文首先介绍国内外现有的磨损均衡算法,通过仿真试验对比各算法的优缺点。然后从理论上给出了在任何一个闪存块达到擦除次数上限前,闪存可执行的擦除操作次数的上下界,并对此进行了证明。接着,对现有的算法进行改进,提出了两种基于不同目标的磨损均衡算法:1、闪存在每次初始化的时候,都需要将块的擦除情况读入到内存中,然后根据这些信息实现块的均匀擦除,但嵌入式设备的内存非常有限,减少磨损均衡处理时的内存消耗是磨损均衡策略设计中应当考虑的问题。本文创造性地在确定性算法中加入了随机处理的成分,减少了算法执行过程中的内存开销。2、节能是嵌入式系统设计的关键目标之一。嵌入式系统使用过程中不断进行着数据的存取,大量的能量消耗在作为外部存储介质的闪存的操作上。因此,减少嵌入式设备外部存储介质上的能耗是实现节能的重要途径。本文提出了一种基于低能耗的磨损均衡算法,既能够使各物理块有相近的擦除次数,从而延长闪存的使用寿命,又能够减少闪存操作上的能耗,从而延长了嵌入式设备一次充电后的使用时间。

参考文献:

[1]. 分布式MIMO雷达目标定位与功率分配研究[D]. 孙斌. 国防科学技术大学. 2014

[2]. H.264/AVC中运动估计、变换与解码器优化[D]. 薛全. 浙江大学. 2004

[3]. 短块移动排序距离和序列拼接问题研究[D]. 王彤. 山东大学. 2015

[4]. 基于整数变换与滤波的图像降噪研究[D]. 姚乃萌. 天津大学. 2014

[5]. 数字图像修复算法研究[D]. 郑欢. 天津大学. 2014

[6]. 一种优于SAD的匹配准则及其快速算法[J]. 刘昌进, 郭立, 李敬文, 刘俊, 杨福荣. 电路与系统学报. 2007

[7]. 一种基于滑动分块的重复数据检测算法[J]. 郑亚光, 潘久辉. 计算机工程. 2016

[8]. 基于稀疏表示的图像超分辨率重建方法研究[D]. 徐国明. 合肥工业大学. 2014

[9]. 图像复制粘贴篡改检测技术研究[D]. 柴新新. 南京邮电大学. 2016

[10]. 闪存磨损均衡算法研究[D]. 邢春波. 浙江工业大学. 2008

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

利用下界比较算法进行块匹配
下载Doc文档

猜你喜欢