基于Webcam的照片检索技术的研究与实现

基于Webcam的照片检索技术的研究与实现

程敏[1]2003年在《基于Webcam的照片检索技术的研究与实现》文中研究指明随着数字摄像机的普及以及大容量存贮设备的迅速发展,大规模的图像数据不断地涌现,使得基于内容的图像检索成为目前国内外各研究机构的热门研究领域。本文基于这一研究领域,提出了一项新的基于内容的图像检索的实用技术——基于Webcam的照片检索技术。该技术旨在通过一个与计算机相连的普通摄像头,以用户手中任意一张打印的照片为示例图像,对图像库进行检索,并找出与用户手中照片类似的照片图像,尤其是同一幅照片的图像。 本文依据该技术的叁个难点,将其分成叁个部分进行介绍。 第一部分是基于内容的图像检索,主要介绍了图像特征提取、相似度匹配以及相关反馈中所用到的各种算法。对于图像特征,我们主要是提取底层的视觉信息,如颜色、边缘、纹理等,根据所提取的各特征向量的属性,分别选用了不同的匹配函数,并对各特征采用加权组合的方式得出最终的匹配结果,在相关反馈中,根据用户对检索结果的评价,重新调整各特征权重,给出更接近用户需求的检索结果。该部分同时还讨论了基于某个局部区域以及基于图像子块的检索方式。 第二部分是快照处理部分,它将用户手中的照片变成一幅可以用来做检索的示例图像。不管实际的照片是否倾斜、模糊或者不完整,也不管用户在什么样的背景下操作,都希望计算机能自动获得一幅理想的例子图像,用于检索系统中。 第叁部分是颜色恒常性问题的解决,由于通过摄像头所拍摄的照片图像的色彩会受光照变化以及各种外界环境的影响,使得运用颜色特征做检索的效果并不理想,因此必须找到不受光照变化影响的恒定颜色。该部分通过对各种颜色恒常性算法的研究和试验,根据试验结果,将最终确定一种最有效的解决方案。 试验结果表明,我们为该技术所设计的系统可以有效的检索到用户手中的照片,对该技术的研究是成功的。

李晶晶[2]2017年在《基于图的鲁棒子空间学习问题研究》文中认为在大数据时代,数据的不断累积一方面直接促进了人工智能,尤其是深度学习的蓬勃发展,另一方面也给现有的数据处理技术带来了很多挑战。首先,高清图像和视频所产生的高维数据对计算能力的要求不断提高;其次,用户生成数据中混杂了大量的噪声,对机器学习模型的鲁棒性提出更高的要求;最后,各种异构数据(如文本,图像,声音和视频等)的出现需要训练模型具备更强的适用性。为了应对这些挑战,本论文提出一组基于图的子空间学习算法。通过将原始空间中的高维数据映射到子空间中,来避免维数灾难并过滤混杂在高维数据中的随机噪声。另外,在低维空间的运算也将大大降低学习模型的时间和空间复杂度。本文研究的主要内容包括以下几个部分:第一,给出本文研究的目的和意义,简要总结子空间学习的相关历史和研究现状,重点介绍基于图的子空间学习算法。进一步分析基于图的子空间学习算法的技术优势和可以解决的问题。另外,本文还列举了基于图的子空间学习算法的一些应用,比如图像分类,视觉追踪,文本聚类和多模态学习等。第二,本文在已有研究的基础上,提出了一组基于图的子空间学习算法。本文重点研究了在图嵌入框架下不同的图结构对算法性能的影响。并针对多视角,多模态图像分类问题,提出了特殊的图结构。该图结构不仅能像传统图像分类算法一样,保留语义类别之间的判别属性,同时还考虑视角与视角之间,模态与模态之间的共享属性和判别属性。本文用大量的实验证明了算法的有效性和优越性。第叁,本文结合稀疏表示和低秩表示,研究了基于图的子空间学习算法的鲁棒性。本文所提出的算法将图嵌入和低秩表示在同一个目标模型中进行优化,使得子空间学习算法不仅能够高效地处理多视角多模态数据,而且具有很好的鲁棒性,能挖掘出混有噪声的本真数据,同时保留样本的流形结构。特别地,本文不仅研究了低秩表示在数据表达上的作用,还研究了低秩表示在映射表达上的作用,即本文研究了低秩表示在特征和样本两个不同维度上的表达效果。本文在多视角图像分类和目标追踪任务中验证了提出算法的有效性。第四,移动互联网的发展带来了新应用的井喷,几乎每天都有不同功能的新应用上线。对于全新的应用来说,模型的训练将面临空前的挑战。这是因为目前几乎所有流行并且有效的模型都是监督或者半监督的,但是新应用并没有足够的带有语义标签的训练数据去训练能达到理想效果的监督或半监督模型。另一方面,虽然目前深度学习在各个领域都取得了巨大的成功,但是深度学习的一个必要基础是要有足够数量的带有语义标签的训练数据。在一些特定领域,比如医学诊断中,高质量的语义标签数据往往是非常有限和昂贵的,这在某种程度上限制了人工智能在这些领域的发展。迁移学习是近年来解决该问题的重要方法。他的主要目标是将相关领域学习到的知识迁移到新的领域中。子空间模型是解决迁移学习的一类行之有效的研究手段,因此本文还将迁移学习作为一个重点应用方向,研究了基于图的子空间学习算法在迁移学习场景中的应用。本文分别提出了四种针对同构域适配,异构域适配,多源迁移学习以及标点选择的迁移学习算法。第五,结合稀疏表示,低秩表示和迁移学习,本文提出了一种商品推荐算法。该算法可以同时处理推荐系统中的两个富有挑战性的问题——冷启动问题和长尾推荐问题。本文所提出的算法从辅助数据中学习知识,并将其迁移到目标系统,从而完成冷启动。同时,在冷启动的过程中,该推荐算法将推荐对象区分为流行商品和小众商品,将小众商品的推荐当做一个长尾推荐问题进行研究。该推荐算法使用低秩表示来挖掘流行商品,同时用稀疏矩阵表示长尾商品。在多个真实世界数据集上的实验结果验证了所提出算法的有效性。最后,本文对以上的研究进行了总结,并就其中可以进一步研究的问题作了展望,提出了可行的研究思路。

李兆歆[3]2015年在《多视角立体叁维重建方法研究》文中指出多视角立体(Multi-view Stereo)叁维重建,简称MVS重建,旨在从一组标定的二维多视角图像精确地重建叁维几何形状,是计算机视觉中一个基础且活跃的研究领域。随着数码相机,无人机和智能手机的广泛使用,日常生活中每天可以捕获大量的图像数据。MVS提供了一种使用图像重建室内和室外场景的有效方式,并在许多实际应用中发挥重要的作用,例如,娱乐、增强现实、数字文化遗产保护、城市重建、3D打印、对象检测和识别。虽然MVS重建方法已经取得了稳定的进展,目前已有的方法仍然在如下几个方面具有局限性,包括:(a)在处理深凹陷区域和细长突起结构时重建效果较差,对初始值敏感;(b)不易恢复尖锐表面特征和表面小尺度细节,占用内存较高;(c)较高的计算成本和较慢的收敛速度;(d)在实时重建中缺乏高质量的实时反馈。为了处理上述问题,本文从不同角度改进MVS重建。首先,为了提高在深凹陷和细长突起结构的重建质量,提出一种面向广义重投影误差最小化的两阶段最优化方法:Tw GREM。提出的广义重投影误差将立体和轮廓线索信息整合在一个统一的能量泛函中。为了最小化能量泛函,首先在叁维体素上引入凸松弛和凸优化,重建初始的表面。然后,基于叁角网格的表面演化算法细化重建结果产生高质量的重建输出。实验验证了Tw GREM在重建精度和完整度方面的优势,特别是对于覆盖有弱纹理的叁维场景和空间视角比较稀疏的图像数据。第二,为了重建表面的小尺度细节和尖锐的表面特征,并同时对弱纹理区域鲁棒且有效的抑制噪声的影响,本文提出一种细节保留的且目标自适应的变分MVS重建算法:DCV。算法通过交替执行重投影误差最小化和叁角网格去噪算法重建叁维表面。在重投影误差最小化中,提出一种新颖的图像间相似性度量方法,有效地保留重建表面的小尺度细节,并且建立起了引导滤波和图像配准之间的联系。在叁角网格去噪中,提出一种目标自适应的p去噪算法,可以自适应地估计p值和正则化参数。定量的实验评估验证了提出的DCV方法能够恢复更多的表面细节,获得更干净的和精确的重建结果。特别地,DCV在Middlebury dino ring和dino sparse数据集上的精度和完整度均实现了当前最好的结果。第叁,为了快速重建高质量的叁维形状,本文提出一种简单,高效灵活的基于深度图融合的MVS算法:Co D-Fusion。方法的核心是采用坐标下降(Coordinate Decent,即Co D)高效地最小化各向异性或各项同性全变分(TV)与L1结合的能量泛函。Co D-Fusion通过求解一组逐体素的L1最小化子问题来最小化TV+L1。这些L1最小化子问题可以使用快速加权中值滤波(WMF)高效的求解。WMF可被扩展到更大的邻域以更好的抑制重建中的瑕疵。定量和定性的评估结果验证了Co D-Fusion算法作为一种面向大尺度重建的MVS算法的灵活性和高效性。第四,为了实现面向实时应用的高效、鲁棒且低成本的MVS重建,本文提出一种基于GPU和单目RGB相机的实时重建系统和MVS算法。系统的输入来自低成本的消费级相机,如网络摄像头或手机端的摄像头。提出的算法可以鲁棒地追踪相机姿态和估计深度图,并将深度图融合为高质量的叁维模型,同时实时地细化相机姿态。通过对深度搜索空间随机的初始化,估计深度图的复杂度独立于深度的搜索范围,因此算法相对于场景的大小具有可扩展性。通过采用一种基于置信度的深度调整算法,重建算法对于弱纹理比较鲁棒。由于系统可以实时高质量地可视化重建结果,拍摄者可以在重建过程中自由的调整相机位置并规划拍摄路径。总的来说,本文的工作不仅提升了MVS的重建质量和效率,产生新的当前最好结果,而且它的解决重建问题的思路可以激发新的MVS算法或者其它重建方法。

张潇磊[4]2014年在《基于计算机视觉的智能安防监控系统研究》文中研究说明随着时代的发展,人们对生活环境的安全性和智能性提出了更高的要求,而安防监控系统在其中扮演着重要的角色。现阶段安防监控系统主要包括两种:红外报警系统和视频监控系统。红外报警系统易受复杂环境的干扰,而视频监控系统主要起到录像的作用,并且需要工作人员在监视器前进行观察,不但占用数据储存资源,而且效率低下。本文重点研究了安防监控中的图像预处理、人脸检测和人脸识别等,提出了基于人脸身份识别的智能安防监控系统。本文的研究工作包括:图像预处理方面,在研究相关文献的基础上,对原始图像进行一系列的滤波实验以改善图像质量;人脸检测方面,在AdaBoost算法的基础上,详细研究了图像中人脸的特征提取和级联分类器的训练,并利用EmguCV提供的分类器文件做了相关检测实验;人脸识别方面,在Eigenface算法的基础上,对K-L变换和PCA算法的基本原理做了相关论述,同时分析Fisherface算法,通过实验比较了两种算法在UMIST和ORL人脸库上性能的优劣,最后,提出了基于Hadoop的分布式人脸匹配识别解决方案,提高了识别速度;在上述研究的基础上,设计了智能安防监控系统,包括网络摄像头的连接、人脸检测、结合Oracle数据库的人脸数据存储、人脸识别以及基于ZigBee的远程报警。本文所设计的智能安防监控系统,测试效果良好。一方面能从输入图像中正确检测人脸,并能将人脸及其身份数据存入数据库中;另一方面能准确的识别人脸身份,陌生人情况下能及时报警。

谭小宏[5]2017年在《基于OPENCV&OPENGL的虚拟眼镜试戴系统的设计与实现》文中研究指明网络技术和电子商务的高速发展,使得网络购物成为现代人们生活不可或缺的一部分,但对于服饰等需要试穿的商品,网购体验一直不太理想,由于不能试穿试戴,退换货率始终高于其它类型的产品,而虚拟试戴技术的出现,在一定程度上解决这类问题,因此如何实现更为真实的虚拟试戴,具有现实意义。在眼镜销售行业,如何使用虚拟试戴技术,更逼真的实现眼镜的虚拟试戴,对扩大眼镜的销售范围,高消费者选购眼镜的效率,促进眼镜销售行业的发展都有着十分重要的意义。本文分析了当前虚拟眼镜试戴的现状,研究如何高虚拟试戴的真实体验,从人脸检测,人脸特征点检测,人脸姿态估计,渲染真实场景的眼镜模型等方面着手,结合增强现实技术,用普通笔记本摄像头,在不对其进行标定的情况下,设计和实现了能够实现实时多角度的虚拟眼镜试戴系统。出了一种在虚实融合中模拟深度遮挡的方法,解决了镜脚显示不真实的问题,并利用OPENGL光照渲染技术,较为真实的还原了3D眼镜模型。通过测试,系统对ORL人脸数据库的试戴成功率达到96.75%,对一般图片试戴成功率达到85.6%,且试戴效果真实准确,实时试戴流畅,匹配人脸准确,光照反射效果真实,内存和cpu占用率在合理范围内。测试表明,使用本文所的方法,在进行虚拟眼镜试戴时,可以使用普通的笔记本摄像头并省略了摄像机标定的步骤,降低了虚拟眼镜试戴系统的使用门槛和设备成本,未来在眼镜的渲染上面进一步改善后,可用于眼镜试戴的实际场景中。本文工作的主要特点有:一是在不标定摄像机的情况下,根据图片像素尺寸和针孔摄像机成像原理对焦距进行估计,实现了单幅图像的人脸姿态估计和3D眼镜模型的准确投影,从而实现实时多角度的眼镜试戴,并通过测试验证了估计方法可以满足虚拟眼镜试戴的需求;二是分析了3D眼镜模型投影和人视线的几何关系,出了一种用OPENGL裁切平面模拟深度遮挡的简单有效的方法,解决了虚实结合中镜脚显示不真实的问题;叁是对3D眼镜模型的结构进行分析,设计和实现了一种眼镜模型归一化和加载方法,拓宽了3D眼镜模型设计时的灵活性。

吴国琴[6]2017年在《迁移学习在图像分类中的应用研究》文中研究表明随着物联网和图像技术的急速发展,信息表示的方式多样化,尤其是以图像表达出来的方式,有着直观,容易理解等优点,比如现在各大新闻网站的每则新闻都包含多张图片,这使得图像在研究和日常生活中日益重要。如果能解决大量图像的有效高质量的标注和分类问题,可以使用户便捷高效地找到有用的数据。但是图像大都来自不同分布的数据集和领域。由于传统机器学习假设训练数据和测试数据服从相同概率分布,如果利用传统机器学习的标注和分类算法来挖掘新数据信息,性能势必下降;如果只利用单个数据集的数据训练模型,又体现不出大数据的价值。在实际应用中往往很难满足同分布条件,即使勉强满足条件也大大降低了模型的性能。随着计算机信息技术的快速发展,如何从海量数据中挖掘有效信息并加以利用已经成为当前研究热点问题。迁移学习即是如何在这种训练数据和测试数据概率分布不同情况下进行学习。迁移就是一种学习影响另外一种学习,这种迁移不仅可以发生在知识和技能领域,在动机、态度、情感、行为方式以及兴趣等领域内也同样是可以发生迁移的。迁移学习降低了训练数据和测试数据必须服从相同分布的限制,能够挖掘源域和目标域间稳定不变的结构和特征,可以有效地在相似的领域或任务间进行信息的共享和迁移,可以迁移和复用源域中有标注的监督信息。迁移学习近几年成为数据挖掘和机器学习的热点研究问题。本论文深入研究迁移学习问题,并在大量研究学者基础上,提出了两种不同的迁移学习算法。本文的主要工作和创新点在于:1.针对单一匹配边缘概率分布缩减源域和目标域差异性中存在的泛化能力差的问题,提出基于特征联合概率分布和实例的迁移学习算法。现有的迁移学习方法大都是基于特征的迁移学习方法或者是基于实例的迁移学习方法,与之不同的是,为了进一步提高迁移学习所获得的模型泛化性能,该算法在进行数据特征转换的同时加入实例正则项充分挖掘对目标域有利的相关实例。此外,通过特征学习和实例学习,不同域之间的差异性还是明显存在,该算法不仅缩减域间概率分布差异,同时缩小域间条件分布差异,并且以最小化这种差异性为目标,提出统一的优化目标函数。在字符集和对象识别数据集上的实验表明所提出算法的有效性。2.针对目前很多迁移学习方法主要减小域间差异性而忽略了数据本身隐藏的语义信息,提出一种基于流形学习的直推式迁移学习方法。该方法首先将各个领域的数据从原始高维特征空间非线性映射到低维特征空间,在该低维空间下,所有数据都得到新的表示,然后加入流形学习保持数据几何分布属性挖掘数据语义信息,最后为了缩减不同域在这个子空间中的分布差异性,本文通过加权的联合概率分布最小化域间差异性,对子空间中数据新的特征表示进行进一步的优化。在多个实际数据集上的实验结果表明本文所提出算法可以有效地提高迁移分类准确率。

龙明盛[7]2014年在《迁移学习问题与方法研究》文中研究指明随着数据规模和计算资源的快速增长,机器学习在理论和实践两方面都取得了长足进展。传统机器学习方法通常依赖于数据的生成机制不随环境改变这一基本假设。然而在机器学习的各种应用领域中,如大数据分析、自然语言处理、计算机视觉、生物信息学等,上述假设往往因为过于严格而难以成立。如何分析和挖掘非平稳环境中的大规模数据是现代机器学习最具有挑战性的前沿方向之一。迁移学习放宽了传统机器学习中训练数据和测试数据必须服从独立同分布的约束,因而能够在彼此不同但又相互关联的两个领域间挖掘领域不变的本质特征和结构,使得标注数据等有监督信息可以在领域间实现迁移和复用。迁移学习是解决目标任务标注数据稀缺的基础方法,其研究仍处于富有挑战的阶段。本文面向跨领域非结构化数据的分类和预测任务,系统地研究迁移学习的问题挑战及其解决方法。迁移学习中,过拟合、欠拟合、欠适配、负迁移等关键问题与挑战交错迭加。首先,在拟合观测数据所服从的未知概率分布时存在模型的过拟合或欠拟合问题;其次,在领域间适配不同的未知概率分布时存在模型的欠适配或负迁移问题:欠适配是指跨领域的概率分布失配问题未能充分修正,负迁移是指辅助领域任务对目标领域任务有负面效果。本文重点面向欠拟合、欠适配、负迁移等问题挑战,分析原因并设计针对性的学习方法,主要创新点包括:1.针对负迁移问题,提出一种图正则化联合矩阵分解模型,来构建跨领域间知识迁移的语义特征、提高特征结构的迁移能力、并避免特征结构的负面效果;该模型综合两类主流方法的优势,有效地克服了欠迁移与过迁移权衡的两难困境。2.针对欠适配问题,提出一种联合适配正则化学习框架,扩展最大均值差异准则用于度量联合概率分布距离;通过特征学习和监督学习使得联合概率分布在领域间适配,提出基于线性回归、支持向量机、主成份分析的叁种迁移学习方法,并基于统计学习理论分析它们的泛化误差上界;提出基于核矩阵低秩近似误差的概率分布度量新准则来充分适配领域间概率分布,并从理论上分析近似误差上界。3.针对欠拟合、欠适配与负迁移问题,基于深度学习扩展最大均值差异准则为非线性分布差异准则,提出统一的鲁棒深度表征适配模型来协同解决上述问题;提出迁移交叉验证方法,解决目标领域无标注数据的无监督迁移学习的模型选择。

李秦川[8]2013年在《基于光学相机的网络视频传输系统的设计与实现》文中研究表明在这个信息大爆炸和竞争异常激烈的时代,只有实时有效地把握外界信息,才能更好地去发掘对自身有利的信息。视频图像相比文字消息更利于信息收集,传统的网络相机能满足人们获取图像信息的要求,但有其自身的局限性,从硬件到软件的整体开发周期长、产品价格偏高、功能单一及操作复杂的缺陷都不能满足技术发展趋势,这就对视频图像获取方式提出了越来越高的要求,对高性能视频传输系统的研究也越来越迫切。本文针对上述问题,以高效可靠的视频采集技术及其在ARM硬件平台实现的工程应用为主要的研究对象,在分析从视频采集到终端显示等细节信息的基础上,结合理论原理和工程应用,对网络视频传输系统的软硬件架构进行了讨论和研究。主要内容为:1.研究网络视频传输系统的现状,结合实际应用,提出了网络视频传输系统的总体方案设计,选取CMOS图像传感器作为系统图像采集端,确立ARM架构系统作为总体硬件搭设,确定Linux作为嵌入式系统并在其上进行软件总体设计。2.搭设系统的硬件平台,分析采集端COMS芯片OV9650并设计了外围电路,采用S3C6410核心板和OK6410开发板底板相结合,进一步缩短了开发周期,然后对各个功能模块进行选取,并对其中电路进行了分析,为软件编程奠定基础。3.搭建系统应用开发环境平台,安装虚拟机RHEL5和RVDS工具,对交叉编译工具进行配置,移植了包括Bootloader,内核和根文件系统的嵌入式Linux系统,并针对本系统完成了网卡驱动和摄像头驱动的移植。4.设计并开发系统应用平台软件,对系统摄像头OV9650采集模块和系统通信协议模块进行编程,针对网络传输系统的需求,设计了系统视频采集服务器和客户端程序,其中系统视频采集服务器程序主要是服务器主函数和视频采集数据传输模块的设计,客户端程序是对通信模块程序、登陆界面以及采集界面进行设计,最终完成了系统整体设计并实现网络视频传输。

刘福帅[9]2017年在《基于视觉的移动机器人室外地形识别》文中进行了进一步梳理随着机器人技术和计算机视觉算法理论发展,机器人的应用场所得到了极大的拓展。具备一定的自主导航和地形识别能力成为室外移动机器人正常工作的重要前提。由于室外自然环境有别于室内环境,存在非结构化以及复杂多变等问题。因此不同的地形对于机器人的运动能力将会产生各种各样的限制。机器人对于环境的感知过程中,视觉可以提供丰富的信息,基于视觉的地形识别有助于机器人对于即将通过的地形进行理解并作出合理预测。对于地形进行精确的识别,将保证移动机器人在自然环境中安全、稳定地运动。本文研究了基于视觉的移动机器人地形识别算法,主要工作如下:首先,论述了地形识别的研究背景和意义,综述了国内外文献对于移动机器人地形识别技术的研究现状,分析了基于视觉的地形识别相较于其他传感器存在的优越性,从场景分割和地形特征提取以及目前公开的地形数据集几个方面对当前基于视觉的地形识别研究中存在的问题进行了分析,介绍了本文的主要研究内容和章节安排。第二,在对于当前地形分类实验采取的公共数据集的研究基础之上,提出建立了更全面的SDUterrain地形数据集。该数据集利用消费级相机和摄像头采集,包含光照多样性、场景复杂性等等地形样本,并进行了标注,具备一定的样本丰富性。第叁,针对室外场景复杂多变的特点,对于混合地形样本图像分割进行了尝试,采取了分水岭算法和图论方法进行分割。其中分水岭算法会产生严重的过分割,因此本文将基于比较理论的图论方法与分水岭算法分割相结合,实现了适用于地形场景的分割方案,改善了过分割现象,分割得到了完整的地形区域和包括地平线在内的区域界线。第四,分析了地形图像的特征特点,对于地形数据集样本提取了颜色直方图、LBP(Local Binary Pattern,局部二值模式)、SIFT(Scale-Invariant Feature Transform,尺度不变特征变换)、CEDD(Color and Edge Directivity Descriptor,颜色和边缘方向性描述子)四种特征,并采用ELM(Extreme Learning Machine,极限学习机)作为地形识别分类器。在实验阶段首先对于ELM应用于地形识别特征分类进行合适参数组合选取测试实验,再分别对于各特征采取不同激活函数和隐元进行分类实验后,确定了最优的参数选取区间,有利于后续地形识别中提高整体分类精度和节约隐元选择时间。随后,在此基础上对于单一特征进行地形分类实验,在单一特征精度不足的情况下,尝试特征融合的方案,将具有互补特性的颜色直方图特征与LBP特征融合,取得了优于单一特征的地形识别效果。最后,总结了本论文的工作,并展望了地形识别下一步的研究方向。

吴华锐[10]2017年在《数字边坡信息技术研究》文中指出互联网、大数据技术的不断发展,加快了数据化向工程建设的各方面渗透应用,基于网页端开发叁维边坡信息系统应用对边坡工程的规划、建设及施工都具有重要的辅助决策意义。论文结合工程实例,将边坡工程叁维场景和BIM建模、GIS、离散元分析、神经网络、叁维可视化及数据库技术相结合,从叁维可视化、力学分析及视频监控图像处理叁大模块出发,独立研发了一个边坡信息系统。主要研究内容和研究成果如下:1基于无人机摄影测量叁维场场景重建技术,结合BIM及GIS的应用,实现了边坡工程数字高程模型DEM及叁维网格模型的快速经济获取,提高边坡工程规划设计效率,为边坡工程在网页端叁维可视化及施工过程力学分析评价提供辅助决策支持。2基于PFC3D离散元进行二次开发,实现了复杂边坡数值模拟快速建模及分析。设计了边坡工程力学参数数据库,结合移动网络,实现数值模拟力学参数应用内外业一体化,同时为岩体宏观力学参数反演细观力学参数提供训练样本。3基于BP神经网络算法,结合数据库应用技术,通过均匀设计-离散元分析-神经网络构建,实现了宏观力学参数对细观力学参数的反演,避免了相同地质条件边坡模拟力学参数反复调整,提高离散元分析效率。4应用webrtc网络摄像头,基于改进叁帧差分及背景差分法,开发视频监控图像处理模块,实现了运动目标的实时捕获及预警时刻目标位置信息同步上传服务器,实现了预警信息多客户端同步预览。5以数据库为核心,应用python、html/css、Javascript及PHP编程语言,从边坡工程叁维可视化、力学分析及视频监控叁大模块出发,独立开发了一套基于网页端可实现跨平台、易维护、低成本的应用系统,具有一定的工程应用价值。

参考文献:

[1]. 基于Webcam的照片检索技术的研究与实现[D]. 程敏. 浙江大学. 2003

[2]. 基于图的鲁棒子空间学习问题研究[D]. 李晶晶. 电子科技大学. 2017

[3]. 多视角立体叁维重建方法研究[D]. 李兆歆. 哈尔滨工业大学. 2015

[4]. 基于计算机视觉的智能安防监控系统研究[D]. 张潇磊. 南京邮电大学. 2014

[5]. 基于OPENCV&OPENGL的虚拟眼镜试戴系统的设计与实现[D]. 谭小宏. 华南理工大学. 2017

[6]. 迁移学习在图像分类中的应用研究[D]. 吴国琴. 安徽大学. 2017

[7]. 迁移学习问题与方法研究[D]. 龙明盛. 清华大学. 2014

[8]. 基于光学相机的网络视频传输系统的设计与实现[D]. 李秦川. 电子科技大学. 2013

[9]. 基于视觉的移动机器人室外地形识别[D]. 刘福帅. 山东大学. 2017

[10]. 数字边坡信息技术研究[D]. 吴华锐. 北方工业大学. 2017

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

基于Webcam的照片检索技术的研究与实现
下载Doc文档

猜你喜欢