H.264视频编码并行算法的研究及其实现

H.264视频编码并行算法的研究及其实现

何艳辉[1]2003年在《H.264视频编码并行算法的研究及其实现》文中认为数字压缩技术是多媒体应用中的一项关键技术。通过对多媒体数据的压缩可以有效地减少视音频存储所需要的内存空间和传输所需要的带宽,减少存储和传输的开销,达到实时编解码和实时传输的目的。基于视频压缩的多媒体应用具有非常诱人的前景,也正逐渐成为日常生活中不可或缺的一部分。 但是视频编码过程是一个非常复杂的计算过程,它对计算机的处理能力要求非常高,要求处理器有较高的性能。数字视频处理的计算量很大,在单处理机系统环境下,采用串行程序设计方法,要达到实时几乎是不可能的。然而,H.264(MPEG-4第十部分)所覆盖的多媒体应用大多数又都有实时的要求。并行,则利用了比单台计算机更优的性能,而且H.264编码器的结构非常适合于分布并行计算。 基于消息传递的并行计算环境是广泛用于并行计算机上的程序范例。对于不同的应用消息传递能够高效率和可移植地实现。目前通用的消息传递环境有Express、P4、PVM和MPI等几种。其中MPI(消息传递接口)是目前最重要的编程工具,它具有可移植性好、功能强大、效率高等多种优点。基于MPI的特点,我们用MPI来实现视频编码的并行算法。 本论文提出将H.264视频编码算法在基于MB(宏块)的基础上,针对GOP(图像组)和Slice(段)的特点,在消息传递并行计算环境MPI中,利用数字视频在空域和时域上的局部相关性,采用并行程序设计方法,实现数字视频实时处理。

于传龙[2]2015年在《基于GPU的H.264视频编码实现》文中研究表明近年来,视频应用越来越普及,并且随着处理性能、显示设备和网络性能的提升,大分辨率视频(如高清视频、超高清视频)逐渐成为视频业务的主流。随着图像尺寸的增加,为了追求更高的视频压缩性能,视频压缩算法的复杂度也日益增长。从H.264到现在的HEVC标准,视频压缩的复杂度也成倍增长,在现有的处理平台上已经很难满足高清/超高清视频图像的实时编码,这制约了高清视频业务的发展。因此,研究高分辨率视频图像的快速编码技术成为视频编码领域的一个研究热点。另一方面,随着GPU的高速发展,利用GPU进行并行计算优化具有研发成本低、编程灵活、并行处理能力强等优点而成为一种通行做法。因此,研究基于GPU平台的快速视频编码技术具有很大的市场应用前景。本文选择目前视频压缩标准中主流的H.264编码器作为优化对象,研究其在GPU平台上的并行优化问题,以提高高清视频图像的编码速度。本文取得的主要成果有:1.本文设计和改进了H.264编码器的GPU+CPU异构的编程模式。该模式可以有效的降低数据在GPU和CPU之间传输次数,提高系统的运行效率。2.本文改进并实现了一种基于GPU平台的H.264帧内编码并行计算结构。该结构可以降低预测编码的数据程度,提高了帧内编码计算的并行化程度。3.本文改进和实现了熵编码的并行计算结构。该算法充分利用GPU的存储和线程特性,对亮度直流分量和交流分量、色度直流分量和交流分量进行并行处理,提高熵编码的效率。实验结果表明本文实现的编码器比CPU下算法加速的x264编码器速度提升4-5倍,大幅提高了高清视频图像的编码速度。

吴羡[3]2014年在《H.264编码关键模块并行算法设计及其在CUDA上的实现》文中提出视觉是人类获取信息的主要途径。视频作为视觉信息的载体,其数据量大,难于传输和存储,因此开发高效的视频编解码算法一直是学术界和工业界的关注点。从第一代视频编码标准H.261到H.264及现在的高效视频编码(HEVC),学者和工程师们不断的优化设计各种编解码算法,期望以更小的计算复杂度达到更高的压缩效率。H.264优秀的视频压缩效果以及良好的网络适应性使其成为应用最为广泛的视频编解码协议,但H.264优越的编码性能以计算复杂度的大幅度提高为代价,于是如何提高H.264编码计算效率成为研究的热点问题。现代计算机正在朝着多核、众核的方向发展,基于多核、众核的并行计算以及并行算法设计也是方兴未艾。GPU是一种众核处理器,原来用作图形渲染,近些年来也被广泛的应用于通用并行计算。2007年英伟达公司推出了计算统一设备架构(CUDA)以及与之配套的CUDA-C程序设计语言,推动了GPU并行计算的发展。将视频编码算法映射到GPU上实现已经成为提高H.264编码算法计算效率的一个重要方向,如何设计适合GPU的H.264并行编码算法成为问题的关键所在。本文在研读H.264协议和串行编码算法的基础上,充分挖掘GPU的众核计算能力,完成了H.264中若干关键模块的并行算法设计与实现,其中包括:为树状结构运动估计设计一种全并行运动估计算法;为H.264关键模块P帧设计了并行计算帧间预测和帧内预测的梯状并行运动估计算法;为H.264中B帧预测设计了并行计算前向预测和后向预测的B帧预测并行算法;为H.264并行视频编码器关键模块码率控制设计了适合于CABAC熵编码的码率控制算法。本文设计的所有并行编码算法均在GPU上通过CUDA编程进行了实现,并进行了大量的实验。实验表明本文所设计和实现的并行算法能够在保持视频重建质量的前提下大幅提高H.264并行编码器的计算效率,能够实现对1080p视频的实时编码。

章剑[4]2012年在《基于CUDA平台的H.264视频编码器研究设计》文中研究表明H.264/AVC是当前国际上最先进的视频编码标准,通过采用新的编码技术获得了更高的编码效率与更好的图像质量。但是这些新技术在提高编码效率的同时也带来了更高的计算消耗以及对系统内存带宽的需求。由于运算复杂度的增加,使用目前的硬件平台已经很难实现高清视频的实时编码。另一方面,近年来图形处理器(GPU)的处理速度正在以超过摩尔定律的速度发展,而且能够加速处理一些非图形领域的应用问题。CUDA、OpenCL等编程模型的出现使得基于GPU的通用应用开发变得更加简单灵活。目前GPU已经在天文学、流体力学、电磁仿真、信号处理、视频压缩等领域获得广泛的应用,并取得了丰硕的成果。本文通过对CUDA编程模型以及H.264视频编码框架的研究,提出了一种基于CUDA的H.264并行编码器实现方案。该方案中CPU负责编码参数的初始化、视频文件的读写、CPU与GPU之间的数据交互以及对GPU的调度和控制。GPU负责编码过程中帧间预测、帧内预测、变换与量化、熵编码与去块滤波等具体计算任务的执行。通过合理的任务分配,充分发挥了CPU和GPU两种处理器各自的优势。然后对编码器的各个模块重新作了并行设计。针对帧间预测分别设计了整像素运动估计与分像素运动估计的并行执行过程,提出了一种并行的参考帧插值计算方法;针对帧内预测设计了宏块之间与宏块内部两级并行的执行过程;针对变换与量化设计了快速DCT变换与Hadamard变换的并行执行过程;针对熵编码设计了每个子块码流生成与各宏块码流合并的并行执行过程;针对去块滤波设计了边界强度计算与滤波计算的并行执行过程,提出了一种新的去块滤波的宏块执行顺序,增大了并行粒度。最后本文选择了多种格式的视频序列对设计的编码器进行了详细的性能测试。相比传统的串行编码器,本文设计的基于CUDA的并行编码器在处理1080P全高清视频时获得了平均16倍左右的加速比,并且图像质量只有微小的损失。本文基于CUDA平台开发的H.264视频编码器性能有了明显的提升,可应用于很多现实场景中,同时在推广GPU用于通用计算任务方面也有着很强的借鉴作用。

黄兴[5]2012年在《H.264并行视频转码算法研究》文中提出视频转码是指对已经压缩编码之后的视频流进行格式上的转换,使经过处理后的视频能满足信道传输或用户终端的要求,其中的格式包括分辨率、码率和编码标准等。由于视频转码需要对已经压缩过的码流进行解码,然后再经过编码转换成满足要求的目标格式码流,因此视频转码是个计算量很大的过程。针对单处理器串行视频转码速度较慢的问题,为了提高视频转码的效率减少转码延迟,本文研究了如何利用并行化的思想来对视频转码进行加速的方法。本文首先对视频转码技术的系统结构和分类进行了概述,然后介绍了并行算法设计的理论基础并对H.264视频转码的可并行化方法进行了分析,接下来从不同的并行粒度上对H.264的并行视频转码算法进行了研究。论文主要完成以下两个方面的研究工作:第一,针对现有传统串行转码算法难以解决转码复杂度的问题,本文将基于机群的并行思想应用于H.264视频转码,在构建并行平台的基础上设计了GOP级的H.264并行视频转码算法。该算法以GOP作为并行处理的基本单元,通过构建一个分布式的平台,将分割成段的视频放在平台上来完成并行的视频转码。实验数据表明,该算法能够有效提高视频转码的速度和效率。第二,为了提高视频转码的效率降低视频转码的算法复杂度,论文根据视频转码的要求和图形处理器的并行结构,提出了一种宏块级的并行算法。该算法利用了GPU强大的并行计算能力,将宏块作为基本处理单元,将复杂的视频转码过程转移到GPU上并行的执行,以达到加速视频转码的目的。实验结果表明,该算法能在保证转码视频质量的条件下将转码速度提高3~4倍,大大缩短了转码延迟,满足了实时性的要求。

胡佳[6]2011年在《H.264视频编码的并行实现》文中提出视频处理技术是伴随着视频从模拟到数字化转变的过程中得到蓬勃发展的。随着人们对视频图像的清晰度、流畅度、实时度的要求越来越苛刻,使其成为了一项炙手可热的技术。1980年以来,国际电信联盟(ITU)和国际标准化组织(ISO)先后颁发了一系列关于静止和活动图像的压缩标准,奠定了该技术的雏形。H.264被称为新一代先进视频编码标准,H.264相对以前的编码方法,在图像内容预测方面提高了编码效率,它采用帧内预测、可变块大小运动补偿、1/4采样精度运动补偿等算法改善了图像质量,增加了纠错功能和各种网络环境传输的适应性。但与此同时,计算复杂度也随之增加了。编码的计算复杂度大约相当于H.263的3倍,解码复杂度大约相当H.263的2倍,这就限制了它在实时视频编码中的应用。因此,改进H.264的相关算法,降低它的计算复杂度是非常有必要的。CUDA(Compute Unified Device Architecture)是一种由NVIDIA推出的通用并行计算架构,它包含了CUDA指令集架构(ISA)以及GPU(Graphic Processing Unit)内部的并行计算引擎。该架构是用于GPU计算的开发环境,它运用了GPU中大量闲置的流处理器的资源,进行大规模并行计算科学计算。GPU(Graphics Processor Unit)起初主要应用于3D图形渲染,受游戏市场和军事视景仿真需求的牵引,GPU性能提供速度很快。目前,越来越多的软件开发人员正在使用CUDA软件开发工具来解决各种专业以及家用应用程序中的问题。这些应用程序从视频与音频处理和物理效果模拟到石油天然气勘探、产品设计、医学成像以及科学研究,涵盖了各个领域。于是将GPU用于视频编解码已成了一大研究热点。帧内预测算法在较大程度上增加了计算复杂度。为了找到一个宏块的最佳编码模式,需要对亮度块与色度块的大量模式组合全部搜索一遍,率失真代价的计算量相当庞大,使得H.264的编码复杂度大大增加。因此本文提出了一种改进的快速帧内预测算法,并将该算法并行实现。利用GPU的强大浮点计算能力和并行特性,提出了CPU+GPU的并行编码架构,总结CUDA技术对并行效率的影响,并将SAD计算部分并行实现,更高程度上提高编码效率。

任巨[7]2010年在《基于流计算模型的视频编码关键技术研究》文中指出数字视频,是信息时代中获取信息的重要途径,它广泛应用于视频会议、远程医疗、远程教学、网络视频点播、高清数字电视广播、数字电影以及数字视频存储等领域。视频压缩编码是数字视频应用的核心,计算量大、算法复杂,是典型的计算密集型应用。随着视频逐渐向高清发展,视频压缩编码对计算性能的需求越来越高,已经达到每秒万亿次级。现有的运行于通用处理器上的串行结构编码器已经不能满足高性能视频编码的需求,而专用硬件实现的编码器又具有灵活性差、开发周期长、成本高等缺点。因此在高性能视频压缩编码领域,可编程处理器上基于并行计算模型的编码器成为新的研究方向。流计算模型是近年来新兴的一种并行计算模型,已经在包括视频编码在内的媒体处理、信号处理、科学计算等密集计算应用的加速领域获得了成功。流计算模型通过对计算密集性、多级并行性、多层次局域性的充分挖掘,使视频编码应用获得显着的性能提升。然而,在视频向高清甚至未来超高清的发展过程中,视频图像分辨率的增大、编码实时性和压缩率要求的提高、视频编码本身固有的特征都向基于流计算模型的视频编码提出了一系列新的问题,包括流计算视频编码的扩展性问题、编码过程中广泛存在的相关性问题和高分辨率视频编码的计算性能问题等等。在此背景下,本文选择了“基于流计算模型的视频编码关键技术研究”作为博士研究课题。针对基于流计算模型的视频编码所面临的扩展性、相关性和计算性能问题,本文在视频编码的并行计算流框架、高效并行流算法、相关性约束消除、流化视频编码器的高效执行等四个方面,完成了以下创新性研究工作:1、提出一种基于流计算模型的具有扩展性的视频编码框架——视频编码的可扩展流框架VSSF。VSSF旨在解决视频编码器面临的并行粒度扩展、并行度扩展、图像规模扩展和编码模块扩展等四个方面的问题。VSSF以流计算模型为基础,将视频编码中的计算和访存解耦合,计算部分封装在多个独立的计算核心引擎中,以数据带的形式进行访存。VSSF通过向片外存回数据的方式割裂了不同计算核心引擎之间在并行实现方式上的联系,从而支持并行粒度扩展;VSSF具有灵活的数据组织机制,通过修改数据带的组织方式支持并行度扩展;VSSF的设计与视频图像分辨率无关,因此可以通过修改每个计算核心引擎所处理数据带的数目来支持图像规模扩展;VSSF是一种开放性的并行框架,各个计算核心引擎之间属于松散耦合关系,从而支持视频编码模块扩展。2、提出一种基于流的计算量低、计算和访存规则的帧间预测算法——多分辨率多窗口帧间预测MRMW。针对帧间预测计算量大、计算不规则的问题,本文提出多分辨率多窗口帧间预测算法MRMW,同时满足计算量降低和计算规则两个方面的需求。MRMW通过将帧间预测划分为降分辨率全搜索、多窗口精化搜索、运动补偿等叁个独立的搜索步骤,降低了帧间预测中非规则问题的影响。MRMW通过在多个不同级别分辨率的图像中搜索候选运动矢量的方法有效降低计算量。MRMW的多窗口精化搜索则能够获得更加精确的运动矢量。另外,针对多窗口的选择问题,本文基于运动矢量预测原理提出双向相关运动矢量选择法,综合利用当前宏块周围各方向相邻宏块的相关性,使预测更为准确。3、提出相关性约束对并行限制的消除方法,解决视频编码中各种相关性问题。针对视频编码模块中存在的数据相关、控制相关、码流存储的优先约束等多种相关性问题,分别提出解决方案来消除它们对基于流计算的SIMD并行的限制:针对码流存储过程中的优先约束,创新性地提出了基于数据并行的CAVLC方法,割裂了计算与访存紧密耦合引起的串行路径,使具有典型串行特征的CAVLC打破了优先约束的限制,实现了并行的CAVLC。针对帧内预测的块间数据相关,基于对相关关系的分析,采用分阶段块级并行方法,提高帧内预测并行度和数据吞吐率。针对去块滤波中的多层次双向数据相关问题,提出分组并行法,实现细粒度的数据并行。4、提出一种通过提高异构核协同效率来加速视频编码执行的方法——软硬结合的异构核协同方法。针对流化视频编码核心程序在经典流体系结构中执行性能低的问题,提出了软硬结合的异构核协同方法。该方法避免了单纯使用软件方法进行异构核协同导致效率低下问题,在硬件结构、软件模块、指令集和编译等多个层次上进行设计和扩展,共同完成标量处理核和流处理核间的协同工作:在硬件结构层次设计了异构核协同单元,负责完成对性能需求较高的协同任务;在软件层次设计了软件协同模块,并提供相对应的编译扩展支持,负责灵活性较高而复杂的协同任务。实验结果表明,软硬结合的异构核协同方法使异构核间的协同性能提升2个量级,而在硬件开销方面只增加整个流处理器芯片面积的2%左右。本文还在流处理器、GPU、多核CPU和DSP等多个并行计算平台上实现了H.264 VSSF编码器。使用高清视频序列HD-VideoBench测试的结果显示,VSSF编码器对1920x1080视频的H.264编码在上述平台获得了十分显着的性能提升,并且在流处理器上达到了实时编码的性能需求。

江辉[8]2009年在《基于GPU的H.264视频并行编解码器》文中研究说明H.264是由ITU-T和ISO/IEC两大国际组织共同推出的最新视频编码标准,由于其具有较高的压缩率和良好的网络适应性,在数字视频存储、传输以及多媒体信息服务等领域将得到广泛应用。但是其计算复杂度大大增加,尤其用于高清视频编解码时,H.264编解码的实时性就成了一大难题,为此人们进行了深入研究。现在的PC机都可以装配一块独立显卡。显卡强大的处理能力源于其核心模块—图形处理器(Graphics Processor Unit,GPU)。GPU最初是为3D图形渲染而设计的,具有强大的浮点计算能力和并行特性。可编程GPU的出现,使得GPU不再仅限于图形操作,而可以用于非图形化领域。于是基于GPU的通用计算成了一大研究热点,人们已开始将GPU用于视频编解码。本文充分利用GPU的强大浮点计算能力和并行特性,研究基于GPU的H.264视频并行编解码器的设计与实现问题。运动估计占到了整个编码过程处理时间的60%以上,因此本文将运动估计模块移入GPU进行加速。本文提出了CPU+GPU的并行编码架构,通过打开传统编码器的反馈通路,利用原始帧作为参考帧,实现了CPU和GPU真正并行。本文提出了基于GPU的运动估计算法。实验结果表明该并行架构能显着提高编码速度,对于运动平稳的视频序列具有较好的编码性能。解码器由于直接面向客户端而应用广泛,因此对解码进行加速更具有实际意义。本文根据CPU和GPU各自特性,提出了CPU+GPU的并行解码器:CPU负责码流分析和熵解码,而GPU负责运动补偿、反量化、反变换、重构以及色彩空间转换。本文充分利用GPU的多通道特性,提出了多通道运动补偿、反量化、反变换算法。实验结果表明该并行架构与传统的基于CPU的解码算法相比,能够达到明显的加速效果。通过本文的工作表明,在不升级硬件的条件下,利用GPU强大的计算能力和并行特性提出的并行编解码器,在保持与传统编码器相当性能的同时,能够显着地提高编解码速度,具有良好的适用性。

苏华友[9]2014年在《面向应用的GPU并行计算关键技术研究》文中提出随着信息技术的进步,大规模科学与工程应用对计算性能的需求不断增加。由于功耗的限制,过去十年计算机技术的发展基本摒弃了通过提高处理器频率来增加计算机性能的传统模式,转而朝着多核、众核体系结构方向发展。由于CPU的通用性,基于多核CPU的大规模计算机系统仍然面临十分严峻的能耗问题。在这样的背景下,专用加速部件获得了学术界和产业界的广泛关注。尤其是以GPU为代表的异构处理器,以其优异的能效比,极大的促进了高性能计算技术的发展。同时,基于CPU-GPU架构的异构系统也已经成为高性能超级计算机发展的主流方向之一,例如基于NVIDIA Kepler架构的Titan计算机。虽然,GPU硬件技术已经获得了长足的发展,但是,GPU的硬件体系结构和编程模型与传统CPU存在很大的不同,与之匹配的并行软件技术相对落后,实际应用的效率和并行程序开发效率问题尤为突出。本课题面向特定的应用领域,深入开展基于GPU以及CPU-GPU异构系统的并行计算关键技术研究,涉及并行程序设计、并行编程模型、GPU性能预测模型和不同多核、众核处理器之间程序性能可移植性等问题。本文的主要研究工作和创新点如下:1.提出了一个基于GPU架构的高效并行视频编码框架,并在GPU上实现了一个完整的H.264视频编码器。本文通过循环划分技术,将整个编码器以帧为单位分为四个部分,分别是帧间预测,帧内编码,熵编码和去块滤波。这四个部分都被加载到GPU上并行加速,既可以开发每帧图像潜在的并行性,也进一步开发了各个部分之间生产者-消费者局域性,避免了不必要的CPU-GPU之间数据传输。本文使用CUDA编程语言,实现了一个面向GPU的完整H.264并行编码器。针对计算密集型组件运动估计,本文提出了一个面向大规模并行体系结构的可扩展并行算法(多分辨率多窗口帧间预测算法)。为了提高非规则算法的效率,本文提出了方向优先的并行去块滤波和基于分量的并行CAVLC算法,成功实现了大规模并行CAVLC编码器,大大减少了编码后传回CPU的数据量。另外,本文还提出了一个多级并行帧内编码算法。实验结果表明,本文实现的基于GPU的H.264编码器可以满足30帧每秒(fps)高清实时编码需求。2.提出并实现了基于大规模CPU-GPU异构系统的高效地质沉降模拟解决方案。基于天河-1A超级计算机实现了叁种全显示双岩沉降模拟方案:基于MPI的CPU-only实现、基于MPI+CUDA的GPU-only实现以及基于MPI+Open MP+CUDA的CPU-GPU混合实现。采用基于Open MP的CPU并行实现、基于CUDA的GPU并行实现和MPI的节点间通信实现了GPU计算与CPU计算以及节点间通信的重迭。实验结果表明,本文提出的异构实现可以获得很高的性能,满足高分辨率地质沉降模拟的需求,在1024个天河-1A计算节点上获得了72.8 TFlops的计算性能,模拟分辨率达到了131072×131072。3.提出了一个基于数据传输的stencil计算GPU性能分析预测模型。为了理解、预测stencil计算在GPU上可以获得的性能以及刻画其性能瓶颈,本文对stencil计算在GPU上的各种优化实现进行了量化分析,并从数据传输的角度提出了一个性能分析预测模型。基于叁个并行粒度:一个CUDA线程、一个线程块以及一组可以同时执行的线程块,本文分别对寄存器和SM片上存储器、SM片上存储器和L2 cache以及L2 cache和全局存储器叁个存储层次之间的数据传输量进行建模。结合GPU在各个存储器上可以获得的实际带宽和数据传输量,进一步预测程序的执行时间。实验结果表明,本文提出的基于数据传输的性能预测模型对于基本stencil实现在GPU上执行时间的预测错误率为6.9%,而对于经过优化实现的stencil程序的执行时间预测错误率为9.5%。4.研究了Open CL程序在多核CPU和GPU之间的性能可移植性问题。虽然Open CL编程使得同一个程序可以在不同硬件平台之间实现代码可移植,但是其性能可移植性却远远不能满足要求。本文从特定的应用出发,研究基于Open CL的stencil计算在CPU、GPU之间的性能可移植性问题。通过在循环之间增加代码,保持代码可移植性的基础上,提高了其性能可移植性。本文发现空间数据分块和寄存器重用技术可以同时提高stencil计算在CPU和GPU上的性能。实验结果表明,本文实现的面向GPU优化的Open CL stencil计算的性能是对应CPU上Open MP程序获得性能的96%以及对应GPU上CUDA程序的96.8%。

刘俊宏[10]2013年在《基于Tilera多核处理器的远程教学服务器视频编码软件研发》文中研究表明远程教学不受时间和地域的限制,满足现代人继续教育、终身教育的需求,因而备受关注。目前,远程教学发展存在两个主要问题:教学视频资源不足和远程教学系统交互性差。因此,研究开发有效的视频编码软件对远程教学应用具有重要意义。本文在分析了现有远程教学系统优缺点的基础上,得出本课题设计的基本方案一基于交互式感兴趣区域的视频编码。编码算法通过将学生感兴趣区域从高分辨率视频中提取出来,单独生成码流进行存储传输,实现交互式地浏览视频感兴趣区域。实验结果表明,本编码算法既不会损失感兴趣区域的视频质量,又不会造成网络负担和客户端计算复杂度的增加,是一种有效的编码方案。另一方面,本文研发的编码方案需要完成多个感兴趣区域的视频编码,因而编码复杂度较高。为了适合实际系统应用,本文对其中性能消耗较大的H.264编码器模块进行了优化设计。优化设计主要从叁方面进行:编码器模块的实现算法优化、编码器的并行优化以及结合TileGx36多核平台的优化方法。重点评估了并行优化的效率,测试结果表明编码器的运行速度得到了较大的提升。

参考文献:

[1]. H.264视频编码并行算法的研究及其实现[D]. 何艳辉. 湘潭大学. 2003

[2]. 基于GPU的H.264视频编码实现[D]. 于传龙. 北京邮电大学. 2015

[3]. H.264编码关键模块并行算法设计及其在CUDA上的实现[D]. 吴羡. 大连理工大学. 2014

[4]. 基于CUDA平台的H.264视频编码器研究设计[D]. 章剑. 南京航空航天大学. 2012

[5]. H.264并行视频转码算法研究[D]. 黄兴. 南京邮电大学. 2012

[6]. H.264视频编码的并行实现[D]. 胡佳. 湖南师范大学. 2011

[7]. 基于流计算模型的视频编码关键技术研究[D]. 任巨. 国防科学技术大学. 2010

[8]. 基于GPU的H.264视频并行编解码器[D]. 江辉. 大连理工大学. 2009

[9]. 面向应用的GPU并行计算关键技术研究[D]. 苏华友. 国防科学技术大学. 2014

[10]. 基于Tilera多核处理器的远程教学服务器视频编码软件研发[D]. 刘俊宏. 浙江大学. 2013

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

H.264视频编码并行算法的研究及其实现
下载Doc文档

猜你喜欢