缓存共享论文_刘茜

导读:本文包含了缓存共享论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:缓存,模型,多核,递归,多处,网络,处理器。

缓存共享论文文献综述

刘茜[1](2019)在《基于片上缓存协助的随机共享型计数器研究》一文中研究指出随着互联网规模的持续扩大,网络性能已经成为用户和生产商非常关心的内容,而网络测量技术,就是了解互联网性能和行为特征的基本手段之一。本文提出了一种全新的网络测量计数器体系架构,我们称之为基于片上缓存协助的随机共享型计数器(Cache Assisted and randomizEd ShAring counteRs,后文简称CAESAR)。网络中的单流测量一直是网络测量技术中的重要分支,近些年有很多工作都旨在设计出一种在线统计测量模块,使其能够匹配飞速增长的网络链路传输速度,进而实时更新网络流计数器中的统计数据。为了满足这样的技术需求,在使用读写速度比较慢的片外SRAM计数器之前,CAESAR中先增加一块高速的片上存储器作为辅助缓存,这样不仅能够在线同步更新网络流数据,进而避免丢失数据包,还能大大减少每个网络流对片外SRAM计数器的访问次数,进而提高时间效率。同时,在将缓存数据更新到片外SRAM计数器的过程中,CAESAR采用多个网络流随机共同享有计数器的思路,设计出一种紧凑型计数器结构,使得所有计数器项都尽可能被均匀地使用,减少了不必要的空间浪费,进而提高存储效率。将所有缓存数据更新到片外SRAM计数器后,对于某个特定的网络流,经过CAESAR中的计算,可以除去其他与之共享计数器的网络流带来的噪声影响,进而离线估算出该网络流的流量大小,我们在理论上严格推导出估算值的期望和置信区间,证明了估算结果的无偏性与准确性。在本文中,基于从真实骨干网获取的网络历史数据,既在Visual Studio中进行了软件仿真,也在Xilinx Virtex-7 FPGA芯片上做了FPGA实验,进一步验证了本文的理论推导。结果表明,对比以前工作,在相同的实验环境和计数器存储空间的前提下,CAESAR分别比CASE和RCS的平均处理速度快92.4%和90%,并将CASE和RCS的平均相对误差降低了至少一半。(本文来源于《南京大学》期刊2019-05-01)

刘骁,唐勇,郑方,丁亚军[2](2019)在《共享指令缓存XOR散列索引的研究与设计》一文中研究指出SPMD(Single Program Multiple Data)是高性能领域的主要工作模式之一,该模式下邻近核心执行相同的程序块,但根据处理数据或控制流的差异,临近核心的指令流并不完全相同.L1ICache(Instruction Cache)共享技术通过将邻近核心的L1ICache共享,能有效利用众核处理器SPMD工作模式的特点,同时能缓解片上资源紧张的问题.但共享结构会带来访问冲突,对性能有不利影响.本文基于排队网络对共享ICache的访问冲突进行了理论分析,该理论分析依据核心对共享ICache体的访问特性进行建模,避免了直接抽象物理节点导致的模型访存特性模糊问题.根据理论推导的指令缓存性能损失原因,本文设计了面向共享L1ICache的低访问冲突XOR散列函数.函数的设计综合考虑搜索了代价和工程实现复杂性,在保证散列线性空间随机散列能力的前提下,对附加延迟、功耗开销进行控制.该散列函数基于异或操作,通过调整ICache排队网络模型的节点转换概率,降低了共享L1ICache的访问冲突.实验结果表明,在指令缓存总容量为32KB的四核心簇上,使用XOR散列的共享L1ICache结构较私有L1ICache结构性能平均优化11%,较使用低位交错策略的共享L1ICache结构性能平均优化8%,较使用面向跨步访存散列策略的共享L1ICache结构性能平均优化3.2%.(本文来源于《计算机学报》期刊2019年11期)

王轲[3](2018)在《基于任务调度和共享高速缓存分配的多处理器片上系统能耗优化技术研究》一文中研究指出随着电子系统的复杂度和性能需求的提高,多处理器片上系统(Multiprocessor System on Chip,MPSoC)被广泛应用。在半导体工艺不断进步的现实情况下,降低多处理器片上系统的能耗已经成为系统设计者主要考虑的问题。在MPSoC中,处理器和存储器消耗能量的占比最高。因此,系统设计者需要重点降低这两部分的能耗。在严格实时系统中,受软件或硬件因素影响,任务的执行时间通常是不确定的。传统的调度方法由于只考虑了任务在最差情况下的执行时间,而只能得到能耗次优的任务调度结果。为了进一步降低处理器的能耗,一个全新的考虑了任务执行时间不确定性的调度方法亟待出现。MPSoC架构中,除了每个处理器私有的容量较小的高速缓存之外,多个处理器之间会存在共享的容量较大的高速缓存架构。这些高速缓存不但占据了芯片中很大的面积,还消耗了很多的能耗。当不同处理器中的任务并行执行时,它们对共享高速缓存的访问存在竞争和冲突,导致高速缓存系统能耗上升。共享高速缓存分配技术将共享高速缓存分配给不同处理器或任务,可以有效地解决上述的竞争和冲突。高速缓存缺失率是共享高速缓存分配技术的核心,在系统设计早期估计出高速缓存缺失率将对共享高速缓存的分配,乃至高速缓存系统的能耗都有重大影响。本文的研究内容主要包含以下两个方面:1)执行时间不确定的任务调度技术与处理器能耗优化技术研究。动态电压频率调节(Dynamic Voltage Frequency Scaling,DVFS)技术和动态功耗管理(Dynamic Power Management,DPM)技术经常用于优化MPSoC的能耗。但是,已有的DVFS和DPM算法都是基于任务间调度(inter-task scheduling)的,没能利用任务内调度(intra-task scheduling)来进一步降低系统能耗。本文提出了一个全新的考虑了所有任务执行时间概率分布的任务内调度方法;并且该方法针对执行时间不确定的周期性的有相互依赖关系的任务在MPSoC上执行的应用场景,通过全局整合DVFS和DPM技术,最终使得MPSoC各个处理器能耗的总共的数学期望最小。借助本文提出的方法,这种以降低处理器能耗为目标的调度问题可以用混合整型线性规划(Mixed Integer Linear Programming,MILP)问题来建模。更进一步地,为了压缩MILP问题的求解空间,本文又提出了一种重新组织所有任务执行时间概率分布信息的技术。基于手工建立的测试应用和打印机图像处理测试应用的实验结果表明,本文提出的方法相较于目前已经存在的方法可以节省30%的能耗。2)共享高速缓存分配技术及其能耗优化技术研究。本文提出了一种用于以降低高速缓存子系统能耗为目标的共享高速缓存分配技术中的,线性函数和幂函数(sqrt2原则)相结合的曲线拟合技术。考虑到高速缓存缺失率与其容量之间的内在关系,指数为(1-√2)的幂函数适用于相关度高的非线性区域的曲线拟合,线性函数适用于线性相关度高和线性相关度低的区域的曲线拟合。基于拟合后的函数,本文进一步将以降低高速缓存子系统能耗为目标的共享高速缓存分配问题转化成纯数学函数求最小值问题,从而得以快速高效求解。实验结果表明,本文提出的基于曲线拟合的共享高速缓存分配方法相对于传统的方法可以节省34.5%的能耗。更进一步地,用本文提出方法预测共享高速缓存缺失率和能耗的准确率很高。本文提出的执行时间不确定的任务调度技术和共享高速缓存分配技术可以有效降低MPSoC的能耗。共享高速缓存的分配方案会影响任务的共享高速缓存缺失率,进而影响任务的执行时间;而任务的执行时间的变化又会影响到任务调度方案。因此这两项技术是相辅相成的,将二者同时应用可以进一步降低MPSoC的能耗。(本文来源于《浙江大学》期刊2018-12-01)

徐东,赵琦,冷峰[4](2018)在《一种基于共享缓存的叁层递归域名系统的设计与实现》一文中研究指出递归域名系统是域名体系的重要组成部分,直接面向用户提供域名查询服务。递归域名系统的查询时效直接关系互联网网络应用的访问时延和用户的上网体验。为提高递归域名系统的查询时间效率,缩短域名查询时延,提出一种基于共享缓存的叁层递归域名系统,在理论研究基础上,搭建了系统模型,并使用业务系统查询日志进行了性能测试。该叁层递归域名系统的提出,为未来互联网企业搭建高效的递归域名系统提供技术参考。(本文来源于《现代电子技术》期刊2018年22期)

张瑞飞[5](2018)在《大缓存、大交换、大共享》一文中研究指出"我们有大量数据来自互联网和企业内部,怎么把这两方面的数据融合起来?传统企业和互联网企业在做的过程中产生了不同的痛点。"我们专注于自然语言处理,主要在大型企业市场落地,在落地过程中我们遇到一些问题,今天借这个机会把我们的后台处理能力和我们对大数据未来的一些认识在这里给大家分享一下。我们有大量数据来自互联网和企业内部,(本文来源于《软件和集成电路》期刊2018年08期)

俞立呈[6](2018)在《CPU-GPGPU共享最后一级缓存架构中的数据共享优化研究》一文中研究指出随着CPU和GPGPU在各种环境下得到应用,人们逐渐发现这两个处理器各自的独特优势。为了实现优势互补并支持更广泛的场景,由CPU和GPGPU组成的异构多处理器系统受到关注。其中CPU和GPGPU共享最后一级缓存(LLC)的片上紧耦合系统能实现更细粒度的交互。然而简单地将CPU和GPGPU连接到共享LLC时两种处理器在访存行为上的差异性导致数据共享效率受限,并不能充分发挥异构多处理器系统的计算能力。本文首先分析了 CPU和GPGPU使用共享LLC进行数据交换时的访存特征。发现简单的缓存替换策略并不能提供最高的数据交换效率,会产生缓存抖动问题,中间暂存数据被写入内存也会引入不必要的内存事务并浪费了内存带宽。此外传统的交互模式往往造成一方处理器空闲等待对方提供数据,无法有效地实现数据生成和计算的重迭。为了解决这些问题,本文提出使用固定大小的元素作为数据交换单位,并在LLC中实现硬件管理的共享数据队列以支持基于元素的数据共享。进一步提出元素-原子的数据组织方式以移除元素大小限制,配合访问协议支持GPGPU大规模乱序访问。同时还使用后备存储避免死锁同时保持访问低延迟,并在共享数据队列中实现了低代价的全局同步。在使用传统LLC进行数据交换时,本文发现CPU和GPGPU的算法常常偏好不同的最优数据存储布局以满足各自不同的局部性,导致数据存储布局冲突。已有的转换方法会污染转换处理器的缓存、引入额外的转换代码执行或管理代价。本文通过在共享LLC中加入访存地址重映射实现体系结构辅助的自动转换。于是运行在不同处理器上的算法始终可以它们各自的最优数据存储布局访问共享数据,并充分利用各的自私有缓存。由于处理器不再直接进行布局转换,CPU或GPGPU代码中也不再需要加入额外的管理代码。其次,本文使用可编程的重映射控制器实现灵活的数据存储布局转换,移除了对数据大小和只支持特定目标布局的限制。根据GPGPU并行访存的特征,本文指出其访存过程中存在大量的仿射计算,即各线程执行完全相同的内存地址计算,只有作为输入的线程ID有差异。这种冗余计算导致GPGPU的计算资源浪费且不利于对访存统一调度。因此本文提出访存分离计算,由CPU生成仿射计算参数,交由共享LLC计算各线程的实际访存地址,并生成相应的访存请求。LLC最终将数据经过访存融合后推送给GPGPU的各线程。因此访存分离计算移除了GPGPU代码中大部分的访存地址计算和访存操作本身,将更多GPGPU的计算资源保留给实际工作,提高了系统效率。最后,本文使用模拟器环境验证提出的优化方法。其中共享数据队列相比传统的数据交换方法加速了 48%,而CPU和GPGPU的平均全局同步时间分别缩短到21%和38%。使用共享数据存储布局重映射后,测试程序的平均执行时间降低到69%;相比于使用CPU和GPGPU进行数据存储布局转换,使用本文的方法的平均转换时间分别减少到58%和46%。访存分离计算则将运行时间平均降低到48%,GPGPU平均执行的指令数下降到84%。实验表明,本文提出的优化方法从不同角度提升了 CPU和GPGPU在共享LLC架构下的数据共享性能。(本文来源于《浙江大学》期刊2018-07-01)

梁成豪[7](2018)在《面向多处理器的片上高速缓存共享策略研究与实现》一文中研究指出随着信息技术的飞速发展,软件规模及复杂度显着提高。这对计算机系统的性能带来了极大的挑战。传统单处理器架构的性能提升遇到了如功耗增大、并行度提升有限等瓶颈,已经很难适应计算量大的应用场景。而多处理器架构可以提升包括进程级并行和线程级并行在内的任务并行度,使计算性能得到明显提升。如今,多处理器架构已经成为处理器架构发展的主流方向。在多处理器架构中,通常会在多个核之间共享最后一级片上高速缓存,以此来为各个核提供大容量的高速缓存存储空间从而减少对片外数据的访问。但是由于共享高速缓存可以被多个核访问,因此某个核对高速缓存的访问可能会将其它核的数据替换出去,最终导致处理器执行性能的下降。对共享高速缓存有效的共享策略可以在一定程度上避免这样的问题。同时由于LRU(Least Recently Used)替换算法硬件实现代价高,在很多真实处理器中所采用都是伪LRU替换算法,基于此,本论文提出一种基于二叉树伪LRU替换算法的共享高速缓存划分机制,相比较于基于LRU替换算法的分析方式,可以减小硬件实现复杂度。该划分机制采用记录划分边沿的方式来减少高速缓存中记录所属处理器标志位的数量,并根据划分机制中二叉树进行统计时的特性,将单个划分单元的计数器使用数量减小为原来的一半,同时,将共享高速缓存进行分单元划分。随后,在Multi2Sim体系结构仿真器中设计实现了该划分机制,并采用SPEC CPU2006基准程序测试集对该划分机制进行仿真验证。仿真结果显示,本论文所提出的基于二叉树伪LRU替换算法的划分机制,可以将计算机执行性能平均提升4.8%。最后,本论文使用Verilog语言对划分机制进行硬件建模,同时搭建随机化测试平台对划分机制进行随机化测试以及结果自动比对,结果显示相关模块功能实现正确。(本文来源于《电子科技大学》期刊2018-03-30)

佟飘,龙隆,韩雪,邱大伟,胡茜[8](2018)在《基于簇内能耗最优的设备到设备缓存通信内容共享算法》一文中研究指出针对设备到设备(D2D)缓存通信中,终端设备电池容量有限且设备之间数据传输能耗过大导致文件卸载率下降的问题,提出一种簇内节点能耗最优的缓存通信内容共享算法(CCSA)。首先,鉴于用户终端的随机分布特性,将网络中的用户节点建模为泊松簇过程,基于节点设备能量、通信距离建立卸载模型,设计自适应簇首选择权值公式;其次,遍历节点的能量与距离加权和并采用贪婪算法局部最优原则选取簇首节点,从而对用户节点通信距离进行优化,确保用户能耗最低以延长其生存周期,同时提高系统的卸载率。实验结果表明,与成簇随机选簇首(Random)、非成簇的能耗优化(EC)算法相比,所提算法在网络能耗最优时,系统生存周期延长了约60个百分点、72个百分点。CCSA能够提高卸载率且降低系统的卸载能耗。(本文来源于《计算机应用》期刊2018年06期)

郝晓婷[9](2017)在《异构多核环境下共享缓存管理技术的研究》一文中研究指出半导体科技的进步以及对高效节能计算的迫切需求促进了一个芯片内不同结构计算内核的集成。目前的异构多核处理器大多集成通用处理器核和专用处理器核。其中通用处理器核作为主控处理器负责通用计算,同时运行操作系统、任务分配和调度;专用处理器核作为加速设备负责密集型的计算,用于加速特定领域应用。异构多核系统的可用性表明异构多核系统正在成为主流。图形处理单元(GPU)是使用最广泛的用于集成的数据并行加速器,集成中央处理器(CPU)核心和GPU核心的异构多核处理器充分利用了这两种不同的处理器的优势。这种架构中,CPU和GPU之间共享各种资源,诸如最后一级高速缓存、片上互连、存储器控制器和片外DRAM存储器。共享高速缓存能够实现CPU和GPU之间的快速数据共享,提高CPU和GPU应用程序的性能。然而,CPU和GPU核心集成到同一个芯片上也导致两者对共享缓存空间的争用,在异构多核架构下研究缓存管理需要重点关注。本课题首先分析异构多核架构下CPU和GPU应用程序的访存行为特征。GPU核心相比CPU核心能够提供更高水平并行特性的特点使得GPU应用程序可以达到比CPU应用程序更高的数据访问速率,致使大多数可用的共享高速缓存空间被GPU应用程序使用,仅为CPU应用程序留下非常有限的高速缓存容量。另外,当GPU应用程序中的线程必须等待来自主存的数据时,通常还有许多其他线程可以在此期间执行,高速缓存未命中对GPU应用程序的性能具有有限的影响,因此,CPU应用程序通常比GPU应用程序对可用高速缓存的大小更敏感。综合这两个方面可以得出,在异构多核处理器中,尽管CPU应用程序比GPU应用程序需要更大的缓存空间,却往往获得相对较小的共享高速缓存容量,并且GPU应用程序具有一定的高速缓存访问延迟容忍能力。当前的缓存管理方法包括缓存分区和缓存替换算法,很少有考虑CPU应用程序和GPU应用程序访存特性的,研究一种适合异构架构的缓存管理方法十分必要。针对以上情况,本课题提出一种基于Bypass的共享缓存管理方法,该共享缓存管理方法通过限制GPU应用程序对最后一级共享缓存的访问,转而访问内存来实现CPU和GPU应用程序对共享缓存访问的分离,缓解CPU应用程序和GPU应用程序对共享缓存的争用,提升CPU应用程序的性能,从而提升整体系统性能。考虑到运行过程中CPU和GPU应用程序的不同访存特征,对上述管理方法进行进一步优化,提出基于Bypass的动态共享缓存管理方法。该方法在程序运行过程中动态分析CPU应用程序和GPU应用程序的不同缓存敏感特性,在处理GPU访存请求的时候考虑CPU和GPU应用程序的当前访存特性,实时判断GPU应用程序是访问内存还是访问共享缓存,进行动态调整,使其更好地适应不同的应用程序。为了精准地评估实验方案对系统性能的影响,本课题采用gem5-gpu异构多核模拟器作为基础架构模拟平台,并用SPEC CPU2006测试程序集和Rodinia测试程序集进行实验验证。实验结果表明,本课题设计实现的基于Bypass的共享缓存管理方法与传统的缓存管理方法相比,可以提升CPU应用程序的性能。以GPU应用程序backprop为例,CPU应用程序性能最高提升21%,平均提升13%。基于Bypass的动态共享缓存管理方法在最小程度影响GPU应用程序性能的情况下提升了CPU应用程序的性能,从而提升了系统整体性能。以GPU应用程序backprop为例,CPU应用程序性能最高提升15%,平均提升7%,GPU应用程序的性能基本不受影响。(本文来源于《北京工业大学》期刊2017-05-01)

赵登[10](2017)在《基于缓存策略的多应用共享传感网多查询优化研究》一文中研究指出无线传感器网络因其广泛的应用和巨大的发展前景,正受到越来越多人们的关注。传感器节点通常由电池供能,由于环境因素等难以充电或更换电池,当一个节点电池能量耗尽,整个网络的生命周期即终止。所以,如何有效节省网络耗能是目前研究重点之一。目前无线传感器网络通常仅支持单一应用,这造成网络资源浪费,且降低传感器节点利用率。所以,越来越多的研究拟构建多应用共享的传感网,从而节省网络耗能和提高节点利用率。在一些特定场景下传感器数据可能不会在一段时间内剧烈变化,精确度在一定范围内的数据也可应答用户请求,将历史数据进行缓存并用于应答用户查询,可减少网络实时获取数据量和网络耗能。本文针对上述研究问题提出了多应用共享的传感网,构造二级缓存策略,实现能量有效的多查询优化。主要研究内容如下:首先,本文构建多应用共享的无线传感器网络模型。针对网络多应用分解后的多个查询任务,根据其查询区域、查询时长及查询属性重写为0-1二进制串,并对该多应用查询的二进制串取并集,实现多应用的合并和数据共享。其次,对网络划分网格,构建基于基站和网格头结点的二级缓存模型。其中网格头结点只存储该单个网格内节点数据,并将用户所需数据传输给基站,基站进行整个网络数据的缓存与用户应答,并合理设置基站数据替换、数据预取算法。然后,构建基于缓存机制的多应用共享传感网中多查询优化机制。针对多个应用合并后所需获取的数据,首先从基站查找是否缓存有在有效范围内的数据,如果有则直接由基站缓存数据应答;否则,从网格头结点缓存数据获取。查询数据通过索引树上传至基站,基站进行缓存更新、数据预取及多应用查询应答。最后,本文对所构建的基于缓存策略的多应用共享传感网多查询优化过程,进行上机模拟实验,并与相关工作作对比。理论分析和实验结果证明了本文所构建模型方法的技术可行性和能量有效性。综上所述,该论文所研究的多查询优化方法,可高效应对多用户多应用请求,对无线传感器网络低能耗查询方面作进一步的推动。(本文来源于《中国地质大学(北京)》期刊2017-05-01)

缓存共享论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

SPMD(Single Program Multiple Data)是高性能领域的主要工作模式之一,该模式下邻近核心执行相同的程序块,但根据处理数据或控制流的差异,临近核心的指令流并不完全相同.L1ICache(Instruction Cache)共享技术通过将邻近核心的L1ICache共享,能有效利用众核处理器SPMD工作模式的特点,同时能缓解片上资源紧张的问题.但共享结构会带来访问冲突,对性能有不利影响.本文基于排队网络对共享ICache的访问冲突进行了理论分析,该理论分析依据核心对共享ICache体的访问特性进行建模,避免了直接抽象物理节点导致的模型访存特性模糊问题.根据理论推导的指令缓存性能损失原因,本文设计了面向共享L1ICache的低访问冲突XOR散列函数.函数的设计综合考虑搜索了代价和工程实现复杂性,在保证散列线性空间随机散列能力的前提下,对附加延迟、功耗开销进行控制.该散列函数基于异或操作,通过调整ICache排队网络模型的节点转换概率,降低了共享L1ICache的访问冲突.实验结果表明,在指令缓存总容量为32KB的四核心簇上,使用XOR散列的共享L1ICache结构较私有L1ICache结构性能平均优化11%,较使用低位交错策略的共享L1ICache结构性能平均优化8%,较使用面向跨步访存散列策略的共享L1ICache结构性能平均优化3.2%.

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

缓存共享论文参考文献

[1].刘茜.基于片上缓存协助的随机共享型计数器研究[D].南京大学.2019

[2].刘骁,唐勇,郑方,丁亚军.共享指令缓存XOR散列索引的研究与设计[J].计算机学报.2019

[3].王轲.基于任务调度和共享高速缓存分配的多处理器片上系统能耗优化技术研究[D].浙江大学.2018

[4].徐东,赵琦,冷峰.一种基于共享缓存的叁层递归域名系统的设计与实现[J].现代电子技术.2018

[5].张瑞飞.大缓存、大交换、大共享[J].软件和集成电路.2018

[6].俞立呈.CPU-GPGPU共享最后一级缓存架构中的数据共享优化研究[D].浙江大学.2018

[7].梁成豪.面向多处理器的片上高速缓存共享策略研究与实现[D].电子科技大学.2018

[8].佟飘,龙隆,韩雪,邱大伟,胡茜.基于簇内能耗最优的设备到设备缓存通信内容共享算法[J].计算机应用.2018

[9].郝晓婷.异构多核环境下共享缓存管理技术的研究[D].北京工业大学.2017

[10].赵登.基于缓存策略的多应用共享传感网多查询优化研究[D].中国地质大学(北京).2017

论文知识图

媒体数据缓存管理的概念示意图机翼结构化网格机翼非结构网格摩尔定律的延续及对处理器体系结构的...输出排队交换结构模型结构叁级Clos网络各级交换单元模型

标签:;  ;  ;  ;  ;  ;  ;  

缓存共享论文_刘茜
下载Doc文档

猜你喜欢