期刊文献+
共找到126篇文章
< 1 2 7 >
每页显示 20 50 100
龙芯1号处理器结构设计 被引量:53
1
作者 胡伟武 唐志敏 《计算机学报》 EI CSCD 北大核心 2003年第4期385-396,共12页
首先介绍了龙芯处理器的研制背景及其技术路线 .分析了龙芯处理器坚持高性能定位、稳扎稳打的设计策略以及兼容主流处理器的原因 ,并指出在目前达到与国外相同主频的客观条件不具备的情况下 ,应走通过优化处理器结构来提高性能的道路 ,... 首先介绍了龙芯处理器的研制背景及其技术路线 .分析了龙芯处理器坚持高性能定位、稳扎稳打的设计策略以及兼容主流处理器的原因 ,并指出在目前达到与国外相同主频的客观条件不具备的情况下 ,应走通过优化处理器结构来提高性能的道路 ,并以处理器结构技术的突破为根本 .然后介绍了龙芯 1号处理器的体系结构设计 ,包括基于操作队列复用的动态流水线设计、在乱序执行的情况下实现精确例外处理、取指与转移控制结构、存储管理以及针对缓冲区溢出攻击的系统安全设计等等 .测试表明龙芯 1号处理器的指令流水线效率高 ,其安全设计能有效防范使用缓冲区溢出技术进行的网络攻击 .但龙芯 1号处理器的Cache过小 。 展开更多
关键词 龙芯1号处理器 结构设计 指令流水线 性能分析 计算机 微处理器
下载PDF
基于流媒体文件字节有用性的代理服务器缓存替代策略 被引量:17
2
作者 肖明忠 李晓明 +2 位作者 刘翰宇 代亚非 张进宇 《计算机学报》 EI CSCD 北大核心 2004年第12期1633-1641,共9页
将流媒体文件缓存到离用户最近的代理服务器上 ,能够减少广域网络带宽的消耗 ,减轻服务器的负载压力以及降低用户的始播延迟 ,文章关注代理服务器的缓存替代问题 .通过对问题建立模型并分析后得到替代算法模型 ,提出了流媒体文件字节有... 将流媒体文件缓存到离用户最近的代理服务器上 ,能够减少广域网络带宽的消耗 ,减轻服务器的负载压力以及降低用户的始播延迟 ,文章关注代理服务器的缓存替代问题 .通过对问题建立模型并分析后得到替代算法模型 ,提出了流媒体文件字节有用性的概念并反映到替代算法的设计之中 ,并提出了BB ,BBLRU K和BBLCB K缓存替代算法 ,在与LRU 2 ,LFU ,LCB 2和LRU等算法的性能模拟实验比较中 ,BBLCB 2算法性能最优 ,但BB算法简单有效 . 展开更多
关键词 流媒体文件 缓存替代策略 字节有用性 代理服务器
下载PDF
Cache性能与程序优化 被引量:9
3
作者 乔香珍 《计算机学报》 EI CSCD 北大核心 1996年第11期818-823,共6页
超高速缓存(cache)是目前用来提高计算机性能的关键技术之一,而算法和程序优化对cache性能的发挥起着重要作用.文中,我们提出一个提高cache性能的优化方法,基本思想是用“加边”法改变cache映射图象而减少冲... 超高速缓存(cache)是目前用来提高计算机性能的关键技术之一,而算法和程序优化对cache性能的发挥起着重要作用.文中,我们提出一个提高cache性能的优化方法,基本思想是用“加边”法改变cache映射图象而减少冲突以提高cache利用率.文中这一技术应用于一些常用算法,分析了与向量机“加边”法的异同,并在一个共享存储器式并行机系统上验证.实算结果与理论分析一致,对不同算法所获整体性能提高为20%到190%.这一方法的优点是效果好,实现简单,且所需的额外存储空间小. 展开更多
关键词 超高速缓存 计算机性能 程序优化
下载PDF
SQLite的SQL语句高速缓存技术 被引量:14
4
作者 戴昱 黄德才 《计算机系统应用》 2012年第1期183-186,共4页
随着嵌入式应用领域的发展,系统功能的日趋复杂,嵌入式设备中使用嵌入式数据库越来越成为一种趋势。SQLite因其性能和功能上的优势被广泛的使用于嵌入式应用中。但是嵌入式设备CPU处理能力相对较低,存储器容量有限,制约了SQLite的性能... 随着嵌入式应用领域的发展,系统功能的日趋复杂,嵌入式设备中使用嵌入式数据库越来越成为一种趋势。SQLite因其性能和功能上的优势被广泛的使用于嵌入式应用中。但是嵌入式设备CPU处理能力相对较低,存储器容量有限,制约了SQLite的性能。针对上述问题,根据高速缓存原理,简化SQL语句执行过程中的词法分析、语法分析过程,以减少运行过程中的时间消耗。实验表明,本方法可有效提高SQL语句执行效率,在保持可用性与可靠性的前提下,提升SQLite的整体性能。 展开更多
关键词 嵌入式数据库 SQLITE 高速缓存 性能优化
下载PDF
基于最小延迟代价的Web缓存替换算法研究 被引量:11
5
作者 韩英杰 石磊 《计算机工程与设计》 CSCD 北大核心 2008年第8期1925-1928,共4页
命中率、字节命中率和延迟时间是Web缓存系统中最重要的性能指标,但是却难以准确、合理地度量不同大小的Web对象的访问延迟。引入字节延迟的概念,为不同的对象延迟建立了一个比较合理的评价标准。提出最小延迟代价的Web缓存替换算法LLC... 命中率、字节命中率和延迟时间是Web缓存系统中最重要的性能指标,但是却难以准确、合理地度量不同大小的Web对象的访问延迟。引入字节延迟的概念,为不同的对象延迟建立了一个比较合理的评价标准。提出最小延迟代价的Web缓存替换算法LLC,使用户访问的延迟时间尽可能缩短。实验结果表明,与常用的缓存替换算法相比,LLC算法在有效减少用户感知的访问延迟方面具有较好的性能表现。 展开更多
关键词 WEB缓存 替换算法 命中率 字节命中率 性能分析
下载PDF
龙芯3A多核处理器系统级性能优化与分析 被引量:12
6
作者 孟小甫 高翔 +1 位作者 从明 张爽爽 《计算机研究与发展》 EI CSCD 北大核心 2012年第S1期137-142,共6页
多核处理器的性能与系统软件有着密切的联系:操作系统是处理器与应用程序之间的接口,对于充分利用处理器特性和提高应用程序的性能起着极其重要的作用;编译器与处理器体系结构密切相关,一方面要产生处理器支持的二进制代码,另一方面还... 多核处理器的性能与系统软件有着密切的联系:操作系统是处理器与应用程序之间的接口,对于充分利用处理器特性和提高应用程序的性能起着极其重要的作用;编译器与处理器体系结构密切相关,一方面要产生处理器支持的二进制代码,另一方面还要结合处理器特性产生高效运行的代码,其性能好坏直接影响着系统的整体性能.为了提高龙芯3A系统的实际性能,从操作系统和编译器着手,结合龙芯3A微结构特征,进行了一系列有效的优化.这些措施包括CC-NUMA多核操作系统的实现、操作系统二级Cache锁机制、操作系统调度共享二级Cache分配、自动向量化编译和支持预取机制的编译等.实验结果表明,在系统软件中增加对处理器特性的支持,能够充分挖掘体系结构的优势,对系统性能有较大的好处.其性能优化技术对于其他处理器的优化也有一定的借鉴价值. 展开更多
关键词 龙芯3A 自动向量化 预取 cache 性能分析
下载PDF
并行计算时间模型和并行机系统性能 被引量:6
7
作者 乔香珍 《计算机学报》 EI CSCD 北大核心 1998年第5期413-418,共6页
本文重点从共事存储器式并行机系统体系结构中的新技术和并行软件系统的新特点分析了影响并行算法和应用程序性能的各种因素,并提出改进的并行计算时间模型,给出了提高并行算法和应用软件性能的原则和实例.从理论和实践两方面证明并... 本文重点从共事存储器式并行机系统体系结构中的新技术和并行软件系统的新特点分析了影响并行算法和应用程序性能的各种因素,并提出改进的并行计算时间模型,给出了提高并行算法和应用软件性能的原则和实例.从理论和实践两方面证明并行处理性能依赖于算法、体系结构和系统软件等多方面因素. 展开更多
关键词 并行算法 并行计算 时间模型 并行计算机
下载PDF
面向移动Web应用的浏览器缓存性能度量与优化 被引量:9
8
作者 马郓 刘譞哲 梅宏 《软件学报》 EI CSCD 北大核心 2020年第7期1980-1996,共17页
随着移动互联网的飞速发展,用户越来越多地通过移动设备访问Web应用.浏览器为Web应用提供基本的计算、渲染等运行时支撑,其缓存机制可以支持Web应用直接从本地而不是通过网络来获取可复用资源,不仅能够减少整体的执行时间从而提升应用... 随着移动互联网的飞速发展,用户越来越多地通过移动设备访问Web应用.浏览器为Web应用提供基本的计算、渲染等运行时支撑,其缓存机制可以支持Web应用直接从本地而不是通过网络来获取可复用资源,不仅能够减少整体的执行时间从而提升应用加载速度,还能够减少网络流量使用和电池电量消耗,从而保证移动Web用户体验.近年来,围绕面向移动Web应用的浏览器缓存优化得到了国内外学术界和工业界的广泛关注.然而,现有研究工作大多都是从网络层面关注浏览器缓存的整体性能,未充分考虑移动互联网用户访问行为的差异性和动态性,以及Web应用自身持续演化对浏览器实际缓存性能的影响.针对这一问题,首先设计了一种新型主动式缓存度量实验,通过仿真用户的访问行为来分析移动Web应用实际资源使用情况,揭示了浏览器缓存的理论性能上限和实际性能之间的巨大差距,并发现了造成这一差距的3个主要原因:重复请求别名资源、启发式过期时间和保守的过期时间配置.基于此发现,从应用层和平台层分别提出了两种浏览器缓存性能优化方案,并实现了原型系统.实验结果表明,采用两种方法分别平均可减少8%~51%和4%~58%的网络流量,且系统开销较小. 展开更多
关键词 移动Web应用 浏览器缓存 性能度量 性能优化
下载PDF
Java Servlet模式的WebGIS性能优化研究 被引量:9
9
作者 张晓芳 李国徽 兰小玲 《计算机应用研究》 CSCD 北大核心 2011年第11期4222-4224,共3页
探讨了使用Java Servlet模式实现WebGIS的优势与方法,采用GeoServer与OpenLayers结合的方式设计并实现了一种Java Servlet模式的WebGIS系统。由于服务器端性能的优劣直接影响到客户端用户的使用和体验效果,因此对WebGIS服务器端性能问... 探讨了使用Java Servlet模式实现WebGIS的优势与方法,采用GeoServer与OpenLayers结合的方式设计并实现了一种Java Servlet模式的WebGIS系统。由于服务器端性能的优劣直接影响到客户端用户的使用和体验效果,因此对WebGIS服务器端性能问题进行了深入研究,提出了JVM(Java虚拟机)性能调优、建立并改进缓存服务器、使用tmpfs(一种基于内存的文件系统)存储缓存图片等从根本上解决服务器端性能问题的一系列方案,同时设计了一系列实验分析比较性能优化的效果。研究结果表明,这些方案能有效提升服务器端性能,且经济、简单、方便,具有重要的实用价值。 展开更多
关键词 万维网地理信息系统 地理信息系统服务器 缓存服务器 性能优化
下载PDF
校园网网络性能的优化方法 被引量:6
10
作者 陈世坤 王琼英 胡其伟 《广东工业大学学报》 CAS 2005年第3期100-104,共5页
介绍了几种网络性能优化技术,对基于现有网络环境下的网络性能进行了分析,并提出了利用QoS、组播、VLAN、Web cache server等技术来优化网络性能的方法,以进一步优化校园网.
关键词 校园网 网络性能 QoS 组播 VLAN Web cache SERVER
下载PDF
主成分线性回归模型分析应用程序性能 被引量:6
11
作者 李胜梅 程步奇 +2 位作者 高兴誉 乔林 汤志忠 《计算机研究与发展》 EI CSCD 北大核心 2009年第11期1949-1955,共7页
应用程序的性能分析能够给体系架构设计者和性能优化者提供有效的参考和指导.采用主成分线性回归模型分析了SPEC CPU2006的整型程序性能.模型选取性能监测单元采样到的事件为自变量,每条指令的时钟周期数(CPI)作为因变量.模型中采用主... 应用程序的性能分析能够给体系架构设计者和性能优化者提供有效的参考和指导.采用主成分线性回归模型分析了SPEC CPU2006的整型程序性能.模型选取性能监测单元采样到的事件为自变量,每条指令的时钟周期数(CPI)作为因变量.模型中采用主成分分析法消除了性能事件之间的相关性.实验结果表明,模型的拟合优度在90%以上,对性能进行预测的平均相对误差为15%.模型从量化上分析了L1,L2高速缓存缺失作为影响性能的关键因素是怎样影响程序性能的. 展开更多
关键词 性能分析 cache缺失 主成分分析 线性回归 SPEC CPU2006
下载PDF
一种嵌入式软件WCET估计新方法 被引量:4
12
作者 吴国伟 姚琳 《大连理工大学学报》 EI CAS CSCD 北大核心 2004年第6期912-915,共4页
在实时嵌入式系统设计中,计算在最坏情况下软件执行时间的上界是很必需的,它为软硬件划分和进程调度提供了依据.由于现代微处理器使用了基于Cache存储和指令预取技术,增加了准确确定这一上界的难度,为此提出了一种基于指令Cache和指令... 在实时嵌入式系统设计中,计算在最坏情况下软件执行时间的上界是很必需的,它为软硬件划分和进程调度提供了依据.由于现代微处理器使用了基于Cache存储和指令预取技术,增加了准确确定这一上界的难度,为此提出了一种基于指令Cache和指令预取联合模型的嵌入式软件性能评估新方法.该方法通过使用控制流程图和Cache冲突图,在Cache分析中联合指令预取分析,使得估计最坏情况下嵌入式软件的执行时间上界更精确;并使用了整数线性预测方法,使得求解计算复杂度降低.实验结果表明该方法估计精度可以提高近5%. 展开更多
关键词 指令预取 嵌入式软件 进程调度 实时嵌入式系统 计算复杂度 微处理器 软硬件划分 上界 估计 执行时间
下载PDF
P2P流媒体Cache的置换算法 被引量:3
13
作者 陈刚 张伟文 吴国新 《计算机研究与发展》 EI CSCD 北大核心 2007年第11期1857-1865,共9页
P2P流媒体cache是一种有效减少带宽开销、提高对象利用率的技术,通常采用FIFO,LRU等算法置换内容.然而,流媒体不同于Web对象,P2P网络也有别于客户/服务器模式.在分布式应用中这些算法可能影响系统的性能,为此,分析了FIFO和LRU置换算法,... P2P流媒体cache是一种有效减少带宽开销、提高对象利用率的技术,通常采用FIFO,LRU等算法置换内容.然而,流媒体不同于Web对象,P2P网络也有别于客户/服务器模式.在分布式应用中这些算法可能影响系统的性能,为此,分析了FIFO和LRU置换算法,提出了基于供求关系的SD算法,以及基于分片副本数量的REP算法,并对其进行评估和比较.针对不同的节点到达间隔,将SD和REP同FIFO,LRU进行比较,发现在启动延迟、媒体副本数量和根节点依赖度方面SD和REP几乎均优于FIFO和LRU.同LSB(least sent bytes)算法相比,某些场景中SD的启动延迟减少了约40%,而REP在副本数量方面远远超过LSB的结果,说明在P2P网络流媒体服务中使用SD和REP缓存置换算法有助于提高系统性能. 展开更多
关键词 P2P 流媒体 cache 置换算法 性能
下载PDF
共享多端口数据Cache结构:SMPDCA 被引量:1
14
作者 黄光奇 李子木 +1 位作者 周兴铭 窦勇 《计算机学报》 EI CSCD 北大核心 2001年第12期1318-1323,共6页
随着半导体工艺技术的飞速发展 ,单芯片多处理器 (Single- Chip Multiprocessor,SCMP)结构将是一条提高处理器性能的有效途径 .该文在分析 SCMP结构的特点的基础上 ,提出了 SCMP的一种结构实现 :共享多端口数据 Cache结构 (Shared Multi... 随着半导体工艺技术的飞速发展 ,单芯片多处理器 (Single- Chip Multiprocessor,SCMP)结构将是一条提高处理器性能的有效途径 .该文在分析 SCMP结构的特点的基础上 ,提出了 SCMP的一种结构实现 :共享多端口数据 Cache结构 (Shared Multi- Ported Data Cache Architecture,SMPDCA) .SMPDCA结构具有三个突出的优点 :最小的通信延迟、没有 Cache一致性维护开销和数据 Cache命中率提高 .模拟结果表明 ,与数据 Cache私有的结构相比 ,SMPDCA结构的突出优点使得应用程序的性能得到了明显的提高 ,特别是对于改善处理器之间的通信与交互比较多的应用程序的性能具有最为明显的效果 . 展开更多
关键词 共享多端口数据cache 执行时间 SMPDCA 单芯片多处理器
下载PDF
一种利用数据融合来提高局部性和减少伪共享的方法 被引量:5
15
作者 曾丽芳 杨学军 +1 位作者 夏军 陈娟 《计算机学报》 EI CSCD 北大核心 2004年第1期32-41,共10页
某些应用程序不能通过数组内元素的重排优化获得性能提高 .针对这一问题 ,该文扩展了数组之间数据重组优化方法 ,着重分析了将多个数组的数据按一定方式进行融合来提高局部性和减少伪共享优化方法的特性 .文章针对几种典型的数组关联模... 某些应用程序不能通过数组内元素的重排优化获得性能提高 .针对这一问题 ,该文扩展了数组之间数据重组优化方法 ,着重分析了将多个数组的数据按一定方式进行融合来提高局部性和减少伪共享优化方法的特性 .文章针对几种典型的数组关联模式 ,提出了相应的数据融合方法 ,并建立了一组粗略的性能代价判别规则 ,以指导编译器有选择地融合数组以提高程序的全局优化效果 .根据在多个平台上的测试结果 ,该文还分析了数据融合优化方法在不同体系结构上的性能可移植性 ,并将体系结构特征加入到性能代价判别规则中 ,使得此优化方法能适用于不同的体系结构 .测试结果表明 ,数据融合优化方法对提高某些应用程序的性能 ,尤其是其在软件DSM体系结构上的性能 。 展开更多
关键词 数据排列 数据融合 局部性 编译优化 数组 应用程序
下载PDF
DartCache:一个基于哈希表的分布式Cache系统 被引量:3
16
作者 谢骋超 陈华钧 张宇 《计算机科学》 CSCD 北大核心 2006年第8期155-161,共7页
随着现代企业应用开发的规模越来越大,系统的性能与可伸缩性对系统的成败起着越来越重要的作用。在整个分层的企业级应用架构中,数据库层的访问速度通常会成为整个系统的瓶颈。采用Cache技术将已访问的数据缓存在应用层,从而减少数据库... 随着现代企业应用开发的规模越来越大,系统的性能与可伸缩性对系统的成败起着越来越重要的作用。在整个分层的企业级应用架构中,数据库层的访问速度通常会成为整个系统的瓶颈。采用Cache技术将已访问的数据缓存在应用层,从而减少数据库访问的负载量,可以使系统的性能与可伸缩性得到根本性的提高。在吸取了前人Cache开发经验的基础上,我们设计了DartCache,它是一套基于哈希表的分布式Cache系统。经实验证明,DartCache使系统的性能与可伸缩性都得到了根本性的提高。 展开更多
关键词 分布式 cache 哈希表 性能 可伸缩性
下载PDF
基于缓存估算模型的代码测试系统性能优化方法 被引量:4
17
作者 徐教显 王雅文 《软件》 2013年第12期10-13,共4页
为了解决代码测试系统测试C项目的时间开销较大这一问题,本文提出了一种基于缓存估算模型的性能优化方法。该方法向代码测试系统中引入了缓存技术,并且建立了缓存规模估算模型。不相似的C项目应用该模型计算出的缓存规模是不一样的。使... 为了解决代码测试系统测试C项目的时间开销较大这一问题,本文提出了一种基于缓存估算模型的性能优化方法。该方法向代码测试系统中引入了缓存技术,并且建立了缓存规模估算模型。不相似的C项目应用该模型计算出的缓存规模是不一样的。使用缓存规模估算模型后,代码测试系统文件缓存的规模能够随着C项目的改变而发生改变,具有动态变化的能力。缓存估算模型已在系统中实现,对4个开源C项目的测试结果表明:该优化方法能有效地提高代码测试系统测试C项目时的时间性能。 展开更多
关键词 软件测试 缓存规模估算 文件缓存 动态 性能优化
下载PDF
通用图形处理器缓存子系统性能优化方法综述 被引量:4
18
作者 张军 谢竟成 +3 位作者 沈凡凡 谭海 汪吕蒙 何炎祥 《计算机研究与发展》 EI CSCD 北大核心 2020年第6期1191-1207,共17页
随着工艺和制程技术的不断发展以及体系架构的日趋完善,通用图形处理器(general purpose graphics processing units,GPGPU)的并行计算能力得到了很大的提升,其在高性能、高吞吐量等通用计算应用场景的使用越来越广泛.GPGPU通过支持大... 随着工艺和制程技术的不断发展以及体系架构的日趋完善,通用图形处理器(general purpose graphics processing units,GPGPU)的并行计算能力得到了很大的提升,其在高性能、高吞吐量等通用计算应用场景的使用越来越广泛.GPGPU通过支持大量线程的并发执行,可以较好地隐藏长延时访存操作,从而获得高并行计算能力.然而,GPGPU在处理计算和访存不规则的应用时,其存储子系统的效率受到很大影响,尤其是片上缓存的争用情况尤为突出,难以及时提供计算操作所需的数据,使得GPGPU的高并行计算能力不能得到充分发挥.解决片上缓存的争用问题、优化缓存子系统的性能,是优化GPGPU性能的主要解决方案之一,也是目前研究GPGPU性能优化的主要热点之一.目前,针对GPGPU缓存子系统的性能优化研究主要集中在线程级并行度(thread level parallelism,TLP)调节、访存顺序调节、数据通量增强、最后一级缓存(last level cache,LLC)优化和基于非易失性存储(non-volatile memory,NVM)的GPGPU缓存新架构设计等5个方面.也从这5个方面重点分析讨论了目前主要的GPGPU缓存子系统性能优化方法,并在最后指出了未来GPGPU缓存子系统优化需要进一步探讨的问题,对GPGPU缓存子系统性能优化的研究有重要意义. 展开更多
关键词 通用图形处理器 缓存子系统 性能优化 延迟隐藏 缓存争用
下载PDF
Server-Based Data Push Architecture for Multi-Processor Environments 被引量:3
19
作者 孙贤和 Surendra Byna 陈勇 《Journal of Computer Science & Technology》 SCIE EI CSCD 2007年第5期641-652,共12页
Data access delay is a major bottleneck in utilizing current high-end computing (HEC) machines. Prefetching, where data is fetched before CPU demands for it, has been considered as an effective solution to masking d... Data access delay is a major bottleneck in utilizing current high-end computing (HEC) machines. Prefetching, where data is fetched before CPU demands for it, has been considered as an effective solution to masking data access delay. However, current client-initiated prefetching strategies, where a computing processor initiates prefetching instructions, have many limitations. They do not work well for applications with complex, non-contiguous data access patterns. While technology advances continue to increase the gap between computing and data access performance, trading computing power for reducing data access delay has become a natural choice. In this paper, we present a serverbased data-push approach and discuss its associated implementation mechanisms. In the server-push architecture, a dedicated server called Data Push Server (DPS) initiates and proactively pushes data closer to the client in time. Issues, such as what data to fetch, when to fetch, and how to push are studied. The SimpleScalar simulator is modified with a dedicated prefetching engine that pushes data for another processor to test DPS based prefetching. Simulation results show that L1 Cache miss rate can be reduced by up to 97% (71% on average) over a superscalar processor for SPEC CPU2000 benchmarks that have high cache miss rates. 展开更多
关键词 performance measurement evaluation MODELING simulation of multiple-processor system cache memory
原文传递
组相联可自适应扩展的缓存架构及其性能分析
20
作者 周昱 于宗光 +2 位作者 高杨 邵健 罗庆 《西安电子科技大学学报》 EI CAS CSCD 北大核心 2024年第5期71-81,共11页
在现代处理器体系架构中,缓存是解决存储墙瓶颈的重要手段,但是缓存访问需求是随程序甚至是程序片段的切换而变化的,这导致传统的固定参数配置的缓存架构难以在长时间或在程序间依然保持高效性能。文中提出一种缓存组相联度的自适应扩... 在现代处理器体系架构中,缓存是解决存储墙瓶颈的重要手段,但是缓存访问需求是随程序甚至是程序片段的切换而变化的,这导致传统的固定参数配置的缓存架构难以在长时间或在程序间依然保持高效性能。文中提出一种缓存组相联度的自适应扩展方法,能根据程序运行时缓存组活跃状态,利用短时非活跃缓存组的存储空间,来扩展当前活跃缓存组的组相联数目,并可实时动态调整组与组之间的扩展互联关系,有效提升缓存空间的整体利用效率。文中在Gem5软件中对所提出的缓存组相联自适应扩展架构进行了仿真,并基于SPEC CPU 2017基准测试集进行了性能测试,结果显示所提方法明显改善了缓存组访问的均匀性,对典型程序缓存组使用频次的均匀性最大提升23.14%左右,降低缓存访问缺失数最大可达54.2%。硬件实现和仿真结果显示,与HY-Way等低功耗可重构缓存架构相比,文中所述缓存架构资源消耗减少了7.66%以上,在嵌入式处理器设计中有较大的应用价值。 展开更多
关键词 组相联存储 缓存架构 组扩展 组利用率 性能仿真
下载PDF
上一页 1 2 7 下一页 到第
使用帮助 返回顶部