期刊文献+
共找到382篇文章
< 1 2 20 >
每页显示 20 50 100
移动P2P网络的协作缓存优化策略 被引量:15
1
作者 牛新征 佘堃 +1 位作者 秦科 周明天 《计算机研究与发展》 EI CSCD 北大核心 2008年第4期656-665,共10页
移动P2P网络具有拓扑动态多变、节点资源有限、网络资源短缺的特点.如何合理地、高效地使用移动节点提供的协作缓存资源、增加移动节点间的协作来减少移动P2P的网络时延、节省带宽、防止拥塞是一个关键问题.深入研究了有限协作缓存——C... 移动P2P网络具有拓扑动态多变、节点资源有限、网络资源短缺的特点.如何合理地、高效地使用移动节点提供的协作缓存资源、增加移动节点间的协作来减少移动P2P的网络时延、节省带宽、防止拥塞是一个关键问题.深入研究了有限协作缓存——Cache资源的替换策略、重要数据的及时缓存和Cache资源的充分使用问题.并根据蚁群算法的思路,提出了一种基于信息素的Cache替换算法,建立了选取适当存储空间作为Cache的数学模型和推导.理论分析和仿真数据表明该算法能有效提高协作Cache资源的使用率,促进了移动节点间的协作,提高了移动节点从邻居节点获得资源的成功率,并减少了协作Cache资源请求的平均响应时间. 展开更多
关键词 移动P2P网络 Cache预测 预取 蚁群算法 信息素 协作缓存
下载PDF
An SPN-Based Integrated Model for Web Prefetching and Caching 被引量:15
2
作者 石磊 韩英杰 +2 位作者 丁晓光 卫琳 古志民 《Journal of Computer Science & Technology》 SCIE EI CSCD 2006年第4期482-489,共8页
The World Wide Web has become the primary means for information dissemination. Due to the limited resources of the network bandwidth, users always suffer from long time waiting. Web prefetching and web caching are the... The World Wide Web has become the primary means for information dissemination. Due to the limited resources of the network bandwidth, users always suffer from long time waiting. Web prefetching and web caching are the primary approaches to reducing the user perceived access latency and improving the quality of services. In this paper, a Stochastic Petri Nets (SPN) based integrated web prefetching and caching model (IWPCM) is presented and the performance evaluation of IWPCM is made. The performance metrics, access latency, throughput, HR (hit ratio) and BHR (byte hit ratio) are analyzed and discussed. Simulations show that compared with caching only model (CM), IWPCM can further improve the throughput, HR and BHR efficiently and reduce the access latency. The performance evaluation based on the SPN model can provide a basis for implementation of web prefetching and caching and the combination of web prefetching and caching holds the promise of improving the QoS of web systems. 展开更多
关键词 stochastic Petri nets web prefetching web caching performance evaluation
原文传递
分布式文件系统元数据服务的负载均衡框架 被引量:16
3
作者 孙耀 刘杰 +1 位作者 叶丹 钟华 《软件学报》 EI CSCD 北大核心 2016年第12期3192-3207,共16页
请求负载均衡,是分布式文件系统元数据管理需要面对的核心问题.以最大化元数据服务器集群吞吐量为目标,在已有元数据管理层之上设计实现了一种分布式缓存框架,专门管理热点元数据,均衡不断变化的负载.与已有的元数据负载均衡架构相比,... 请求负载均衡,是分布式文件系统元数据管理需要面对的核心问题.以最大化元数据服务器集群吞吐量为目标,在已有元数据管理层之上设计实现了一种分布式缓存框架,专门管理热点元数据,均衡不断变化的负载.与已有的元数据负载均衡架构相比,这种两层的负载均衡架构灵活度更高,对负载的感知能力更强,并且避免了热点元数据重新分布、迁移引起的元数据命名空间结构被破坏的情况.经观察分析,元数据尺寸小、数量大,预取错误元数据带来的代价远远小于预取错误数据带来的代价.针对元数据的以上鲜明特点,提出一种元数据预取策略和基于预取机制的元数据缓存替换算法,加强了上述分布式缓存层的性能,这种两层的元数据负载均衡框架同时考虑了缓存一致性的问题.最后,在一个真实的分布式文件系统中验证了框架及方法的有效性. 展开更多
关键词 元数据服务器 分布式文件系统 负载均衡 预取 缓存
下载PDF
面向Hadoop分布式文件系统的小文件存取优化方法 被引量:12
4
作者 李铁 燕彩蓉 +1 位作者 黄永锋 宋亚龙 《计算机应用》 CSCD 北大核心 2014年第11期3091-3095,3099,共6页
为提高Hadoop分布式文件系统(HDFS)的小文件处理效率,提出了一种面向HDFS的智能小文件存取优化方法——SmartFS。SmartFS通过分析小文件访问日志,获取用户访问行为,建立文件关联概率模型,并根据基于文件关联关系的合并算法将小文件组装... 为提高Hadoop分布式文件系统(HDFS)的小文件处理效率,提出了一种面向HDFS的智能小文件存取优化方法——SmartFS。SmartFS通过分析小文件访问日志,获取用户访问行为,建立文件关联概率模型,并根据基于文件关联关系的合并算法将小文件组装成大文件之后存至HDFS;当从HDFS获取文件时,根据基于文件关联关系的预取算法来提高文件访问效率,并提出基于预取的缓存替换算法来管理缓存空间,从而提高文件的命中率。实验结果表明,SmartFS有效减少了HDFS中NameNode的元数据空间,减少了用户与HDFS的交互次数,提高了小文件的存储效率和访问速度。 展开更多
关键词 HADOOP分布式文件系统 小文件 文件关联 预取 缓存
下载PDF
基于HDFS的云存储系统小文件优化方案 被引量:9
5
作者 邹振宇 郑烇 +1 位作者 王嵩 杨坚 《计算机工程》 CAS CSCD 北大核心 2016年第3期34-40,46,共8页
Hadoop分布式文件系统(HDFS)具有高容错、可伸缩、廉价存储等优良特性,在大数据存储和分析场景中得到广泛应用。但对于海量小文件存储,HDFS存在高内存消耗、高延迟访问等缺陷。为此,结合"合肥城市云"系统"一次上传,多次... Hadoop分布式文件系统(HDFS)具有高容错、可伸缩、廉价存储等优良特性,在大数据存储和分析场景中得到广泛应用。但对于海量小文件存储,HDFS存在高内存消耗、高延迟访问等缺陷。为此,结合"合肥城市云"系统"一次上传,多次下载"的特性,提出一种基于小文件属性的优化方案。根据文件之间的相关性设定优先级,对小于5 MB的文件按优先级高低合并后再上传,并生成索引记录。结合随机化思想,采用两级缓存策略,将预提取数据缓存在内存池中,提高访问效率。同时,系统定期查询访问日志,根据用户访问习惯,动态调整预提取因子的大小。实验结果表明,该方案能有效提高小文件访问效率,降低名字节点和数据节点的内存开销,在有海量小文件存取的情况下提升系统的交互性。 展开更多
关键词 HADOOP分布式文件系统 小文件 预提取 随机化 动态调整
下载PDF
基于关联规则挖掘的分布式小文件存储方法 被引量:8
6
作者 钱能武 郭卫斌 范贵生 《华东理工大学学报(自然科学版)》 CAS CSCD 北大核心 2016年第5期708-714,共7页
Hadoop分布式文件系统(HDFS)设计之初是针对大文件的处理,但无法高效地针对小文件进行存储,因此提出了一种基于关联规则挖掘的高效的小文件存储方法——ARMFS。ARMFS通过对Hadoop系统的审计日志进行关联规则挖掘,获得小文件间的关联性,... Hadoop分布式文件系统(HDFS)设计之初是针对大文件的处理,但无法高效地针对小文件进行存储,因此提出了一种基于关联规则挖掘的高效的小文件存储方法——ARMFS。ARMFS通过对Hadoop系统的审计日志进行关联规则挖掘,获得小文件间的关联性,通过文件合并算法将小文件合并存储至HDFS;在请求HDFS文件时,根据关联规则挖掘得到的高频访问表和预取机制表提出预取算法来进一步提高文件访问效率。实验结果表明,ARMFS方法明显提高了NameNode的内存使用效率,对于小文件的下载速度和访问效率的改善十分有效。 展开更多
关键词 HDFS 关联规则挖掘 小文件关联性 预取
下载PDF
利用ZIPF定律建立有效的WEB对象缓存机制 被引量:2
7
作者 石磊 卫琳 +1 位作者 古志民 石云 《计算机工程与应用》 CSCD 北大核心 2004年第35期61-63,共3页
通过对Web通信量的分析,人们发现用户对Web对象的访问模式服从Zipf定律或类Zipf定律。在Web缓存的设计中,为得到所期望的Web对象命中率的要求,设计人员可以根据Zipf定律近似计算出相应的缓存大小。因此,Zipf定律为Web缓存结构的设计提... 通过对Web通信量的分析,人们发现用户对Web对象的访问模式服从Zipf定律或类Zipf定律。在Web缓存的设计中,为得到所期望的Web对象命中率的要求,设计人员可以根据Zipf定律近似计算出相应的缓存大小。因此,Zipf定律为Web缓存结构的设计提供了重要的依据。适当的缓存大小结合P-LFU替换策略可以得到很高的Web缓存命中率。 展开更多
关键词 WEB缓存 Zipf定律 WEB预取 P-LFU 访问模式 web缓存结构 WEB对象缓存机制
下载PDF
多维数据的Z-Ordering存储映射算法及其缓存调度优化 被引量:8
8
作者 侯昉 陆寄远 黄承慧 《计算机工程与科学》 CSCD 北大核心 2016年第5期877-884,共8页
多维数据以线性形式在存储系统中进行访问操作,二维及以上维度空间中的相邻节点被不同的映射算法映射到一维空间的不相邻位置。高维空间中进行相邻节点访问时,其一维存储映射位置有着不同的访问距离和访问延迟。提出了基于空间填充曲线Z... 多维数据以线性形式在存储系统中进行访问操作,二维及以上维度空间中的相邻节点被不同的映射算法映射到一维空间的不相邻位置。高维空间中进行相邻节点访问时,其一维存储映射位置有着不同的访问距离和访问延迟。提出了基于空间填充曲线Z-Ordering的存储映射方法及其访问距离的度量指标,并和常规优先算法进行了对比,发现能更好地将高维相邻的数据节点簇集到一维存储位置,加强了局部性。调整缓存空间中用于预取的空间大小,可以利用增强的局部性,提高了缓存命中率。实验结果表明,改善了多维数据的访问速度,优化了系统性能。 展开更多
关键词 多维数据 存储映射 缓存 预取 命中率
下载PDF
预取技术研究进展 被引量:2
9
作者 曹新平 刘美华 +2 位作者 韩真 古志民 张建鑫 《计算机科学》 CSCD 北大核心 2003年第8期28-30,55,共4页
World Wide Web(WWW) services have grown to levels where significant delays are expected to happen.Technology like prefetching are likely to help users to personalize their needs ,reducing their waiting times. This pap... World Wide Web(WWW) services have grown to levels where significant delays are expected to happen.Technology like prefetching are likely to help users to personalize their needs ,reducing their waiting times. This paperfirstly describes the architecture of prefetching,then classifies them into three types: based on branch model,based ontree model and others and presents profoundly the basic ideas of some existing prefetching algorithms. Next,severalmodels for controlling the prefetching are introduced. At last ,the trend and course concerning the prefetching algo-rithms are concluded. 展开更多
关键词 网络负载 网络带宽 网络缓存 预取技术 WWW 计算机网络 网络资源
下载PDF
A Prefetch-Adaptive Intelligent Cache Replacement Policy Based on Machine Learning 被引量:2
10
作者 杨会静 方娟 +1 位作者 蔡旻 才智 《Journal of Computer Science & Technology》 SCIE EI CSCD 2023年第2期391-404,共14页
Hardware prefetching and replacement policies are two techniques to improve the performance of the memory subsystem.While prefetching hides memory latency and improves performance,interactions take place with the cach... Hardware prefetching and replacement policies are two techniques to improve the performance of the memory subsystem.While prefetching hides memory latency and improves performance,interactions take place with the cache replacement policies,thereby introducing performance variability in the application.To improve the accuracy of reuse of cache blocks in the presence of hardware prefetching,we propose Prefetch-Adaptive Intelligent Cache Replacement Policy(PAIC).PAIC is designed with separate predictors for prefetch and demand requests,and uses machine learning to optimize reuse prediction in the presence of prefetching.By distinguishing reuse predictions for prefetch and demand requests,PAIC can better combine the performance benefits from prefetching and replacement policies.We evaluate PAIC on a set of 27 memory-intensive programs from the SPEC 2006 and SPEC 2017.Under single-core configuration,PAIC improves performance over Least Recently Used(LRU)replacement policy by 37.22%,compared with improvements of 32.93%for Signature-based Hit Predictor(SHiP),34.56%for Hawkeye,and 34.43%for Glider.Under the four-core configuration,PAIC improves performance over LRU by 20.99%,versus 13.23%for SHiP,17.89%for Hawkeye and 15.50%for Glider. 展开更多
关键词 hardware prefetching machine learning prefetch-Adaptive Intelligent Cache Replacement Policy(PAIC) replacement policy
原文传递
Web缓存系统浅析 被引量:3
11
作者 刘美华 古志民 曹元大 《北京理工大学学报》 EI CAS CSCD 北大核心 2003年第1期78-82,共5页
研究和构造一个可扩展性好及请求命中率高的 Web缓存系统 .通过对 Web缓存定位问题及目前流行的分布缓存系统的分析 ,确定分层缓存系统更有优势 .为了提高分层缓存的可扩展性和请求命中率 ,在保持父子代理之间原有协作关系的同时加强父... 研究和构造一个可扩展性好及请求命中率高的 Web缓存系统 .通过对 Web缓存定位问题及目前流行的分布缓存系统的分析 ,确定分层缓存系统更有优势 .为了提高分层缓存的可扩展性和请求命中率 ,在保持父子代理之间原有协作关系的同时加强父代理的处理能力 ,提出了一种新的虚拟协作缓存系统 ,即父代理用扩展性好的集群系统实现 ,子代理在缓存的同时加进预取技术 .该虚拟协作缓存系统能满足网络缓存对可扩展性及请求命中率的要求 ,具有可扩展性好、吞吐率高和命中率高的特点 . 展开更多
关键词 WEB缓存系统 可扩展性 摘要缓存 虚拟缓存 预取技术 负载平衡 请求命中率 网络缓存系统
下载PDF
Prefetching J^+-Tree:A Cache-Optimized Main Memory Database Index Structure 被引量:3
12
作者 栾华 杜小勇 王珊 《Journal of Computer Science & Technology》 SCIE EI CSCD 2009年第4期687-707,共21页
As the speed gap between main memory and modern processors continues to widen, the cache behavior becomes more important for main memory database systems (MMDBs). Indexing technique is a key component of MMDBs. Unfo... As the speed gap between main memory and modern processors continues to widen, the cache behavior becomes more important for main memory database systems (MMDBs). Indexing technique is a key component of MMDBs. Unfortunately, the predominant indexes -B^+-trees and T-trees -- have been shown to utilize cache poorly, which triggers the development of many cache-conscious indexes, such as CSB^+-trees and pB^+-trees. Most of these cache-conscious indexes are variants of conventional B^+-trees, and have better cache performance than B^+-trees. In this paper, we develop a novel J^+-tree index, inspired by the Judy structure which is an associative array data structure, and propose a more cacheoptimized index -- Prefetching J^+-tree (pJ^+-tree), which applies prefetching to J^+-tree to accelerate range scan operations. The J^+-tree stores all the keys in its leaf nodes and keeps the reference values of leaf nodes in a Judy structure, which makes J^+-tree not only hold the advantages of Judy (such as fast single value search) but also outperform it in other aspects. For example, J^+-trees can achieve better performance on range queries than Judy. The pJ^+-tree index exploits prefetching techniques to further improve the cache behavior of J^+-trees and yields a speedup of 2.0 on range scans. Compared with B^+-trees, CSB^+-trees, pB^+-trees and T-trees, our extensive experimental Study shows that pJ^+-trees can provide better performance on both time (search, scan, update) and space aspects. 展开更多
关键词 index structure pJ^+-tree prefetching cache conscious main memory database
原文传递
一种智能终端数据共享中的预取缓存技术 被引量:2
13
作者 杨培勇 赵志强 孙鹏 《网络新媒体技术》 2012年第4期31-36,共6页
针对智能终端数据共享中的网络延迟问题,本文提出一种两阶段,主动预取与被动预取相结合的数据预取缓存方法,减少网络延迟,提高用户体验。该方法利用网络空闲时间预取数据,减少用户等待时间;通过两阶段预取策略减少网络带宽消耗;通过主... 针对智能终端数据共享中的网络延迟问题,本文提出一种两阶段,主动预取与被动预取相结合的数据预取缓存方法,减少网络延迟,提高用户体验。该方法利用网络空闲时间预取数据,减少用户等待时间;通过两阶段预取策略减少网络带宽消耗;通过主被动配合的预取算法来预取数据,提高预取准确率和预取效率;通过一种权重更新函数来更新客户端的缓存,减少对智能终端存储空间的消耗。实验表明使用此方法能减少用户等待时间58.2%,预取命中率为92%,带来的带宽损耗小于5%。 展开更多
关键词 预取 缓存 两阶段预取 主被动预取
下载PDF
Taxonomy of Data Prefetching for Multicore Processors 被引量:1
14
作者 Surendra Byna 陈勇 孙贤和 《Journal of Computer Science & Technology》 SCIE EI CSCD 2009年第3期405-417,共13页
Data prefetching is an effective data access latency hiding technique to mask the CPU stall caused by cache misses and to bridge the performance gap between processor and memory. With hardware and/or software support,... Data prefetching is an effective data access latency hiding technique to mask the CPU stall caused by cache misses and to bridge the performance gap between processor and memory. With hardware and/or software support, data prefetching brings data closer to a processor before it is actually needed. Many prefetching techniques have been developed for single-core processors. Recent developments in processor technology have brought multicore processors into mainstream. While some of the single-core prefetching techniques are directly applicable to multicore processors, numerous novel strategies have been proposed in the past few years to take advantage of multiple cores. This paper aims to provide a comprehensive review of the state-of-the-art prefetching techniques, and proposes a taxonomy that classifies various design concerns in developing a prefetching strategy, especially for multicore processors. We compare various existing methods through analysis as well. 展开更多
关键词 taxonomy of prefetching strategies multicore processors data prefetching memory hierarchy
原文传递
智能异构数据集成系统中的查询优化策略 被引量:2
15
作者 边爽 李冠宇 《交通与计算机》 2004年第3期27-30,共4页
异构数据集成系统需要集成大量不同数据源的数据 ,查询效率倍受关注。文章提出采用基于移动智能体技术的预取、缓存和基于机群的数据分布相结合的查询优化策略 ,以提高异构数据集成系统的查询效率。
关键词 智能异构数据集成系统 移动智能体技术 查询优化策略 查询效率 预取 缓存 网络
下载PDF
pT-树:高速缓存优化的主存数据库索引结构 被引量:4
16
作者 杨朝辉 王立松 《计算机科学》 CSCD 北大核心 2011年第10期161-165,共5页
随着主存速度和现代处理器速度之间的差距逐渐扩大,系统对主存的存取访问成为新的瓶颈,Cache行为对主存数据库系统更加重要。索引技术是主存数据库系统设计的关键部分。在CST-树的基础上应用预取技术提高查找操作的性能,提出了一种Cach... 随着主存速度和现代处理器速度之间的差距逐渐扩大,系统对主存的存取访问成为新的瓶颈,Cache行为对主存数据库系统更加重要。索引技术是主存数据库系统设计的关键部分。在CST-树的基础上应用预取技术提高查找操作的性能,提出了一种Cache优化的索引结构预取T-树(pT-tree)。pT-树使用预取技术有效地创建比正常数据传输单元更大的索引结点,从而降低了CST-树的高度,减少了从父亲结点遍历至孩子结点时的Cache缺失。实验结果表明,pT树与B+-树、T-树、CST-树、CSB+-树相比查找性能有所提高。 展开更多
关键词 索引结构 pT-树 预取 主存数据库
下载PDF
核外计算中的几种I/O优化方法 被引量:4
17
作者 唐剑琪 方滨兴 +1 位作者 胡铭曾 王威 《计算机研究与发展》 EI CSCD 北大核心 2005年第10期1820-1825,共6页
大数据量应用问题引入核外计算模式,由于访问磁盘数据的速度比较慢,I/O成为核外计算性能重要的限制因素·提出了一种使用运行库进行I/O优化的方法,给出了3种有效的优化策略:规则区域筛选、数据预取和边缘重用·编程人员可针对... 大数据量应用问题引入核外计算模式,由于访问磁盘数据的速度比较慢,I/O成为核外计算性能重要的限制因素·提出了一种使用运行库进行I/O优化的方法,给出了3种有效的优化策略:规则区域筛选、数据预取和边缘重用·编程人员可针对不同的应用问题使用相应的优化API来缩短程序执行时间·实验结果表明,通过减少I/O操作次数和内外存交换的数据量以及隐藏部分I/O操作延迟,有效提高了核外计算的性能· 展开更多
关键词 核外计算 规则区域筛选 预取 边缘重用
下载PDF
The Case of Using Multiple Streams in Streaming 被引量:1
18
作者 Muhammad Abid Mughal Hai-Xia Wang Dong-Sheng Wang 《International Journal of Automation and computing》 EI CSCD 2013年第6期587-596,共10页
Off-chip replacement (capacity and conflict) and coherent read misses in a distributed shared memory system cause execution to stall for hundreds of cycles. These off-chip replacement and coherent read misses are re... Off-chip replacement (capacity and conflict) and coherent read misses in a distributed shared memory system cause execution to stall for hundreds of cycles. These off-chip replacement and coherent read misses are recurring and forming sequences of two or more misses called streams. Prior streaming techniques ignored reordering of misses and not-recently-accessed streams while streaming data. In this paper, we present stream prefetcher design that can deal with both problems. Our stream prefetcher design utilizes stream waiting rooms to store not-recently-accessed streams. Stream waiting rooms help remove more off-chip misses. Using trace based simulation% our stream prefetcher design can remove 8% to 66% (on average 40%) and 17% to 63% (on average 39%) replacement and coherent read misses, respectively. Using cycle-accurate full-system simulation, our design gives speedups from 1.00 to 1.17 of princeton application repository for shared-memory computers (PARSEC) workloads running on a distributed shared memory system with the exception of dedup and swaptions workloads. 展开更多
关键词 prefetching stream first in first out (FIFO) princeton application repository for shared-memory computers (PARSEC) stream waiting rooms reordering of misses sequitur.
原文传递
Dynamic Data Prefetching in Home-Based Software DSMs 被引量:1
19
作者 胡伟武 张福新 刘海明 《Journal of Computer Science & Technology》 SCIE EI CSCD 2001年第3期231-241,共11页
A major overhead in software DSM (Distributed Shared Memory) is the cost of remote memory accesses necessitated by the protocol as well as induced by false sharing. This paper introduces a dynamic prefetching method i... A major overhead in software DSM (Distributed Shared Memory) is the cost of remote memory accesses necessitated by the protocol as well as induced by false sharing. This paper introduces a dynamic prefetching method implemented in the JIAJIA software DSM to reduce system overhead caused by remote accesses. The prefetching method records the interleaving string of INV (invalidation) and GETP (getting a remote page) operations for each cached page and analyzes the periodicity of the string when a page is invalidated on a lock or barrier. A prefetching request is issued after the lock or barrier if the periodicity analysis indicates that GETP will be the next operation in the string. Multiple prefetching requests are merged into the same message if they are to the same host. Performance evaluation with eight well-accepted benchmarks in a cluster of sixteen PowerPC workstations shows that the prefetching scheme can significantly reduce the page fault overhead and as a result achieves a performance increase of 15%-20% in three benchmarks and around 8%-10% in another three. The average extra traffic caused by useless prefetches is only 7%-13% in the evaluation. 展开更多
关键词 software DSM remote access prefetching performance evaluation
原文传递
A Comparison Study between Informed and Predictive Prefetching Mechanisms for I/O Storage Systems
20
作者 Maen M. Al Assaf Ali Rodan +1 位作者 Mohammad Qatawneh Mohamed Riduan Abid 《International Journal of Communications, Network and System Sciences》 2015年第5期181-186,共6页
In this paper, we present a comparative study between informed and predictive prefetching mechanisms that were presented to leverage the performance gap between I/O storage systems and CPU. In particular, we will focu... In this paper, we present a comparative study between informed and predictive prefetching mechanisms that were presented to leverage the performance gap between I/O storage systems and CPU. In particular, we will focus on transparent informed prefetching (TIP) and predictive prefetching using probability graph approach (PG). Our main objective is to show the main features, motivations, and implementation overview of each mechanism. We also conducted a performance evaluation discussion that shows a comparison between both mechanisms performance when using different cache size values. 展开更多
关键词 INFORMED prefetching PREDICTIVE prefetching PROBABILITY GRAPH Parallel Storage Systems
下载PDF
上一页 1 2 20 下一页 到第
使用帮助 返回顶部