期刊文献+
共找到220篇文章
< 1 2 11 >
每页显示 20 50 100
一种高效的全文检索索引技术 被引量:7
1
作者 陈玮 陈玉鹏 +1 位作者 石晶 陆达 《计算机应用研究》 CSCD 北大核心 2004年第7期35-37,40,共4页
针对目前比较流行的基于词的倒排文档索引模型 ,结合全文检索数据的特点 ,提出了变长编码的索引压缩算法。利用该压缩编码 ,研究了基于内存缓存的快速创建索引的流程。通过实验 ,对索引膨胀率、创建时间和检索响应速度进行了对比分析 。
关键词 全文检索 词索引 内存缓存 索引压缩
下载PDF
基于P2P的VOD系统中数据缓存策略研究 被引量:6
2
作者 廖小飞 殷江培 程斌 《华中科技大学学报(自然科学版)》 EI CAS CSCD 北大核心 2007年第8期67-69,73,共4页
提出了一种结合内存缓存与磁盘缓存的新型缓存策略.该策略在原有内存缓存基础上增加了磁盘缓存,数据从内存中被淘汰时,从磁盘缓存空间中选择合适磁盘分片进行缓存,并建立索引管理已缓存数据,使对等网络中的节点利用彼此的闲置磁盘资源... 提出了一种结合内存缓存与磁盘缓存的新型缓存策略.该策略在原有内存缓存基础上增加了磁盘缓存,数据从内存中被淘汰时,从磁盘缓存空间中选择合适磁盘分片进行缓存,并建立索引管理已缓存数据,使对等网络中的节点利用彼此的闲置磁盘资源缓存更多的媒体数据,服务器的负载得到有效降低,节点在对等网络中从其他节点获取数据的成功率明显提高.实验证明,该缓存策略有效提高了系统的整体服务能力,充分利用对等网络中的空闲节点资源降低视频服务器的负载. 展开更多
关键词 对等网络 点播 内存缓存 磁盘缓存
下载PDF
嵌入式处理器中访存部件的低功耗设计研究 被引量:11
3
作者 黄海林 范东睿 +1 位作者 许彤 唐志敏 《计算机学报》 EI CSCD 北大核心 2006年第5期815-821,共7页
以“龙芯1号”处理器为研究对象,探讨了嵌入式处理器中访存部件的低功耗设计方法.通过对访存部件的结构、功耗以及关键路径进行分析,利用局部性原理,提出一种根据虚拟地址历史记录进行判断的方法,可以显著减少TLB和Cache对RAM块的访问次... 以“龙芯1号”处理器为研究对象,探讨了嵌入式处理器中访存部件的低功耗设计方法.通过对访存部件的结构、功耗以及关键路径进行分析,利用局部性原理,提出一种根据虚拟地址历史记录进行判断的方法,可以显著减少TLB和Cache对RAM块的访问次数,使得TLB部件功耗平均降低了28.1%,Cache部件功耗平均降低了54.3%,处理器总功耗平均降低了23.2%,而关键路径延时反而减少,处理器性能略有提高. 展开更多
关键词 访存部件 TLB cache 低功耗 龙芯1号
下载PDF
内存缓存技术在门户网站开发中的应用研究 被引量:9
4
作者 杨立身 曹志义 《电脑知识与技术》 2008年第9期1415-1416,1419,共3页
该文创造性地探讨了内存缓存技术在门户网站开发中的应用,介绍了Memcached这一杰出成果在truelife.com的应用情况,并就其实际存在的一些缺陷进行了深入分析。
关键词 内存缓存 门户网站 MEMcacheD
下载PDF
一种用于内容中心网络的缓存随机放置策略 被引量:9
5
作者 胡骞 武穆清 +1 位作者 郭嵩 彭蠡 《西安电子科技大学学报》 EI CAS CSCD 北大核心 2014年第6期131-136,187,共7页
以内容为中心的网络是一种新型网络架构,它打破了传统的"主机—主机"通信模式,将内容本身作为网络的核心.以内容为中心的网络通过分布式的缓存机制对内容业务提供有效支持,缓存的放置策略也成为研究的热点.首先提出一种分布式的缓存... 以内容为中心的网络是一种新型网络架构,它打破了传统的"主机—主机"通信模式,将内容本身作为网络的核心.以内容为中心的网络通过分布式的缓存机制对内容业务提供有效支持,缓存的放置策略也成为研究的热点.首先提出一种分布式的缓存随机放置策略,基于节点与内容源之间的跳数随机选择缓存放置节点,实现节点缓存的负载均衡;然后在该策略下推导缓存命中率与内容热度分布、请求到达率、缓存大小的关系.数值计算及仿真结果表明,该策略可以提高缓存命中率,与以内容为中心的网络传统策略相比,获取内容所需的平均跳数可减少5.59%-6.86%. 展开更多
关键词 内容中心网络 缓存 缓存放置策略 缓存命中率 分布式算法
下载PDF
基于Memcached内存对象缓存技术应用研究 被引量:10
6
作者 刘亮 徐步东 谭艳艳 《计算机技术与发展》 2015年第11期204-208,共5页
内存对象缓存技术近年来受到业界和学界的广泛关注,Memcached既是一种分布式缓存服务器,也是分布式内存对象缓存系统的典型代表。其以最小的资源消耗获得高效的服务性能优势,广泛应用于Web应用系统中。Memcached自身的内存管理机制、分... 内存对象缓存技术近年来受到业界和学界的广泛关注,Memcached既是一种分布式缓存服务器,也是分布式内存对象缓存系统的典型代表。其以最小的资源消耗获得高效的服务性能优势,广泛应用于Web应用系统中。Memcached自身的内存管理机制、分布式算法并非完美,对此,文中以提升Web应用系统性能为目标,利用分布式算法,基于Memcached对内存对象缓存技术进行深入研究,通过一致性Consistent Hashing算法减轻因添加服务器节点而造成缓存命中率降低的代价,提高增加服务器节点后的缓存命中率,并将优化后的Memcached应用于某电子商务平台之中。测试表明,此电子商务应用系统的请求数、流量、TCP连接数以及CPU利用率等技术指标改善明显,利用Memcached能够有效减轻数据库服务器负载压力,提高Web应用系统响应速度,增强用户体验效果。 展开更多
关键词 内存对象 缓存系统 分布式算法 电子商务
下载PDF
基于WebGL的三维虚拟地球系统设计与实现 被引量:9
7
作者 杨帆 杜凯 《地理信息世界》 2016年第2期113-118,共6页
传统的三维虚拟地球基于插件实现Web客户端,难以进行跨平台的应用。对此,本文基于Web GL这一跨平台的Web三维图形开发环境,首先构建了Browse/Server模式下的多层体系结构,探讨了基于Web GL的三维虚拟地球绘制关键技术,主要包括Java Scr... 传统的三维虚拟地球基于插件实现Web客户端,难以进行跨平台的应用。对此,本文基于Web GL这一跨平台的Web三维图形开发环境,首先构建了Browse/Server模式下的多层体系结构,探讨了基于Web GL的三维虚拟地球绘制关键技术,主要包括Java Script的内存管理和Web端瓦片四叉树调用过程中的缓存管理。最后开发了实验系统,验证了该方法的可行性和有效性。 展开更多
关键词 WEBGL 三维虚拟地球 体系结构 内存管理 缓存管理
下载PDF
Cache技术及应用 被引量:4
8
作者 王裕如 赵静 《大连大学学报》 2001年第4期73-77,共5页
这几年,CACHE技术被广泛应用.CACHE实际上就是一种高速缓冲存储器,现在CPU的速度比主存的速度愈来愈快,如果CPU直接对主存访问,将减小的效率,则将大的较慢的主存与小的较快CACHE的存储器放在一起.CACH... 这几年,CACHE技术被广泛应用.CACHE实际上就是一种高速缓冲存储器,现在CPU的速度比主存的速度愈来愈快,如果CPU直接对主存访问,将减小的效率,则将大的较慢的主存与小的较快CACHE的存储器放在一起.CACHE内存的目的是将内存速度提高到最快,同时以较低的价格提供较大的内存空间的半导体存储器. 展开更多
关键词 cache技术 高速缓冲存储器 CPU 直接映射 间接映射
下载PDF
多核处理器共享Cache的划分算法
9
作者 吕海玉 罗广 +1 位作者 朱嘉炜 张凤登 《电子科技》 2024年第9期27-33,共7页
针对多核处理器性能优化问题,文中深入研究多核处理器上共享Cache的管理策略,提出了基于缓存时间公平性与吞吐率的共享Cache划分算法MT-FTP(Memory Time based Fair and Throughput Partitioning)。以公平性和吞吐率两个评价性指标建立... 针对多核处理器性能优化问题,文中深入研究多核处理器上共享Cache的管理策略,提出了基于缓存时间公平性与吞吐率的共享Cache划分算法MT-FTP(Memory Time based Fair and Throughput Partitioning)。以公平性和吞吐率两个评价性指标建立数学模型,并分析了算法的划分流程。仿真实验结果表明,MT-FTP算法在系统吞吐率方面表现较好,其平均IPC(Instructions Per Cycles)值比UCP(Use Case Point)算法高1.3%,比LRU(Least Recently Used)算法高11.6%。MT-FTP算法对应的系统平均公平性比LRU算法的系统平均公平性高17%,比UCP算法的平均公平性高16.5%。该算法实现了共享Cache划分公平性并兼顾了系统的吞吐率。 展开更多
关键词 片上多核处理器 内存墙 划分 公平性 吞吐率 共享cache 缓存时间 集成计算机
下载PDF
基于路径预取的树型索引查询优化
10
作者 来逸瑞 李永坤 许胤龙 《计算机应用研究》 CSCD 北大核心 2024年第10期3093-3099,共7页
在树型内存索引的研究过程中,由于传统的片上预取不能适应索引的局部性,导致访存成为该类型内存索引的性能瓶颈。提出了一种基于软件层面的路径预取算法,使用预取加速内存索引的访问,并使得该算法可以快速部署到现实机器上。该算法基于... 在树型内存索引的研究过程中,由于传统的片上预取不能适应索引的局部性,导致访存成为该类型内存索引的性能瓶颈。提出了一种基于软件层面的路径预取算法,使用预取加速内存索引的访问,并使得该算法可以快速部署到现实机器上。该算法基于对树型索引访存流程的分析,通过预取表保存键与索引访问路径的关系,通过基于键切片哈希的匹配算法对预取表中的数据进行匹配,显著提高了索引性能。在当前较为先进的树型内存索引上实现了该算法并进行了实验评估,结果表明该算法在不同数据量和读写混合负载下提升了索引器的访问性能。因此,基于路径预取的算法可以有效加速树型内存索引的访存速度,提升索引器性能。 展开更多
关键词 内存索引 预取 缓存 内存层次结构
下载PDF
An efficient labeled memory system for learned indexes
11
作者 Yuxuan Mo Jingnan Jia +1 位作者 Pengfei Li Yu Hua 《Fundamental Research》 CAS CSCD 2024年第3期651-659,共9页
The appearance and wide use of memory hardware bring significant changes to the conventional vertical memory hierarchy that fails to handle contentions for shared hardware resources and expensive data movements.To dea... The appearance and wide use of memory hardware bring significant changes to the conventional vertical memory hierarchy that fails to handle contentions for shared hardware resources and expensive data movements.To deal with these problems,existing schemes have to rely on inefficient scheduling strategies that also cause extra temporal,spatial and bandwidth overheads.Based on the insights that the shared hardware resources trend to be uniformly and hierarchically offered to the requests for co-located applications in memory systems,we present an efficient abstraction of memory hierarchies,called Label,which is used to establish the connection between the application layer and underlying hardware layer.Based on labels,our paper proposes LaMem,a labeled,resource-isolated and cross-tiered memory system by leveraging the way-based partitioning technique for shared resources to guarantee QoS demands of applications,while supporting fast and low-overhead cache repartitioning technique.Besides,we customize LaMem for the learned index that fundamentally replaces storage structures with computation models as a case study to verify the applicability of LaMem.Experimental results demonstrate the efficiency and efficacy of LaMem. 展开更多
关键词 Heterogeneous memory system cache hierarchy Data movement Resource contention Learned index
原文传递
通用处理器的高带宽访存流水线研究 被引量:6
12
作者 张浩 林伟 +2 位作者 周永彬 叶笑春 范东睿 《计算机学报》 EI CSCD 北大核心 2009年第1期142-151,共10页
存储器访问速度的发展远远跟不上处理器运算速度的发展,日益严峻的访存速度问题严重制约了处理器速度的进一步发展.降低load-to-use延迟是提高处理器访存性能的关键,在其他条件确定的情况下,增加访存通路的带宽是降低load-to-use延迟的... 存储器访问速度的发展远远跟不上处理器运算速度的发展,日益严峻的访存速度问题严重制约了处理器速度的进一步发展.降低load-to-use延迟是提高处理器访存性能的关键,在其他条件确定的情况下,增加访存通路的带宽是降低load-to-use延迟的最有效途径,但增加带宽意味着增加访存通路的硬件逻辑复杂度,势必会增加访存通路的功耗.文中的工作立足于分析程序固有的访存特性,探索高带宽访存流水线的设计和优化空间,分析程序访存行为的规律性,并根据这些规律性给出高带宽访存流水线的低复杂度、低延迟、低功耗解决方案.文中的工作大大简化了高带宽访存流水线的设计,降低了关键路径的时延和功耗,被用于指导Godsonx处理器的访存设计.在处理器整体面积增加1.7%的情况下,将访存流水线的带宽提高了一倍,处理器的整体性能平均提高了8.6%. 展开更多
关键词 高带宽 访存流水 高速缓存 TLB
下载PDF
Linux的虚拟内存管理和Cache机制探析 被引量:2
13
作者 张磊 刘艳霞 《焦作大学学报》 2004年第4期24-25,共2页
探讨并剖析了Linux的虚拟内存管理机制和Cache作用机制。
关键词 虚拟内存 LINUX cache
下载PDF
Windows NT文件系统驱动程序原理及设计方法 被引量:1
14
作者 韩德志 钟铭 《微机发展》 2001年第4期63-66,共4页
本文详细阐述了WindowsNT下的文件系统驱动程序的功能原理以及文件系统驱动层相应的数据结构 。
关键词 程序设计方法 WINDOWSNT 文件系统 驱动程序 操作系统
下载PDF
航天实时内存数据库存取机制MCacheTree的研究 被引量:5
15
作者 甘杉 郭丽丽 《计算机工程与设计》 CSCD 北大核心 2010年第17期3827-3830,共4页
考虑到空间环境探测、空间科学实验所产生的数据时效性比较强,为了对它们进行有效的管理,研究了提高实时性能的索引技术。由于IO速度较慢、外存延迟时间难以预测,实时数据库系统通常采取内存数据库技术。基于此,提出了一种新的适合航天... 考虑到空间环境探测、空间科学实验所产生的数据时效性比较强,为了对它们进行有效的管理,研究了提高实时性能的索引技术。由于IO速度较慢、外存延迟时间难以预测,实时数据库系统通常采取内存数据库技术。基于此,提出了一种新的适合航天实时内存数据库系统的索引结构:MCacheTree,它将内存缓存和检索树有机地结合起来,并应用延迟写和延迟删除的优化技术,有效地降低了查询时间,提高了实时性能。最后通过实验验证了该设计的高效性。 展开更多
关键词 航天数据库 实时数据库 内存数据库 存取机制 索引 HASH缓存
下载PDF
一种面向二维三维卷积的GPGPU cache旁路系统
16
作者 贾世伟 张玉明 +2 位作者 秦翔 孙成璐 田泽 《西安电子科技大学学报》 EI CAS CSCD 北大核心 2023年第2期92-100,共9页
通用图形处理器作为卷积神经网络的核心加速平台,其处理二维、三维卷积的性能,决定着神经网络在实时目标识别检测领域的有效应用。然而,受其固有cache系统功能的限制,当前通用图形处理器架构无法实现二维、三维卷积的高效加速。针对此问... 通用图形处理器作为卷积神经网络的核心加速平台,其处理二维、三维卷积的性能,决定着神经网络在实时目标识别检测领域的有效应用。然而,受其固有cache系统功能的限制,当前通用图形处理器架构无法实现二维、三维卷积的高效加速。针对此问题,首先提出一种L1Dcache动态旁路设计方案。该方案定义了一组能够动态反映指令访问cache特征的数据结构,并基于此数据结构定义访存特征记录表,以记录不同访存指令在请求cache时的执行状态。其次,采用优先线程块的warp调度策略来加速访存状态的采样。最后根据访存状态得出不同PC值下访存请求对L1Dcache的旁路的判定,并动态完成部分低局域性数据请求对L1Dcache的旁路。由此将L1Dcache空间保留给高局域性的数据并降低二维、三维卷积执行时的访存阻塞周期,进而提升了二维、三维卷积在通用图形处理器上执行时的访存效率。实验结果表明,相比原架构,在面向二维、三维卷积时分别带来了约2.16%与19.79%的性能提升,体现了设计方案的有效性与实用性。 展开更多
关键词 卷积 通用图形处理器 存储系统 cache旁路
下载PDF
计算机高速缓冲存储器体系结构分析 被引量:3
17
作者 王珏 《航空计算技术》 2006年第3期29-33,共5页
通过对片外和片内高速缓冲存储器体系结构的总结与评价,着重分析了片内Cache与处理器核心部件、外部存储器之间的连接关系,并通过对于普林斯顿结构和哈佛结构的优缺点的讨论和分析可知,片内两级Cache结构中,一级Cache适用于哈佛结构,这... 通过对片外和片内高速缓冲存储器体系结构的总结与评价,着重分析了片内Cache与处理器核心部件、外部存储器之间的连接关系,并通过对于普林斯顿结构和哈佛结构的优缺点的讨论和分析可知,片内两级Cache结构中,一级Cache适用于哈佛结构,这样使得最接近处理器操作部件的Cache分开,消除数据引用和指令引用的冲突,远离操作部件的二级Cache则采用普林斯顿结构,可以动态调节指令和数据在其中的分配比例。这种综合的两级Cache体系结构,兼容了哈佛结构和普林斯顿结构的优势,弥补了二者的缺陷,充分发挥片内Cache的作用。 展开更多
关键词 高速缓冲存储器 cache 体系结构 一致性 普林斯顿和哈佛结构
下载PDF
Server-Based Data Push Architecture for Multi-Processor Environments 被引量:3
18
作者 孙贤和 Surendra Byna 陈勇 《Journal of Computer Science & Technology》 SCIE EI CSCD 2007年第5期641-652,共12页
Data access delay is a major bottleneck in utilizing current high-end computing (HEC) machines. Prefetching, where data is fetched before CPU demands for it, has been considered as an effective solution to masking d... Data access delay is a major bottleneck in utilizing current high-end computing (HEC) machines. Prefetching, where data is fetched before CPU demands for it, has been considered as an effective solution to masking data access delay. However, current client-initiated prefetching strategies, where a computing processor initiates prefetching instructions, have many limitations. They do not work well for applications with complex, non-contiguous data access patterns. While technology advances continue to increase the gap between computing and data access performance, trading computing power for reducing data access delay has become a natural choice. In this paper, we present a serverbased data-push approach and discuss its associated implementation mechanisms. In the server-push architecture, a dedicated server called Data Push Server (DPS) initiates and proactively pushes data closer to the client in time. Issues, such as what data to fetch, when to fetch, and how to push are studied. The SimpleScalar simulator is modified with a dedicated prefetching engine that pushes data for another processor to test DPS based prefetching. Simulation results show that L1 Cache miss rate can be reduced by up to 97% (71% on average) over a superscalar processor for SPEC CPU2000 benchmarks that have high cache miss rates. 展开更多
关键词 performance measurement evaluation MODELING simulation of multiple-processor system cache memory
原文传递
Prefetching J^+-Tree:A Cache-Optimized Main Memory Database Index Structure 被引量:3
19
作者 栾华 杜小勇 王珊 《Journal of Computer Science & Technology》 SCIE EI CSCD 2009年第4期687-707,共21页
As the speed gap between main memory and modern processors continues to widen, the cache behavior becomes more important for main memory database systems (MMDBs). Indexing technique is a key component of MMDBs. Unfo... As the speed gap between main memory and modern processors continues to widen, the cache behavior becomes more important for main memory database systems (MMDBs). Indexing technique is a key component of MMDBs. Unfortunately, the predominant indexes -B^+-trees and T-trees -- have been shown to utilize cache poorly, which triggers the development of many cache-conscious indexes, such as CSB^+-trees and pB^+-trees. Most of these cache-conscious indexes are variants of conventional B^+-trees, and have better cache performance than B^+-trees. In this paper, we develop a novel J^+-tree index, inspired by the Judy structure which is an associative array data structure, and propose a more cacheoptimized index -- Prefetching J^+-tree (pJ^+-tree), which applies prefetching to J^+-tree to accelerate range scan operations. The J^+-tree stores all the keys in its leaf nodes and keeps the reference values of leaf nodes in a Judy structure, which makes J^+-tree not only hold the advantages of Judy (such as fast single value search) but also outperform it in other aspects. For example, J^+-trees can achieve better performance on range queries than Judy. The pJ^+-tree index exploits prefetching techniques to further improve the cache behavior of J^+-trees and yields a speedup of 2.0 on range scans. Compared with B^+-trees, CSB^+-trees, pB^+-trees and T-trees, our extensive experimental Study shows that pJ^+-trees can provide better performance on both time (search, scan, update) and space aspects. 展开更多
关键词 index structure pJ^+-tree PREFETCHING cache conscious main memory database
原文传递
A Unified Buffering Management with Set Divisible Cache for PCM Main Memory
20
作者 Mei-Ying Bian Su-Kyung Yoon Jeong-Geun Kim Sangjae Nam Shin-Dug Kim 《Journal of Computer Science & Technology》 SCIE EI CSCD 2016年第1期137-146,共10页
This research proposes a phase-change memory (PCM) based main memory system with an effective combi- nation of a superblock-based adaptive buffering structure and its associated set divisible last-level cache (LLC... This research proposes a phase-change memory (PCM) based main memory system with an effective combi- nation of a superblock-based adaptive buffering structure and its associated set divisible last-level cache (LLC). To achieve high performance similar to that of dynamic random-access memory (DRAM) based main memory, the superblock-based adaptive buffer (SABU) is comprised of dual DRAM buffers, i.e., an aggressive superblock-based pre-fetching buffer (SBPB) and an adaptive sub-block reusing buffer (SBRB), and a set divisible LLC based on a cache space optimization scheme. According to our experiment, the longer PCM access latency can typically be hidden using our proposed SABU, which can significantly reduce the number of writes over the PCM main memory by 26.44%. The SABU approach can reduce PCM access latency up to 0.43 times, compared with conventional DRAM main memory. Meanwhile, the average memory energy consumption can be reduced by 19.7%. 展开更多
关键词 memory hierarchy memory structure cache memory buffer management
原文传递
上一页 1 2 11 下一页 到第
使用帮助 返回顶部