<
  • 什么是内存分层
  • 为什么内存可以分层
  • 深信服内存分层方案
  • 内存分层的技术难点
  • 内存分层技术应用实践建议
  • 为您推荐
>

什么是内存分层

内存分层是计算机体系结构中的核心设计,本质是按访问速度、容量、成本的梯度组合多种存储介质,把高频访问的“热数据”放在高速小容量层,低频访问的“冷数据”放在低速大容量层,通过智能调度实现性能与成本的最优平衡
 
内存分层的核心原理是冷热数据调度识别数据访问热度并动态迁移:

1.  热数据:高频访问、低延迟敏感(如实时交易、数据库核心数据),留在DRAM等高速层

2.  冷数据:低频访问、可容忍延迟(如日志、历史数据),下沉到NVMe/持久内存等扩展层

3.  调度流程

● 冷页下沉:系统识别低频数据,从DRAM迁移到NVMe,释放高速空间

● 热页回迁:冷数据被重新访问时,从NVMe拉回DRAM,恢复访问性能

4.  关键保障:统一地址空间+透明访问,对应用程序无感知,仅在缺页时触发迁移,性能损耗通常<10%

为什么内存可以分层

在企业级内存优化领域,传统技术方案(内存气泡、透明页共享、内存压缩、内存超分等)均可以提升物理内存利用率,在一定程度上缓解内存压力,但提升幅度有限。当业务规模持续增长时,仍然需要新的技术手段来扩展系统可用内存容量。

 

在云原生与虚拟化环境中,应用(如 JVM、缓存服务、中间件)通常会预留大量内存空间,但真正频繁读写的活跃内存仅占 50% 左右,其余部分则处于低访问的冷状态。

 

基于这一核心特性,内存分层方案得以落地:将内存数据按访问热度划分为热数据层与冷数据层,通过物理 DRAM 与高性能 NVMe SSD 构建统一内存资源池,依托智能调度算法实现冷热数据的动态流转,在保障核心业务性能的前提下,突破物理内存的容量限制。

深信服内存分层方案

深信服内存分层方案,采用「多级内存池 + 智能调度引擎」的核心架构,实现 DRAM 与 NVMe SSD 的高效协同,在极低系统开销下完成内存的分层管理与动态调度。

01 多级内存池架构设计

Tier 0(热数据层):DRAM 承载高频访问、低延迟高敏感的热数据,是业务性能的核心保障;

Tier 1(冷数据层):高性能 NVMe,作为内存扩展层,承载低频访问数据,实现内存容量的弹性扩展。

 

02 智能调度引擎

智能调度引擎是内存分层方案的核心,通过「动态区域划分 + 随机稀疏采样」技术,以极低的系统开销获取全局内存的冷热分布,实现冷热数据的精准识别与动态调度。

智能调度引擎

 

03 DRAM 与 NVMe 冷热数据流转

DRAM→NVMe 冷页下沉流程

当系统识别出低访问频率的冷页后,将其纳入冷页迁移候选队列。系统为目标页面分配 NVMe 冷层存储位置,将页面数据从 DRAM 写入 NVMe SSD,同步更新内存映射关系。完成迁移后,释放该页面对应的 DRAM 空间,实现高速内存资源优先用于承载活跃数据。

NVMe→DRAM 热页回迁流程

当业务重新访问已下沉至 NVMe 冷层的页面时,系统会实时捕获该访问请求并触发回迁流程;将目标页面数据从 NVMe读取回 DRAM,同步更新内存映射关系,让重新活跃的数据进入高速内存层,恢复正常访问性能。

NVMe→DRAM 热页回迁流程

 

内存分层的技术难点

CPU 如何访问分层内存?如何做到性能损耗较小

内存分层的技术难点在于,冷热数据如何快速识别、冷热页调度以及内存分层以后,CPU如何快速访问内存。

在内存分层体系中,NVMe 设备并不是传统意义上的存储,而是作为 DRAM 之下的冷内存层(Cold Memory Tier) 使用。因此,服务器CPU访存操作均基于 DRAM 完成。

其核心分为两种访问路径:

路径1:热页命中

CPU 发起访问→本地/远端 DRAM →返回数据

路径2:冷页未命中

CPU 发起访问→目标页不在 DRAM 热层→系统将该页从 NVMe 调回 DRAM → CPU 再访问该页

访问分层内存路径

既然服务器CPU并不直接访问NVMe ,是如何做到对性能影响较小的呢?

针对用户对分层后性能的疑虑,系统通过以下逻辑确保业务运行的确定性:

  • 统一地址空间 + 透明访问,对应用无感知

当访问DRAM 中的热页,直接命中,无额外开销。当访问NVMe 中的冷页,触发缺页中断,内核把数据从 NVMe快速拉回 DRAM,再让 CPU 访问。底层由OS 内核管理,CPU 访问时,完全不知道数据在 DRAM 还是 NVMe,由内核判断并处理。

  • 冷热数据智能调度,动态区域实时调整

系统会根据监控结果动态调整区域结构,以平衡监控精度与系统开销。当相邻区域的访问模式相似时,会自动合并区域以减少监控对象数量;当检测到区域内部存在明显的访问热点时,则会对区域进行分裂,从而实现更细粒度的热点识别。通过区域合并与分裂的自适应机制,使监控系统始终保持合理的监控粒度。

  • 低延迟 NVMe把中转开销压到最低

NVMe 控制器通过 PCIe 直接读写 DRAM,无需 CPU 干预,仅占少量 CPU 中断资源。

NVMe 硬件优势:延迟:10–100μs(远低于 SATA SSD / 机械盘)。

带宽:PCIe 4.0 NVMe 可达7GB/s,接近 DRAM 的 1/10,远高于传统存储。

内存分层能做到性能影响极小,核心是靠对应用透明管理 + 冷热数据智能调度 + 低延迟 NVMe,让 CPU 始终在高速路径上工作。结合内核 IO 路径优化与原有 NUMA 本地亲和特性无缝继承,整机内存容量翻倍,实测性能下降稳定控制在 10% 以内。实测数据如下:

开启内存分层前

➢ 开启内存分层前:物理内存容量128G,占用率高达77%;在Oracle性能测试中,数据库 TPM 2700+。

开启内存分层后

➢ 开启内存分层后:原本服务器可获得相当于256G内存使用效果;在Oracle数据库性能测试中,数据库 TPM 平均值稳定2500,性能下降幅度控制在10%以内。

内存分层技术应用实践建议

适合内存分层的业务类型

应用运行时内存存在冷热分层,典型类型有Java / JVM类应用(如ERP、CRM、HIS等系统的应用服务器层)、应用中间件及Web服务组件(如Tomcat、Nginx)、关系数据库(如OA、门户、CRM等系统数据库)、VDI桌面云等。

 

不适合内存分层的业务类型

应用运行时内存访问极其频繁,热数据占比高,典型类型有实时交互或强时延敏感应用(如金融交易系统、实时控制系统等)、高负载数据库及内存型数据库(如核心生产数据库、Redis等)

 

在具体应用落地过程中,需要结合实际业务场景与应用特征进行评估。基于合理规划前提下,业务性能影响通常可控制在10%以内。深信服可提供完善的评估工具与规划支持,在保障业务平稳运行的同时实现成本优化。