内存条频率和延迟哪个重要 (内存条频率和带宽的关系)

在购买内存条时,厂商大多会重点突出其内存条的频率,对应的单位为MHz或MT/s,而内存条的另一个参数值得关注,即内存延迟,通常以CL或一串破折号连接数字来表示。但很多人常常会忽略这个参数,一般会认为内存条的频率越高越好,那么,事实真是如此吗?

内存条频率和时序哪个影响帧数,内存条频率和延迟哪个重要

什么是内存频率

早期,内存(SDRAM)频率的单位用MHz表示,因其数据传输的衡量方式与主板时钟一致,其中数据传输发生在时钟周期的上升沿。比如,100MHz代表每个时钟周期进行了1亿次数据传输。

内存条频率和时序哪个影响帧数,内存条频率和延迟哪个重要

但到了DDR(双倍数据速率)内存出现,让每个时钟周期的数据传输量增加一倍,其中传输发生在时钟周期的上升沿和下降沿。它的时钟速率并没有发生变化,但它的有效数据速率增加了一倍,达到每个时钟周期2亿次数据传输。这时,以MT/s(每秒百万次传输)的衡量单位顺时而生。

可以这样理解,在SDRAM时代,MHz与MT/s相等,而到了DDR时代,MT/s是MHz的两倍,比如100MHz的DDR的速度也可以写成200MT/s。值得一提的是,由于消费者的认知惯性和厂商的营销手段,现在很多内存条都将这两个单位混用,例如3200MT/s频率的DDR4内存条,厂商故意标成3200MHz,但实际只有1600MHz。

一般来说,内存条的频率越快,系统运行也更快(当然,很多时候可能感知并不明显),但它对游戏及日常办公影响最为突出。

什么是内存延迟

多数情况下,频率对内存性能的影响比延迟更大,但这并不意味着就能忽视后者。内存延迟是内存响应请求所需的时间。延迟由多种因素组成,这里,我们主要讨论CAS延迟,它在内存规格中用“CL”或“C”表示。

内存条频率和时序哪个影响帧数,内存条频率和延迟哪个重要

我们可以利用CPU-Z来查看内存的CAS延迟,在“Timings”下,可以找到CAS#Latency(CL)对应的值,该数字表示内存访问一组数据所需的时钟周期数,实际延迟(以ns为单位)可以由“(CL x 2000) /内存频率”公式计算。

内存的延迟在视频剪辑和渲染等应用程序中尤为重要,但对于游戏来说,它不会对画面帧率造成太大的影响。

内存频率 vs 内存延迟

为了说明频率与延迟对内存性能的影响,国外有媒体利用CPU-Z、GeekBench和AIDA64 Extreme对内存条做了基准测试,测试了在不同频率和延迟下对内存条性能的影响。

内存条频率和时序哪个影响帧数,内存条频率和延迟哪个重要

其中,CPU-Z和Geekbench显示的是在单线程(1T)和多线程(nT)不同频率和延迟的内存条的结果。AIDA64 Extreme则显示了不同XMP设置下内存条的读/写性能和延迟。

在AIDA64 Extreme中,可以明显的看到内存频率和延迟对结果的影响。在相同延迟下,从4800MT/s提升到6400MT/s时,读/写速度分别提升了37%和40%。另一方面,将相同频率的内存条延迟从CL40降到CL32,读/写速度也有30%左右的增长。从数据对比来看,频率相对于延迟来说对性能影响更大。

而Geekbench中的测试结果也显示当内存条的频率更大时,性能表现差异更大,而延迟几乎没有影响。

总结

不难看出,在一般场景下,内存条频率对性能的影响确实比延迟更大,但并不意味着购买高频率的内存条就是最佳选择,还应依据自身需求考虑,比如在视频剪辑渲染等使用场景下就适合用延迟低的内存条。

内存条频率和时序哪个影响帧数,内存条频率和延迟哪个重要

当然,最好的方式是在内存频率和延迟两者中取得平衡,比如对于DDR5内存来说,6000-6400MT/s被大多数人认为是大多数应用程序的最佳频率,对应的延迟在CL30左右。