随着算力概念总龙头中科曙光的昨日再度上板,算力题材的市场化情绪再次被推向最强风口,从盘后龙虎榜来看,各路资金简直就是杀红了眼,疯狂的扎堆进行多空博弈。
最近很多铁粉读者不断的提问,中科曙光作为国产整机龙头,搭上了AI的风口催化,备受市场追捧,短短三个月被市场情绪推动了150%的涨幅,它未来到底怎么样?
首先笔者想谈一谈我的观点:
大家可以去翻看一下笔者在1月3日的文章,其核心逻辑就是阐述的中科曙光,三个月过去之后,有人吃的满嘴流油,有人悔不当初?
原因何在?其实道理很简单,因为当时没有市场风口的助推,中科曙光被长期按在地板上摩擦,很多人看不懂它未来的价值,纷纷弃之。但是它现在从一条虫变成了一条龙,风光无限,此时假如我们再去嘘寒问暖,结果可想而知。
正如一句谚语所讲:日落西山你不陪,东山再起谁知你是谁?
接下来,我们应该去做的,就是以算力题材为驱动,去寻找下一个曾经日落西山的那个它!

AI服务器快速增长,内存接口芯片有望迎来量价齐升
根据行业数据统计,整个2022年搭载GPU的AI服务器出货量占整体服务器出货量的比例仅为1%,然而随着人工智能相关应用的快速发展,行业预测今年搭载GPU的AI服务器出货量占比有望达到8%或者更高。
笔者在往期的文章中,曾经明确提及,为了有效提升服务器的性能,不仅要大幅提升GPU的性能,同时还要同步内存技术的同步升级,在功耗大幅提升的过程中,液冷温控也将会加速发展。
这其中就涉及到一个非常关键的技术环节,就是内存技术的迭代!
从专业的技术角度来看,DDER5,HBM,CXL,NVLink等芯片技术有望迎来快速发展的契机而实现加速渗透,因为DDR5芯片需要搭载更多的电源管理芯片与温度传感器等配套芯片,从价值量来看远高于DDR4。

另一方面来看,HBM是基于3D堆叠技术的内存芯片,广泛的搭载至GPU,网络交换机,AI加速卡与高性能服务器中,它的核心作用就是为大算力提供支撑。
有人可能会问,啥是HBM?
HBM其实就是一种高速的带宽存储器,其带宽性能远超DDR高速内存,并且生成类的模型也会加速HBM内存的进一步增大容量和增加带宽。
根据行业预测,未来2-3年,HBM的市场需求年复合增速有望达到50%以上。
除此之外,各大一线高端处理器厂商,例如因特,AMD与IBM几乎一致性的推出开放性的互联协议也就是CXL,进一步使得处理器与其他加速器直接实现高速的互联来满足高性能计算的市场需求。
笔者认为:
未来2-3年,AI模型数据量和算力的需求将会快速增长,AI服务器的出货量也将会大幅提升,在多重因素共振之下,内存技术将会加
速迭代,从而驱动服务器带来的接口芯片升级迎来量价齐升。

●相关产业链公司挖掘
澜起科技:因特与AMD相继发布支持DDR5内存标准的服务器预示着内存加速迭代,公司深耕互联类芯片,在MCR RCD/DB,CKD,MXC领域积极布局新品,把握互连+计算的双重发展机遇,未来有望受益DDR5内存持续渗透和算力需求增加,领跑行业迎增长红利。
聚辰股份:全球EEPROM龙头,音圈马达驱动芯片和智能卡芯片占比最高约为86%,公司的SPD产品用于存储内存模组的相关信息以及模组上内存颗粒和相关器件的所有配置参数,为DDR5内存模组不可或缺的组件。