2025年,生成式AI应用在全球范围内呈现爆发式增长态势。据Gartner预测数据显示,2025年支持生成式AI的端侧设备硬件支出将增长99.5%,达到39亿美元。在这一技术浪潮中,内存与存储技术作为AI应用的基础支撑,其重要性日益凸显。美光作为DRAM和NAND技术领域的企业,其产品技术在端侧AI应用场景中展现出明确的适配性。
【端侧AI推理的技术特性】
端侧AI推理在实际应用中呈现出多个技术层面的特点。本地数据处理方式可缩短网络延迟,同时减少对网络连接的依赖。这种处理方式避免了在端侧设备和云端之间不断传输大量数据集,从而在能源消耗方面表现出一定优势。在自动驾驶等应用场景中,端侧设备此前严重依赖云服务器来完成任务,面临着网络延迟和连接中断等技术限制。随着端侧推理能力的发展,这些设备的AI工作负载能够更接近数据来源运行。
内存瓶颈在模型训练和推理阶段构成显著的技术制约。高带宽内存HBM可有效缓解云端的瓶颈,而美光LPDDR5X则为端侧设备提供了高带宽与高能效的技术组合。这些内存技术可确保AI工作负载能高效快速执行,无论它们位于端侧还是云端。从端侧AI到物联网设备,各行各业的客户依靠美光的技术积淀,来应对这些数据处理方面的技术要求。
【分布式AI模型的内存配置需求】
融合端侧计算与云端计算的分布式模型,正成为AI工作负载的技术解决方向。在此架构下,代理式AI系统可在终端设备中驻留,当遇到无法完全解答的问题时,会向云端或AI模型寻求响应。这种协同方式在性能表现、资源分配等方面体现出技术层面的特性。
AI数据处理场景需要构建完整的内存与存储层级架构。该架构包括高密度DDR5模块、LPDDR5X、基于CXL的扩展内存池、采用美光9650 NVMe SSD的本地数据缓存,以及相关的联网存储方案。端侧智能设备同样需要均衡的内存和存储组合配置,以保持AI工作负载的持续响应。LPDDR5X等低功耗DRAM可提供实时处理所需的带宽,而快速存储可用于处理模型数据和推理结果。
【美光产品的技术节点与能效表现】
美光的产品基于业界前沿制程节点,能效表现在同类产品中具有参考价值。其中采用美光前沿1γ制程节点的产品,在业界同类产品中展现出技术层面的特性。随着AI模型日趋复杂,它们对内存和存储容量的需求持续增长。无论是端侧设备还是云端基础设施,都需要支持这些不断扩展的模型。美光的内存和存储解决方案可提供AI应用所需的容量与速度技术参数。
【端侧AI在不同行业的应用场景】
随着AI持续演进,内存与存储在端侧应用及设备中的作用不容忽视。无论是手机、PC和汽车领域的企业,还是工业与机器人行业的实践者,都需要考虑这些核心器件对AI工作负载运行的技术要求。美光提供快速、高效、可靠的解决方案,其技术不仅能存储数据,更能将数据转化为智能洞察。在客户端PC场景中,美光的节能型内存和存储解决方案组合能够在各类端侧设备上实现AI应用,包括汽车、智能手机等设备类型。
美光的DRAM器件、LPDDR模块、高带宽内存、数据中心SSD存储、客户端SSD存储等产品类型,构成了面向AI应用的内存和存储产品体系。这些产品在端侧AI、AI数据处理、高性能计算等应用领域中,为不同场景提供了技术层面的选择空间。




商业观察网-《商业观察》杂志社官网版权与免责声明:
① 凡本网注明“来源:商业观察网或《商业观察》杂志”的所有作品,版权均属于商业观察网,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:商业观察网”。违反上述声明者,本网将追究其相关法律责任。
② 凡本网注明“来源:XXX(非商业观察网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
③ 如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。
相关文章