AMD Intel合作,x86性能提升16倍
AMD与Intel联合推进的x86生态系统咨询小组(EAG)近日发布了其关键成果之一:ACE(Accelerated Compute Extension)白皮书。这项代号为“x86标准矩阵加速架构”的指令集正式向开发者社区开放,旨在大幅提升x86处理器在AI和高性能计算(HPC)领域的矩阵运算能力。
ACE指令集:x86架构的AI算力升级
ACE指令集的核心在于实现x86芯片在矩阵乘法性能上的数量级提升。作为神经网络和大语言模型运算的基石,传统的SIMD指令集在计算密度和扩展性方面已显现瓶颈。ACE通过引入基于外积运算的加速机制,能够在相同输入向量消耗下,实现等效AVX10乘累加操作16倍的计算密度。这标志着x86架构在AI推理和训练任务上的效率将得到显著增强。

广泛的数据格式支持与生态兼容
为了适应当前AI领域多样化的精度需求,ACE原生支持了INT8、OCP FP8、OCP MXFP8、OCP MXINT8以及BF16等主流数据格式。作为AVX10指令集的扩展,ACE的软件生态适配工作已全面展开。底层库如Deep Learning和HPC库,以及NumPy、SciPy等Python科学计算库,还有PyTorch和TensorFlow等主流机器学习框架,均已启动集成进程,旨在降低开发者迁移和应用ACE的门槛。
低摩擦、广覆盖的开发者体验
AMD与Intel在ACE的设计理念中,特别强调了“低摩擦”和“广覆盖”。这意味着开发者无需为不同的硬件平台编写专门的代码,ACE指令集的设计目标是能够从笔记本电脑覆盖到超级计算机的各类x86设备。这一策略与迁移至专用AI加速器的方案形成鲜明对比,后者往往伴随着额外的代码适配和迁移成本。ACE旨在提供一种更平滑、更具普适性的AI计算解决方案。
对x86生态与AI硬件格局的影响

ACE指令集的推出,是AMD和Intel在x86架构上的一次重要协同。通过统一和增强AI计算能力,ACE有助于巩固x86处理器在服务器、工作站乃至高端PC市场的竞争力。这不仅能吸引更多开发者利用x86平台进行AI和HPC应用开发,也可能促使通用CPU在某些AI场景下展现出更强的竞争力,挑战当前由专用AI芯片主导的格局。ACE的成功推广,将取决于其在实际应用中的性能表现以及软件生态的成熟度。
ACE指令集的发布,标志着CPU在AI计算领域正寻求一次重要的性能飞跃。其低门槛、广兼容的特性,有望加速AI技术在更广泛x86设备上的落地,但也面临着与日益强大的专用AI芯片的竞争,以及软件生态能否快速成熟的挑战。