

路透旧金山8月26日电- - -人工智能基准研究组织MLCommons周三公布了一系列最新测试结果,对顶级硬件运行人工智能应用程序和响应用户的速度进行了评估。
MLCommons增加的两个新基准衡量了人工智能芯片和系统从包含数据的强大人工智能模型中生成响应的速度。结果大致展示了ChatGPT等AI应用程序对用户查询的响应速度有多快。
其中一个新的基准测试增加了测量大型语言模型的问答场景的速度的能力。它被称为Llama 2,包含700亿个参数,由meta平台开发。
MLCommons官员还在基准测试工具套件中添加了第二个文本到图像生成器,称为MLPerf,基于Stability AI的Stable Diffusion XL模型。
采用英伟达H100芯片的服务器(这些芯片由Alphabet旗下的谷歌(Google)、超微(Supermicro)和英伟达自己制造)轻松赢得了两项新的原始性能基准。几家服务器制造商提交了基于该公司功能较弱的L40S芯片的设计。
服务器制造商Krai提交了一份图像生成基准设计,该设计采用了高通的人工智能芯片,比英伟达的尖端处理器功耗低得多。
英特尔还提交了基于其Gaudi2加速器芯片的设计方案。该公司称其业绩“稳固”。
在部署人工智能应用程序时,原始性能并不是唯一重要的衡量标准。先进的人工智能芯片需要消耗大量的能量,人工智能公司面临的最大挑战之一是部署以最少的能量提供最佳性能的芯片。
MLCommons有一个单独的基准类别用于测量功耗。
(Max A. Cherney旧金山报道;编辑:Jamie Freed)
×



