关注热点
聚焦行业峰会

模子推理鞭策算力需求百倍增加国产厂商若何进
来源:安徽邯郸全商网交通应用技术股份有限公司 时间:2025-05-27 04:54

  据华为昇腾计较营业总裁张迪煊引见,比拟于上一代Atlas A2,基于昇腾384超节点的Atlas A3模子锻炼机能提拔已达3倍。同时,因为采用了新的总线高速互联手艺后,超节点通信带宽提拔了15倍、通信时延降低了10倍。

  而昇腾384节点针对MOE所做的优化设想,正在业内率先实现了“一卡一专家”,最终做到了15ms的低时延,单卡吞吐量是业界集群的4倍以上。

  国内厂商为满脚这部门的算力需求,同时实现“更大吞吐量”(AI模子一次能同时处置更多使命)和“更低延迟”(一次使命所需时间更短),是行业待处理的环节问题。

  正在近日华为举办的鲲鹏昇腾开辟者大会上,其搭建的“昇腾384超节点”已是业内最大规模的算力集群超节点。该超节点操纵华为的高速互线张昇腾AI GPU芯片毗连起来,并正在内存带宽、存储容量、高速互联收集等手艺长进行了大幅调优。消息显示,CloudMatrix 384 单集群算力曾经达到300 PFlops,总规模已取英伟达NVL72大致相当(以业内常用的半精度浮点数F16尺度权衡,NVL72是将72张B200GPU连正在一路)。

  国产厂商也正在加速扶植程序。张迪煊正在大会上暗示,华为目前将多个昇腾384超节点组合正在一路,曾经能够支撑10万卡集群的算力需求。

  而比拟于锻炼,跟着推理正在算力需求所占的比沉越来越大,算力集群针对推理的优化也变得越来越主要。

  等推理模子的推广使用,市场将需要更多AI芯片做算力支持。AI推理已取代模子锻炼成为了鞭策了算力需求增加的从力,规模增加能“轻松跨越客岁估量的100倍”。国内厂商正在算力供给上持久走集群化线,即将多个芯片通过特定手艺毗连整合正在成单个的“超节点”。正在数据核心内部,多个超节点构成一个集群系统,以满脚对大规模算力需求较高的使命。

  张迪煊称,DeepSeek正在业内带火的MOE(夹杂专家)架构目前曾经是业内模子支流架构,而MOE包含上百个专家收集的安排,实现大规模专家并行是行业处理AI模子吞吐量和延迟问题的焦点。

  跟着基于强化进修的“长思虑”(Deep Thinking)功能取智能体使用(AI Agent)的集中落地,AI模子需要处置的使命更复杂,“思虑”过程更长,需要更长时间和复杂计较过程来得出推理成果。

 

 

近期热点视频

0551-65331919