隆太威电子网欢迎您!
新闻资讯

工信部力推:国产训练芯片与异构算力引领AI新征程

作者:    发布时间:2026-02-06 14:01:11    浏览量:
电子发烧友网报道 1月21日,国务院新闻办新闻发布会上,工信部副部长张云明表示,近期工信部联合7部门出台《“人工智能 + 制造”专项行动实施意见》,并配套制定行业转型指引和企业应用指南。下一步,工信部将以落实《实施意见》为抓手,推动人工智能产业高质量发展,技术创新是重点,突破训练芯片、异构算力等关键技术是关键。

训练芯片:AI模型基石与技术攻坚核心

训练芯片是专用于训练神经网络模型的高性能集成电路,能处理海量数据、进行复杂深度计算,构建特定功能的AI模型。

从底座作用看,训练芯片是大模型研发的算力基石,决定AI技术发展速度与高度。但当前高端训练芯片市场被高度垄断,国内大规模模型训练面临算力供给不足和结构性失衡问题,推动国产高端训练芯片研发是AI产业链自主可控的关键。

技术攻关聚焦高端训练芯片领域,涵盖芯片内核架构设计、生产工艺适配、先进封装等全链条技术。

近期,国产训练芯片及相关技术栈取得诸多突破,不仅涉及芯片硬件,还延伸至软件框架、集群训练和创新架构等多个层面。

2026年1月,智谱AI与华为合作,利用华为昇腾Atlas 800T A2设备,全程训练出新一代多模态图像生成模型GLM - Image。从数据预处理到强化学习后训练,全流程在国产芯片完成,打破高端模型训练对国外芯片的依赖。该模型发布后迅速登顶Hugging Face趋势榜第一,证明国产算力底座能支撑前沿AI模型研发。

科大讯飞与华为深度合作,攻克万卡级集群组网和通信协同优化难题。通用大模型训练效率从行业基准的30% - 50%提升至85% - 95%,长思维链强化学习场景中训练效率超84%,意味着国产芯片训练大模型成本显著下降,稳定性接近国际主流水平。

国产芯片厂商产品迭代迅速,新发布芯片关键参数对标国际主流产品,强调国产工艺。燧原科技L600定位极高性能AI算力,采用国产工艺,首创原生FP8低精度算力,用于训练集群,性能对标英伟达H20 GPU,计划支持万卡级超大算力集群建设。中诚华隆HL100采用自研GPGPU + NPU融合架构,强调高能效比和高性价比,同等算力下总拥有成本仅为国外某AI芯片的1/4。

此外,中国科研团队在颠覆性技术路径上有进展。清华大学团队发布的“太极 - II”首创全前向智能光计算训练架构,大规模神经网络训练速度较传统GPU提升10倍,能效比高,为突破算力瓶颈提供新路径。中科院自动化所发布的“瞬悉1.0”在国产GPU集群上完成训练,推理效率和能耗表现显示非Transformer架构在国产算力上有巨大潜力。

异构算力:破解AI算力瓶颈的关键路径

异构算力已从“硬件堆叠”进化为解决AI算力瓶颈的核心路径。它指在一个计算系统中,混合使用不同架构的计算单元(如CPU、GPU、NPU、FPGA等)协同处理任务。

为何发展异构算力?以算力中心比作交通系统,传统同构模式如满街都是小轿车,拉货载人都不合适;异构模式则根据任务调度不同车辆,拉货用卡车(NPU/加速卡),载人用轿车(CPU),长途用高铁(专用芯片),实现效率最大化、成本最低化。

目前,异构算力突破集中在三个层面:

打破“算力孤岛”(跨地域、跨芯片):这是重大突破。过去不同厂商芯片无法协同工作,算力闲置。上海AI实验室的DeepLink实现全球首次长距离、跨地域异构算力互联,像“万能插座”,将上海和济南不同架构算力拼成“超级节点”,训练效率达单一芯片集群的95%以上,解决算力分布不均问题。

软硬协同的“调度艺术”:异构算力难点在于软件调度。阿里云构建业内首个万卡混合异构算力云平台,通过算网融合架构,让不同厂商GPU协同工作,通信性能提升20%。京东云JoyScale平台支持超10家国产算力卡,实现行业最多元异构调度。中国电信验证“英伟达+国产”芯片交叉组合推理试验,将推理任务“Prefill”和“Decode”阶段分开,分配给不同特性芯片处理,成本最高下降42%。

颠覆性的“光计算”:这是下一代异构算力的探索。清华“太极 - II”是智能光计算芯片,用光子计算,特定任务上速度比传统GPU快10倍,能效比高,是打破“电算力”物理极限的关键路径。

工信部重视“异构算力”,因其已从“技术概念”变为“刚需基础设施”。未来AI算力不再追求单一“大力出奇迹”,而是“精打细算”。通过异构算力,可盘活国产算力资源,降低对单一进口芯片的依赖。