首页 > 事件详情

中国 AGI 系统性国产化的第一枪,商汤开了

5小时前 8,902
行业信号已十分明显,中国 AI 发展的下一个里程碑,不仅是拥有顶尖的模型,更是要用一流的国产算力训练出一流的国产大模型。

如果说 2025 年年初最火爆的 AI 话题是 DeepSeek R1,那么近日横空出世的「摩尔线程 IPO」则为 2025 年的结束锦上添花,二者共同为中国 AI 科技创新开龙摆尾,向业内乃至国际传递了一个有力的信号:

中国的人工智能,从底层算力到上层模型,如果有需要,是有能力摆脱对海外技术的依赖、实现全国产自主自研的。

尽管这只是初具雏形——以 AI 芯片为例,华为、商汤等许多企业的实践都已证明,国产芯片的性能较之英伟达等寡头虽有不足,但通过软硬协同的生态模式,也能用于 AI 大模型的训练与推理。

摩尔线程于 12 月 5 日上市,作为「国产 GPU 第一股」,其上市首日股价就暴涨超 400%,上市五天后市值更进一步飙升至约 4500 亿元、较发行时市值增长超过 7 倍——虽然市场占有率与技术先进性相比英伟达尤有不足,但摩尔线程 IPO 的这一亮眼成绩,恰恰表明了市场在用脚投票,看好中国科技自主创新的未来。

不过,DeepSeek 代表的是国产 AI 在模型层的自主创新,而非从算力集群层与模型层的系统国产化创新。早前就有媒体报道,DeepSeek-R1 内部用于模型训练与推理的算力集群主要基于英伟达 GPU、不采用国产卡。作为专注 AGI的 理想主义者与资源有限的创业者,DeepSeek 的选择更符合对效率的追求,无可厚非。

然而,在 AI 技术发展道路上,需要有人追求智能的上限突破,也需要有人提前作进一步的考虑:除了模型层的自主可控,底层架构、算力乃至上层产品与应用也需要自主可控,并且还要性能赶超。R1 之后,中国 AI 发展的下一个步该往哪去?

再次走到十字路口,"我们需要用创新来打破当前的技术发展瓶颈",这是商汤科技联合创始人、首席科学家林达华给出的答案。

市场上能够洞察趋势的人很多,但真正有实力、有胆量并付诸行动的则屈指可数。作为少数者,商汤已经冲在 AI 底层创新与国产化的第一线。


一、算力是开始


如果细心观察,大家不难发现:在主攻 AI-Native 的企业里,商汤是唯一一家同时在模型与算力上均有出色成果的公司。

BAT 之列的互联网大厂虽也是全面开花、既有云又有模型,但终究不是 AI Native 的思维方式——这在短期的市场竞争里并不构成阻力,事实也多有证明;然而,在更大的技术愿景面前,如系统性的 AI 国产化面前,从底层到上层的技术研发、产品、应用乃至市场运营等各个角色的 AI-only 思维,则更有优势。

这种优势体现在:本土的AI 公司本就以开拓中国人工智能科技自主创新为起点与终局,「AI 国产化」的需求与他们的创业使命跟努力方向自然高度吻合。当内在动力与外部需求达成一致,两股力量扭成一股力量,那么终局的实现就只是时间问题。

以商汤为例。其在 2020 年开始率先投入大装置的决定,便是基于对 AI 算法需求的深入了解,深谙 AI 模型与底层计算基础设置协同适配的重要性。这一前沿举措虽曾在中途历经质疑与低谷,但技术的发展规律最终验证了其正确性。

也是基于对技术发展的前瞻认知,商汤大装置并不止步于打造纯英伟达 GPU 的算力集群,而是积极拥抱国产芯片、推动模型与国产芯片的全面适配,打造从模型到算力的多方位自主可控护城河。这是技术发展的两大客观要求:

一方面,模型与应用的迭代日新月异,速度与性能都是决定市场竞争的重要因素,若支持底层模型训练与推理的「算力开关」掌握在不可控的竞争对手中,那么无论算法再怎么发力也是无济于事,国产 AI 的整体竞争力仍会处于巨大的不确定性中;

另一方面,算法与应用的发展速度超过单一芯片厂商的流片速度。除了语言大模型,多模态大模型、具身智能、空间智能等等新兴技术方向的成果层出不穷,即使英伟达的 CUDA 软件生态壁垒再高,下游模型与应用厂商也必须依赖更多元的芯片供应。此外,生态不完善也是国产 GPU 发展的一大瓶颈,国产模型厂商与国产芯片厂商的合作几乎是水到渠成。

就在今天,商汤与寒武纪刚刚联合发布了最新合作进展,并一口气宣布了未来深度优化的全套方案与打法。这也是双方今年10月签署战略合作协议以来,在推进软硬件联合优化上的关键一步。

尤其在多模态生成模型领域,商汤日日新 Seko 系列模型已完成对寒武纪芯片的适配,包括其最新发布的行业首个多剧集生成智能体 Seko 2.0。配合商汤行业首创的LightX2V视频生成推理框架,未来国产芯片将能支持真正意义上的实时视频生成,为国产视频生成产业创新发展提供自主的底层支撑。

根据规划,在适配完成后,商汤和寒武纪还将在模型核心能力优化、提升算力利用率与成本效率、强化大规模并行处理能力与资源管理机制等多个方向进一步协作,为 AGI 接下来在多模态领域的创新提供可能。

同时,再以商汤与摩尔线程的合作为例。摩尔线程能提供全功能 GPU,兼顾 AI 计算与图形渲染。商汤的大模型训练需要极致的浮点运算能力,AIGC 视频生成等应用与空间智能等前沿技术的探索又需要强大的渲染能力,摩尔线程等国产芯片正好符合现实需求。

而对国产芯片企业来说,商汤的日日新大模型体系、大装置 SenseCore及广泛的落地场景提供了绝佳的规模化场景验证平台,帮助它们验证其 GPU 的性能、打磨产品。比如,在与摩尔线程的合作中,国产 GPU就首次在千亿参数级的大模型训练与推理任务中接受了工业级标准的严苛考验。

除了寒武纪与摩尔线程,商汤还也与沐曦、华为、璧仞等几乎所有国产芯片都进行了全面适配。

此外,商汤在拥抱国产芯片与硬件上取得的成就还有很多,包括全国首个完成与华为昇腾 910C 384 超节点的全面适配。华为昇腾 384 超节点通过高速互联,将CPU、NPU、DPU、存储和内存等资源全部互联和池化,实现了更大的算力密度和互联带宽。商汤大装置与华为合作,在调度优化、跨 POD 训练稳定性与多维度故障检测与恢复等问题上取得了多项攻关,有效解决了大模型训练中的算力协同与通信效率问题。

今年 7 月,商汤还联合华为、海光、寒武纪、库帕思、摩尔线程、曦望Sunrise、壁仞科技、麒麟软件等十余家国产芯片生态伙伴,共同发布了「商汤大装置算力Mall」,帮助行业客户在「算力市场」中以更低的门槛和成本,获取经过验证的高性能国产芯片,并实现自主安全可控:

在算力层,「商汤大装置算力 Mall」可以提供高效稳定且具有成本优势的异构计算基础设施;在语料层,库帕斯等提供高质量数据集、数据清洗、标注及合规安全的管理服务,提升模型训练的数据源质量;在算法层,商汤「日日新」系列基础模型与「大装置 AI 应用开发底座」等 MLOps 工具结合,能够帮助客户快速完成模型微调和二次开发能够解决实际业务问题的模型。

从算力到模型、再到应用的全国产化,是一个需要兼具技术实践与前瞻洞察的愿景,也是行业的发展共识——「能否全国产化」与「是否要国产化」是两回事,在后者之前、我们首先要实现前者。商汤并非 AI 赛道中唯一看到这个方向的玩家,但既有心、又有力去做这件事的企业凤毛麟角。

作为少数的 AI 上市企业,商汤用行动与魄力表明,它已在「AI 国产化」这条路上出发。


二、系统化是终局


如果说模型与国产芯片的全面适配,只是国产化的起点,商汤「AI 国产化」战略的成败关键,在于模型底层架构创新与产品落地上。

从数据的角度看,通用人工智能的发展此前经过了两个关键范式的迭代阶段:第一阶段是 Scaling Law,通过在预训练阶段扩"大力出奇迹",用海量数据去训练,提升 AI 模型的智能水平,如 GPT-3 及后续海内外多个大规模预训练语言模型;第二阶段是通过高质量的指令微调(SFT)、人类反馈强化学习(RLHF)等后训练,将真实人类用户的反馈给到模型,让它能听懂人类指令。当 Scaling Law 瓶颈突现,AGI 的下一个突破成为所有从业者的共同扣问。

在这里,业内有两个方向:一是从后训练突破,如 DeepSeek R1 在后训练强化学习阶段的创新,用可验证奖励强化学习(RLVR)挖掘模型逻辑潜能;另一个方向则是从模态突破,将通用基础模型从单一的文本扩展到语音、图像、视频等模态。视觉积累深厚的商汤无疑坚定地践行后者,而这一方向的一大瓶颈是能支撑原生多模态大模型的架构。

围绕这一瓶颈,商汤在不久前发布并开源了自主研发的多模态模型架构 NEO,为其日日新大模型提供了新的架构基石。此前,业内虽也有多模态大模型架构,但大多采用「视觉编码器+投影器+语言模型」的模块组合,本质上仍然以语言为中心,限制了多模态大模型「智能涌现」的潜力。

作为多模态大模型的先行者,商汤没有囿于老思路,从 2024 年就开始在国内率先尝试突破多模态原生融合训练技术,以单一模型在 SuperCLUE 语言评测 和 OpenCompass 多模态评测中夺冠,并基于这一核心技术打造了日日新 SenseNova 6.0。之后,商汤在 2025 年 7 月发布的日日新 SenseNova 6.5 通过在多阶段的早期融合突破,大幅轻量化视觉编码器,又把多模态模型性价比提升 3 倍。

近日,其发布的 NEO 架构又展示了更大的能力:在测试中,NEO 架构仅需业界同等性能模型 1/10 的数据量(3.9 亿图像文本样本),就能开发出顶尖的视觉感知能力,在多项视觉理解任务中追平 Qwen2-VL、InternVL3 等顶尖多模态模型,在 MMMU、MMB、MMStar、SEED-I、POPE 等多项公开权威评测中斩获高分。

继 NEO 架构等原生多模态训练技术的探索后,商汤在空间智能模型 SenseNova-SI 上取得优异表现,不仅超过了 GPT-5 甚至最新的 Gemini-3 Pro,而且也超过了李飞飞团队最新发布的空间智能专用模型 Cambrian-S。

除了多模态模型的等底层技术创新,商汤开源的行业首个能够做到实时视频生成的推理框架——LightX2V,相关模型已累计下载超过 350 万次,这一项目极大促进并完善了视频生成的国产化生态。

LightX2V 框架设计了强兼容的国产化适配插件模式,可快速完成各类国产硬件的适配,包括寒武纪、沐曦、海光 DCU、昇腾910B等多款芯片。并且从测试数据来看,在不同 GPU 硬件环境下,LightX2V 均能实现高效推理,为不同场景的落地提供了灵活支撑。

实际上,大模型产品的规模化应用落地,尤其以视频生成模型为典型代表,其目前最大掣肘是成本。拿关注度很高的AI短剧为例,通常生成 1 分钟高质量视频就需要 1 小时八卡的英伟达最新 GPU 计算,成本非常高、大规模落地几无可能。而传统的开源模型每小时计算只能生成 20 秒视频,好一点的商用模型可以生成 80 秒。

而最新报告显示,使用SekoTalk——商汤开发的实时语音驱动数字人技术,同样质量的视频,一小时计算可以生成1280秒。甚至在针对对话场景进一步优化后,使用消费级 5090 显卡计算一小时,生成时长甚至可以达到 4500 秒。

值得注意的是,在本周举行的商汤产品发布周上,商汤的 Seko、小浣熊等产品都将全面支持国产化。

随着国产硬件与 AI 模型等的深度融合,将牵引国产化产业链上下游企业协同创新,为信创、数据安全要求及本地化部署,提供自主可控的关键解法,降低对海外技术的依赖。

从底层国产算力适配,到中间模型架构算法的自主创新,再到上层应用部署的安全可控,商汤在 AI 国产化不只是单点出击,而是进行了系统性的全面布局,在每一环都有深入参与。

国产化不是唯一路径,却是不可或缺的选择。在这场"必须要打的仗"面前,一个行业领头羊的担当绝不能是回避,而是要推动原始底层创新,并且迎难而上,联合行业与生态的力量——商汤在做的,恰恰就是这样一件事。