在AI技术飞速发展的当下,企业智能化转型需求愈发迫切。然而,转型过程中尤其是对于制造行业来说,仍旧面临着诸如技术成本高、数据安全风险等等挑战。
过去的几个月,AI新秀DeepSeek不仅席卷全网,也激活了整个人工智能产业链,为各行业注入了新的活力,开启了一场“AI驱动的生产力”的革命。
联想中国方案服务业务群“擎天”AI技术中心高级总监顾旭光:
传统大模型(如ChatGPT)本质是“知识库型问答工具”,依赖预训练数据快速匹配答案,属于“快思考”模式。而DeepSeek为代表的新一代推理型大模型,通过自主规划与逻辑推演解决复杂问题,尤其在科研、数学、编程等领域展现出超越人类的性能。这一突破源于其底层架构创新——模型不再囿于静态知识储备,而是像人类一样动态拆解问题、执行多步推理,真正实现了从“信息检索”到“智能思考”的跨越。
DeepSeek最让人震撼的地方是通过技术创新,以完全开源的推理大模型属性,在性能上还可以与OpenAI等同类闭源产品不相上下。同时,通过架构创新,重构模型架构,显著降低训练与推理的算力消耗;训练革新,开创纯强化学习训练范式,建立可复现的标准训练流程;工程优化,实现软硬件深度协同,使企业级模型训练不再依赖数十万GPU集群。这三大技术支柱的加持下真正做到了成本降低,降低行业应用门槛,有望实现“平民化AI”。
值得一提的是,DeepSeek是我们中国国产、自有的技术。
可以说,DeepSeek凭借性能、成本、完全开源、国产化四方面的优势引爆产业变革的同时,还促进了AI的普惠和平民化,让每个企业都可以训练出属于自己的推理型模型。
Q:DeepSeek如何与制造行业的应用场景相融合?
联想中国政企业务群制造行业区域总经理邓风华:
从联想的角度讲,联想本身就是一家制造型企业。以制造企业实践视角来看,DeepSeek的应用存在明显的场景分层特征。
在"产-供-销-服"核心业务环节中,生产端的智能化融合仍面临数据质量挑战。企业生产数据的完整性与准确性直接决定了模型应用效果,若基础数据存在缺失或偏差,即便拥有先进算法也可能产生决策幻觉。
这就提示了制造企业需同步夯实数字化转型基础,构建可信的数据资产。尤其是在AI这一级,数据的准确率显得更为重要。
而在办公协同场景中,DeepSeek已展现出显著价值,联想自主研发的AI大模型已实现了法律文本处理、条款校验等工作的智能化替代,效率提升达60%以上。
这种"核心生产场景打基础,辅助场景抓落地"的融合路径,为行业提供了可借鉴的实践框架。
沐曦高级产品总监周彬:
作为做国产通用GPU的代表,沐曦早在DeepSeek V1版本发布时便启动了技术适配,并全程跟进模型迭代。
从支持1.5B到671B的全系列模型,到覆盖BF16、Int8、Int4全精度推理,再到复现训练、微调、蒸馏及强化学习(GRPO)全流程,团队逐步验证了国产GPU与大模型协同的可能性。
在国产大模型与芯片协同发展的浪潮中,联想与沐曦快速响应,2月5日(正月初八)业内首发DeepSeek大模型一体机。这款产品不仅是业内首发的国产大模型一体机,更以全栈技术能力展现了国产AI硬件的底气。
业内首发并非偶然!沐曦GPU的通用适配性为快速响应奠定基础。春节期间,团队仅用数日便完成DeepSeek-R1模型的适配,并于年初五联合开源中国上线公网服务,年初八与联想发布一体机产品,成为国产大模型硬件落地的标杆案例。
架构级适配:针对MOE(混合专家)架构优化计算路径,融合算子提升效率;
算法迁移:借鉴DeepSeek官方在H800芯片上的优化经验,结合国产GPU特性重构矩阵运算; 真实场景验证:基于4K上下文长度实测,确保数据贴近用户实际需求。
最终,单用户生成速度提升至18.8 token/s,超越人眼阅读速度(约15 token/s),满足商业化需求。这一成绩印证了“软硬协同”的重要性——既需吃透大模型算法特性,也依赖芯片层面对计算密集型任务的深度支持。
国产AI一体机的底气不仅在于单点性能,更在于生态闭环能力。沐曦不仅支持推理,更验证了从预训练、微调到蒸馏的全生命周期技术链,并将优化经验开放至开发者社区。这种“全栈可控”的路径,为行业提供了可复用的技术范式。
提到蒸馏,有一个形象的描述:DeepSeek以“大师傅”的身份去教会小模型,来学会“大师傅”的本领,这不仅仅是开源出来6个小尺寸的模型,而是提供了“方法”,通过对方法的复现可以让各行各业去蒸馏出属于自己的模型。这是对产业界最有价值的东西。
技术突围没有捷径,就是一步步啃硬骨头。当国产大模型与芯片的协同创新进入深水区,全栈能力的积累正在为AI落地打开新的可能性。联想与沐曦推出的国产AI一体机凭借软硬件的深度适配,大幅简化了DeepSeek大模型的部署流程,有效降低了AI应用门槛。
联想中国基础设施业务群AI方案拓展高级经理宋外史:
在联想与沐曦推出的国产AI一体机的适配过程中,从硬件选型、场景适配、全栈调优三个维度,揭示了国产算力突破大模型应用的技术路径。
显存配置决定了性能上限。支撑百亿参数大模型的核心在于显存容量。
以运行32B大模型为例,至少需要64G显存容量。通过对比不同显卡性能:NVIDIA L20单卡提供48G显存,沐曦自研的N260/C500系列单卡显存达64G。这意味着32B模型运行时,L20需要2张,而N260仅需1张卡即可满足需求,显著降低硬件部署成本。
用场景来定义算力架构。“没有万能配置,只有精准适配”这是联想的技术理念。
针对用户实际场景,联想提供了灵活解决方案:办公室环境可采用工作站单机部署,满足中小规模用户推理需求;数据中心则采用多卡服务器集群,通过metaxLink高速互联技术提供384GB/s的卡间互联带宽,从而支持671B参数模型的多并发高吞吐服务。
这种场景化适配能力,使得一体机既可入驻小型公司的通用办公场景,也能支撑央企的超大规模AI服务。
全栈调优才能释放硬件潜能。在选定基础硬件后,联想联合沐曦开展了深度调优。国产AI一体机的技术突围不仅在于单点突破,更体现在"芯片选型-系统架构-场景调优"的全栈能力。这种从底层硬件到顶层应用的协同创新,正是支撑中国AI产业自主进化的核心底气。
建议企业根据业务场景选择对应模型规格,优先采用模块化部署方案实现渐进式升级。
主流适用方案:32B/70B参数模型可满足70%-80%企业需求,对应配置2U4卡或4U8卡服务器,硬件成本约13-25万元。 高端应用方案:671B满血大模型需4台服务器集群(总成本约280万+),适合企业深度应用。
结语
DeepSeek不仅捅破了技术的天花板,更激活了产业协同创新的“链式反应”。当算法、算力与场景深度融合,每个行业都将找到专属的智能进化路径。这场由AI普惠所驱动的范式革命,才刚刚拉开序幕。
不可否认,技术创新最终都将服务于应用,我们相信未来将出现更多更具象的,更垂类的成熟应用。然后以“开箱即用”的方式直接服务大部分企业,实现拿来即用。
未来,联想还将持续深化与DeepSeek的技术融合,以更敏捷、更安全的AI服务生态,助力千行百业拥抱智能化新时代。
点击下方图片,了解更多故事
点击阅读原文,了解联想ISG中国























