无论是各大模型厂商还是 AI 产业链上下游的公司,都在兴奋地等待通往未来 AI 世界的关键路径。
文|《中国企业家》记者孔月昕
编辑|马吉英
头图来源|视觉中国
AI Infra 公司在宣布接入 DeepSeek-R1 后,会有很多中小企业前来联系,希望获得部署了 R1 模型的产品,清程极智就遇到了类似情形。
“你们的 DeepSeek 是不是‘满血版’?”清程极智 CEO 汤雄超曾被客户这么问。
注:DeepSeek 满血版即 DeepSeek-R1 模型的顶级版本,模型参数达 671B(6710 亿),是普通版(14B/32B)的 20 倍以上,满血版支持本地/API 部署及复杂科研计算,能力上限更高,且对硬件要求也更高。
收到太多此类问询后,清程极智团队决定用工程解决这个问题——在官网上线一个“满血版”鉴别小程序,并精心挑选了几道比较有区分度的题目,用户可以用这些题目去提问,如果系统回答得对,基本上就是“满血版”;如果回答不出来,可能就不是“满血版”。
该小程序上线后,其访问量超出了清程极智的预期。
实际上,清程极智的经历只是近期 AI 行业的一个缩影。“整个 AI 行业这一个多月应该都过得很充实。”有业内人士表示。DeepSeek 的火爆,让整个 AI 赛道的从业人员处于一种“痛并快乐着”的状态。
一方面,DeepSeek 的出现激发了普通用户使用 AI 工具的意识和需求,推动了 AI 的普及。DeepSeek 也成为有史以来增速最快的 AI 应用,据 AI 产品榜统计,DeepSeek 2 月份活跃用户 1.57 亿,已接近 ChatGPT 7.49 亿的 20%。过多用户的涌入,也让 DeepSeek 对话机器人常常陷入“服务器繁忙”的状态。
另一方面,DeepSeek 的快速迭代和开源,让本来就“卷”的 AI 行业进入了新一轮的“军备竞赛”,从模型层至应用层的很多公司,在今年春节期间几乎没有休息。众多企业宣布接入 DeepSeek,既有云服务提供商、芯片制造商等B端公司,也有各类C端应用公司。据正和岛统计,已有超 200 家企业完成 DeepSeek 技术接口的集成部署。
接入的企业也迎来了一波“泼天流量”——腾讯元宝 APP 在接入 DeepSeek 之后,下载量迅速攀升,并在 3 月 3 日登顶中国区苹果应用商店免费 APP 下载排行榜 TOP1;作为 AI 基础设施公司,硅基流动在全网最快接入 DeepSeek-R1,访问量激增 40 倍,2 月访问量高达 1719 万人次。
DeepSeek-R1 的出现,也进一步提高了各方对 AIGC 应用加速发展的期待。当 3 月 6 日 Monica.im 发布 AI 智能体产品 Manus 时,再次引发了一场“邀请码抢购”狂潮。
无论是各大模型厂商还是 AI 产业链上下游的公司,都在兴奋地等待通往未来 AI 世界的关键路径。
如何接入 DeepSeek
早在 2024 年 DeepSeek-V2 模型发布时,业内已经关注到这家公司及旗下的开源模型。
美图设计室技术负责人郭晨晖表示,为了在美图的 AI 应用场景中给用户更好的效果体验,在自研的基础上,美图也一直对国内外优秀的大模型保持关注。DeepSeek-V2 发布时,美图的外采 AI 团队就关注到了该模型,与 DeepSeek 团队接触尝试合作。不过为了寻求稳定性,美图当时主要通过第三方 AI Infra 服务商调用 DeepSeek 模型 API。2024 年 9 月,美图设计室接入了 V2 模型,辅助文案扩写,V3、R1 模型发布后,他们也陆续进行了更新。“我们产品和业务团队看到一些适合结合的模型,就会去做效果评估,合适的可能就会引入到我们自己的应用场景里。”郭晨晖说。
郭晨晖来源:受访者
DeepSeek 官方提供了两个接入方法,一是模型跑起来后,通过一些编程方式去调用它的 API 接口;二是用户在手机上装一个 APP 或打开官网的聊天窗口,直接跟它对话,聊天窗口的背后就在调用 API。
不过,由于目前 DeepSeek 的流量过高,又存在服务器、人手不足等情况,导致 DeepSeek 自己的 API 会出现超时等问题。郭晨晖表示,美图旗下产品有着大体量的用户基数,一些功能推广开来后流量可能会激增数十倍、上百倍,这种情况下,公有云的服务保障能力相对更强。
不仅如此,DeepSeek 的模型比较大,尤其是“满血版”模型对硬件有一定要求;基于性价比层面的考虑,美图的业务场景存在很显著的(使用)高峰、低峰效应,云厂商可以抹平各家调用 API 高低峰期的差异。“如果我们自己进行部署,低峰期资源利用率可能比较低,会有比较大的资源浪费。”郭晨晖说。
因此,美图目前接入 DeepSeek-R1 模型的方式,主要是调用云厂商的 API,在此基础上进行一定的私有化部署。
与美图类似,部署端侧芯片的此芯科技,也一直对新发布的各种大模型保持关注,尤其是比较适合在端侧进行本地化部署的模型。此芯科技生态战略总经理周杰表示,对于一些开源的大模型,尤其是 SOTA 模型(State of the Art,在某一领域或任务中表现最佳的模型),他们会第一时间投入资源进行相应的异构适配。因此在 DeepSeek 去年发布 V2 以及今年发布 R1 后,此芯科技都第一时间尝试适配这些模型。
在周杰看来,DeepSeek-V2 模型的主要创新点有两个,一是通过 MLA(多头潜在注意力)架构有效地降低了 KV 缓存(Transformer 模型在自回归解码过程中使用的一种优化技术)的开销,因为大语言模型对于内存带宽和容量的要求很高,一旦能够降低 KV 缓存,可以给算力平台带来很大帮助;二是 DeepSeek 发布的 MoE(混合专家)模型,对传统 MoE 架构进行了优化改造,这个架构可以让一个(参数)更大的模型在资源有限的情况下被使用。
当时,此芯科技很快适配了 V2 模型的 light 版本,即 16B 大小的模型。“虽然 16B 参数看起来也很大,但实际运行时,它只会激活 2.4B 参数。我们觉得这样的模型非常适合在端侧运行,此芯科技的 P1 芯片也可以给 2.4B 参数规模的模型提供比较好的支持。”周杰告诉《中国企业家》。
周杰来源:受访者
对于此芯科技如何“接入”DeepSeek,周杰解释道:“用户现在使用 DeepSeek 等应用,很多需要调用云端的算力,相当于 DeepSeek 自己的数据中心或云厂商,提供了一些 API 给终端侧应用调用,用户使用 DeepSeek APP 时,就可以调用云端的 AI 能力。但是部分端侧场景可能对数据隐私等方面有很高的要求,这种情况下就需要在本地进行运算,在端侧部署后,用户可以在断网的情况下运行 DeepSeek 等模型。”
从算力和系统层面满足了运行一个大语言模型的基本要求后,此芯科技就可以结合客户项目的实际需求,跟 DeepSeek 等模型厂商进行商业化合作,对模型进行微调优化,把具体项目落地。
V2 推出后,清程极智内部也尝试接入该模型,但当时的市场需求较少,他们就没有推广使用。今年 R1 出来后,他们觉得这是一个非常好的机会,决定接入 DeepSeek 并大规模向客户推广。
清程极智是做系统软件的,对外基于系统软件提供推理服务,因此不是像部分应用公司那样直接接入 DeepSeek 的 API,而是为客户提供一套专属的 DeepSeek 的 API 用于应用服务。“我们接入的方式是把 DeepSeek 的开源模型下载下来,在我们的算力系统上用系统软件把服务部署起来。”汤雄超说。
通俗来讲,R1 模型是一个几百G大小的文件,但下载后无法直接使用。“它只是一个文件,不是一个可用的服务,我们要做的是把这个模型运行起来,让它去对外提供服务的接口。通过 API 的服务接口,用户就可以跟模型进行对话了。”汤雄超解释道。
基于前期技术积累,清程极智在把模型文件下载下来后,一天内就迭代出了第一个版本,随后针对 R1 模型结构进行了优化,正式“满血版”官宣上线只用了一周。
在汤雄超看来,技术环节的工作都比较顺利,接入 DeepSeek 后,更多的挑战来自于商务侧或市场侧。具体来说,DeepSeek 的流量给公司带来了非常多来咨询的客户,但每个客户的需求都不太一样。“包括算力平台、芯片型号、服务器规格等都不一样,我们需要针对不同的算力等基础,做针对性的调优。”汤雄超说。
API 成本降低推动大模型普及
在 2024 年 5 月发布 V2 模型后,因其极致性价比,DeepSeek 获得“AI 界拼多多”的称号,并带动国内大厂打起了大模型价格战。
价格战降低了 API 费用。以美图“AI 商品图”为例,在郭晨晖看来,一方面,美图在 AI 图像处理上拥有强大技术优势,而 DeepSeek 模型的接入带来了用户体验和转化的正向反馈,且大语言模型 API 的调用成本占比很低,这与美图的业务场景形成了很好的优势互补,因此美图也会加大对大语言模型应用的关注。
2 月 9 日,DeepSeek 停止了 V3 模型为期 45 天的优惠价格体验期,API 恢复原价,每百万输入 tokens 0.5 元(缓存命中)/2 元(缓存未命中),每百万输出 tokens 8 元。R1 的百万 tokens 输入价格(缓存命中)为 1 元,百万 tokens 输入价格(缓存未命中)为 4 元,输出价格为 16 元。
但 OpenAI 官网显示,GPT-4o 的 2.5 美元/百万输入 tokens,10 美元/百万输出 tokens;最新发布的 GPT-4.5 的百万输入/输出 tokens 更是高达 75 美元/150 美元,仅较 GPT-4o 就上涨了 15~30 倍。
在郭晨晖看来,一方面 DeepSeek 模型调用费用在美图 AI 研投的整体成本占比不高;另一方面,DeepSeek 恢复原价后依然处于比较便宜的价格区间,且美图接入 DeepSeek 后,在用户转化及反馈上是正向的,因此他们会加大在大语言模型方面的投入。
周杰也认为,DeepSeek 的 API 价格比 OpenAI 低了很多倍,对于企业和用户而言,买 token 的费用大大降低。在端侧模型层面,现在一个 3B 的模型可能就能做到以前 7B 以上规模的模型效果,内存等成本也相对降低了。
“这是个软硬件协同的过程。同样的硬件条件下,现在相当于能实现以前更大参数规模的模型效果,或者要达到同样的模型效果,对硬件的要求变低了。”周杰说。
3 月初,持续五天的“DeepSeek 开源周”结束后,DeepSeek 团队首次对外公布了模型的优化技术细节、成本利润率等关键信息。按 DeepSeek 测算,其成本利润率理论上能达到 545%。
大模型成本的快速降低以及能力的提升,也带来了 to B 和 to C 领域用户的高速增长。汤雄超透露,现在有很多的中小企业会主动联系到他们,希望获得基于 R1 模型的产品。
AI 应用将加速爆发
百度创始人、董事长兼 CEO 李彦宏在《紧抓 AI 智能体爆发元年机遇,推动新质生产力加快发展》一文中写道,大模型的推理成本,每 12 个月就降低 90% 以上,远超“摩尔定律”。随着大模型技术的迭代和成本的直线下降,人工智能应用将大爆发。
目前,AI 市场处于高速增长阶段,汤雄超认为,DeepSeek 的理论利润率高达 545%,对于整个行业的意义和影响非常积极,给市场科普了算力系统软件的重要性。
汤雄超来源:受访者
“过去大家并不是非常重视软件的能力,DeepSeek 让大家认识到,花钱买软件不是浪费钱,而是为了更好地省钱。”汤雄超表示,在受过教育的市场环境下,核心系统软件的优势能被更大地发挥出来;短期来看,DeepSeek 的开源也能让各方降低产品交付的商业成本。
随着越来越多企业接入 DeepSeek,在其开源生态上做“建设”反馈,DeepSeek 的发展进程也在加速。
郭晨晖认为,这也是 DeepSeek 的开源生态最大的优势——接入的企业在各自应用场景上打造差异化能力产品的同时,应用场景也能推动 DeepSeek 等基座大模型的发展。“各家公司在开源生态的差异化部署不仅能加速 AI 的创新,大模型的低成本化也有助于大模型在垂直细分领域的可用性,给 AI 的应用带来更大的想象空间。”郭晨晖说。
在周杰看来,除了云端应用爆发外,在 DeepSeek 的推动下,端侧 AI 应用也会在 2025 年实现井喷式发展。
“未来的 AI 其实是一个混合式的人工智能,不是所有的东西都在云端跑,也不是所有东西都在端侧跑,因为各有各的优势。如端侧只能跑相对小规模参数的模型,但对于某些任务来说,对精度有更高要求,还是要用云端算力;而为了保证数据安全和隐私,就需要使用端侧能力实现以前更大参数规模的模型效果,这就形成一个混合式的部署方案。”周杰说,此芯科技也在跟云厂商进行这方面的应用探索。
“AI 应用元年”已经不是一个新概念,但截至目前,AI 行业从业者以及投资人,还在寻找更适合 AI 应用的落地场景。在周杰看来,这只是时间问题,“一个新生态的发展肯定需要一定时间,所有的东西不会突然完善,需要软件和硬件不断迭代。目前来看,芯片侧、模型侧等已经为 AI 的大规模应用打下了坚实的基础,后面需要更多的开发者来开发 AI 应用,满足实际的场景需求。”