继2023年美国的OpenAI向全球AI界,投了一颗深水炸弹——ChatGPT后,2025年,诞生于中国杭州的DeepSeek,再次掀起了巨浪。
简单来说,DeepSeek脱颖而出,是其以极低的成本实现了和GPT系列一样的效果——DeepSeek研究人员表示,开发该应用程式仅花费600万美元(480万英镑),远低于美国AI公司花费的数十亿美元。
而两个大模型的推出,都把国内的AI大厂们推到风口浪尖。第一次大厂们的一致回应是,我们也有,待会就发。而此刻,面对国产AI中小厂跑出的Deepseek,大厂做出了截然不同的反应:
腾讯早早给出了一个全面拥抱DeepSeek的姿态:从2月8日开始,据不完全统计,已经接入了腾讯云、微信、腾讯游戏等14个自家生态;字节与阿里态度一致,现已接入部分生态,但豆包AI助手和通义大模型不接入。
而相比之下,百度却略显“拧巴”:在2月12日百度智能云事业群(ACG)全员会上,现任百度智能云事业群总裁沈抖表示,DeepSeek在短期内会对百度产生影响,但长期来看是利大于弊的。
而两天之后,百度一改先前一直坚持的闭源路线,毫无预兆地对外宣布,公司将在未来几个月陆续推出文心大模型 4.5 系列,并于 6 月 30 日起正式开源。
又是2天过去,百度搜索宣布将全面接入DeepSeek和文心大模型最新的深度搜索功能。紧接着,百度文心智能体平台宣布已全面接入DeepSeek模型,全部免费。
一番操作的背后逻辑是——百度短期承认deepseek的能力,同时将其接入自己的智能体平台之中,甚至在这一节点推翻了一直以来坚持的闭源路线。长期来看,由于大模型考察的点还有很多,Deepseek反而会推动百度的发展。
而百度的“拧巴”背后,是对现阶段业绩,AI大模型商业化情况的深深焦虑。
01 沈抖与谭待之争,解开了百度的焦虑
自百度成为百模大战发起者以来,引发了不少行业内的激烈讨论。
据光子星球报道,在2月12日百度智能云事业群全员会上,沈抖表示:“国内大模型去年‘恶意’的价格战,导致行业整体的创收相较于国外差了多个数量级”,紧接着便把字节的豆包单独拎出来举了例子——其训练成本和投流成本都很高。
很快,火山引擎总裁谭待便在朋友圈用数据反击了“恶意”二字——豆包1.5Pro模型的预训练成本、推理成本均低于DeepSeek V3,更是远低于国内其他模型,在当前的价格下有非常不错的毛利。
简单来说,豆包的降价并非是恶意搞价格战,而是由于技术进步实现了低价。谭待表示,“国内外的厂商都在依靠技术创新,降低模型价格。我们也只是实现了Gemini 2.0 Flash的价格水平而已,这个价格完全是依赖技术进步做到。”
那么,百度为何单把豆包拎出来?
“投流成本”四字仿佛给了我们答案——豆包拥有抖音这个亿级DAU的“优先宣传权”,这就导致,其C端数据非常好看。据量子位数据,豆包APP在2024年11月平均每天有80万新用户下载豆包,DAU(日活跃用户数量)接近900万,增长率超过15%,在国内超第二名Kimi DAU的300万。
在B端都没有成熟的时候,C端高活跃量似乎成了大家对大模型表现的评判标准——既能展现其能力不错,还能体现其潜在能力的提高空间——用户还可以通过即时反馈答案质量,免费帮字节训练豆包,提高“智力”。
而当外界并非把商业化表现作为AI厂商能力的主要衡量因素时,沈抖的话里话外却展露了急于拿出商业化数据的心态——“恶意”的价格战,“行业整体的创收相较于国外差了多个数量级”。
急于商业化的原因,或许能从一组数据看出。
2月18日,百度发布2024年第四季度及全年财报,财报显示,2024年总收入为1331亿元,同比减少1%。百度核心收入为1047亿元,同比增长1%;在线营销收入为730亿元,同比减少3%,及非在线营销收入317亿元,同比增长12%,主要由智能云业务带动。
而在2023财报之中,2021-2023云服务与其他收入(包括阿波罗自动驾驶,小度智能硬件)是分开算的。而根据同花顺财经数据,百度云服务2021-2023收入增速分别是64%,18%,6%,而其他收入分别是91.26%,33%,18%。也就是说,2024主要由智能云业务带动的非在线营销收入,增速仍有可能主要由其他业务贡献。
作为基本盘的核心业务下滑,云服务收入增速放缓,是百度现如今焦虑的根源,基于此,有以上“拧巴”的表达。
02 李彦宏推翻自己,百度的技术落后了吗?
而上次如此激烈的讨论,还是关于闭源与开源路线的选择。
在今年以前,对于其选择的闭源路线,百度的态度十分坚定。去年4月,李彦宏曾提出“开源模型会越来越落后”。随后不久,360集团董事长周鸿祎在公开场合发出反对声音称,如果没有开源文化,就不会有Linux、PHP、MySQL等众多重要的技术成果,甚至互联网的发展也会受到极大的限制。
对此,李彦宏进一步给出了依据——如果开源模型想要在能力上追平闭源模型,就需要更大的参数规模,这将导致更高的推理成本和更慢的反应速度。同时,相比源代码公开传统的软件开源,大模型的开源更为复杂。
3个月过去,2024世界人工智能大会(WAIC 2024)期间,李彦宏更是直接“开炮”:开源模型是智商税。 而随后8月份,百川智能CEO王小川阐述了二者的关系。他预计,未来80%的企业会用到开源大模型,因为闭源没办法对产品做更好的适配,或者成本特别高。而闭源可以给剩下的20%提供服务。二者不是竞争关系,而是在不同产品中互补的关系。
总的来说就是,开源闭源皆是行业所需,并非零和博弈。实际上,路线之争的背后往往是商业路线的分歧。
开源大模型的核心理念是开放源代码,允许公众访问、使用、修改和分发模型的源代码。面对市场竞争,开源大模型的免费使用是非常有吸引力的获客手段;同时,低成本的试错也有助于开源大模型更快触达潜在用户群体,降低企业认知和决策难度,加速创新。
而闭源大模型服务能力更强,商业化走得更快。华泰证券指出,产业化方面,闭源大模型的长期服务能力更强、更可用。大模型与业务结合,需要产品、运营、测试工程师等多种角色共同参与,同时大模型的长期应用所需的算力、存储、网络等配套都要跟上,开源社区无法帮助用户“一站式”解决这些细节问题。
坚持闭源路线的百度,想通过更强的服务能力从而保持用户粘性,为其云业务以及其他相关业务带来增量,这是人之常情。而华泰证券指出,尽管闭源大模型整体能力更强,OpenAI的GPT-4、Anthropic的Claude-3、谷歌的Gemini Ultra都是闭源。
开源阵营的日渐壮大,确实给闭源模型带来了一定冲击。
今年1月31日,OpenAI首席执行官Sam Altman发表了以下言论:我个人认为,我们站在了历史错误的一边,需要制定不同的开源策略。紧接着半个月不到,OpenAI也开始考虑开源路线。
2月13日,Altman发布消息称,GPT-4.5、GPT-5即将陆续发布,免费版ChatGPT将在标准智能设置下无限制使用GPT-5进行对话。此外,他还特别指出,OpenAI的新路线是:跨越o3、免费访问、开源“模型规范”。
此刻,我们能够发现,百度从一开始便是想要通过闭源大模型快速商业化,巩固百模大战第一人的位置。而在B端商业化路径还不明晰的时候,开源大模型又涌现出了deepseek,再加上ChatGPT也在试图两条腿走路,百度如果想要保持现有身位,就算是打脸,也要去交开源的智商税。
于是,2月18日,在百度2024年第四季度及全年财报电话会上,李彦宏表示:开源的决策源自对技术领先地位的坚定信心,开源将进一步促进文心大模型的广泛应用,并在更多场景中扩大其影响力。
03 百度,最终会被“苹果们”放弃吗?
可以预见的是,开源与闭源共存是今后厂商们的选择。那么,在百度坚持闭源大模型的这几年里,B端开拓情况如何?
我们都知道的是,在文心一言还没发布之时,就有许多厂商抢着发布接入文心一言的合作讯息,就如这段时间的deepseek一样。而上述财报数据显示,文心一言所在的百度智能云板块收入的增速放缓,这也暗示着应用层的厂商们从AI热中冷静下来,去思考目前的AI是否真的为企业带来了价值。
而能让应用层厂商再次下单的,一定是能够带来实际效果的AI解决方案,无论是底座还是落地服务,都需要更智能的技术。
在全球科技大厂的对外宣传语境里,投入资源的数量,依然是衡量人工智能模型的智能程度的一个标准。
数据显示,亚马逊、谷歌、微软和 Meta在 2025 年的资本支出将超过 3200 亿美元,其中 Meta 今年的资本支出将达到 600 亿至 650 亿美元,较 2024 年的 392.3 亿美元大幅增加,一个重要的原因还是押注人工智能。
阿里同样把资本性支出当做宣传点——2024Q4,阿里巴巴在该季度资本开支大幅增长至317.75亿元,环比大增80%,阿里巴巴明确表示,这主要由于公司对云基础设施的投入增加。
腾讯2024Q3实现资本开支171亿元,同比增长114%。
阿里和腾讯,都在2024对算力资源和 AI 基础设施进行大规模的投入。反观百度,随着营业收入增速下滑,资本支出上也显得更为谨慎。可以看到,百度(除爱奇艺)资本性支出2023年,2024年分别是111亿元与81亿元。
而百度和阿里在资本支出上的差距,或许是苹果在国内找了两家AI公司进行国产iPhone AI功能落地的原因之一。
去年12月,苹果公司宣布与百度达成合作协议,双方将携手于2025年在中国推出一项名为Apple Intelligence的生成式人工智能服务。此次合作不仅限于在苹果设备上部署小型模型,双方还将在云端运行大型模型,以提升整体AI服务能力。Siri也将整合百度的人工智能模型,期望通过这一合作带来更加精准的搜索结果和用户体验。而就在2月14日,阿里官方已经确认目前正在与苹果合作,针对中国市场进行本地化AI接入。
尽管苹果选择阿里,还有一个原因是希望通过多个合作伙伴来降低风险,但百度资本性支出较低是不争的事实。
目前百度能做的,是实打实的加大AI投入,同时给出一份文心大模型的成功落地范例。百度也是如此规划的——财报会上,李彦宏表示基础模型只有在大规模解决现实问题时,才具备真实价值。
简单来说就是,百度将继续卷应用。而在财报会上,多次提到了“搜索”二字:
当前,约有22%的搜索结果页面包含了AI生成的内容
对我们而言,关键是保持快速而坚定的AI转型步伐,专注于发现用户真正需要和想要的下一代搜索体验。
百度将继续投资于推进百度AI能力,这是长期的战略优先事项。基于这一点,百度将进一步深化AI转型,特别是在搜索产品的领域。
如此看来,百度的杀手级应用,还是在搜索业务上,想既为自己的老本行提供新动力,也想把AI的战绩刷一刷。
值得一提的是,字节和阿里都没有在核心产品接入Deepseek,百度却在文心模型和搜索等核心平台和产品上都接入了Deepseek。
于是,短期来看,百度需要与deepseek进行进一步的合作。
一是为了更好地把搜索业务变得更加智能,让文心智能平台用户也能尝鲜享受服务。二也能借机销售一波云服务。沈抖表示,短期内DeepSeek的组织和商业化还需要时间去完善。在这个窗口期,整个市场被教育后,所产生的未被满足的需求,云厂商还有承接的机会。
简单来说就是,成为deepseek未来的合作商——目前deepseek依靠自建的数据中心,出现了服务器崩溃问题,云厂商能通过提供服务成为其后盾。但目前为止,DeepSeek在任何层面都没有跟云厂商芯片厂商开启合作,虽然春节期间云厂商纷纷宣布让DeepSeek模型跑在其云上,但他们并没有开展任何真正意义的合作。
而长期来看,正如谭待所进一步呼吁的,包括百度在内的AI厂商,应该像 DeepSeek 一样聚焦基本功,聚焦创新,不急不躁,少无端猜测,归因外部。
百度发布大模型以来,其发表的部分言论较为偏激,释放着焦虑的信号。而现如今,百度需要摒弃外部与内部的噪音,潜心做研发,如此,老本行搜索能焕发新机,大模型商业化之路也会越来越清晰。
主题测试文章,只做测试使用。发布者:火星财经,转转请注明出处:https://www.sengcheng.com/article/34140.html