大分化时代:一场关于中国AI未来的深度对话
日期:2026-01-11 12:03:53 / 人气:22
当“追赶者”开始思索如何转身“引领”,智谱AI主办的AGI-NEXT圆桌讨论,撕开了中国AI行业最不愿直面的真相——在技术红利逐渐见顶、赛道格局加速重构的节点,每一步选择都决定着未来的生存与站位。这场对话没有虚浮的客套,没有刻意的PR话术,唯有嘉宾们基于一线实践的真实判断,与对中国AI未来的冷静估算。
01 一个关键时间点
2026年,中国AI行业站在了一个微妙的十字路口。预训练赛道历经四年深耕,业内共识是已收割七八成红利,增长空间趋近饱和;强化学习虽成为新的行业共识,但其潜力也仅开发了四五成。而DeepSeek的横空出世,更让所有人猛然意识到:通用聊天赛道的战事,在某种意义上已然落幕。
“下一仗是什么?”智谱AI创始人唐杰在圆桌上抛出的这个问题,不仅是他个人的困惑,更是萦绕整个行业的集体焦虑。本次圆桌的嘉宾阵容,恰好覆盖了AI领域的多元视角:前OpenAI研究员、现任腾讯混元大模型负责人姚顺雨,兼具中美两地行业亲历经验;阿里通义千问负责人林俊旸,身处中国最大云计算平台的技术前沿;香港科技大学讲席教授杨强,作为AI领域元老级学者提供理论支撑;而唐杰自身的清华教授与智谱AI联合创始人双重身份,更搭建起学术与产业的沟通桥梁。
02 第一重分化:ToB与ToC,两条截然不同的路
姚顺雨抛出的一个观察,打破了行业对大模型能力提升的盲目乐观:“非常有意思的一点是,我们今天用ChatGPT和去年相比,感受差别不是太大。”这话乍听刺耳,毕竟过去一年,大模型在数学、编程、推理等硬核能力上的进步有目共睹,但姚顺雨的核心逻辑在于——这些提升,普通用户几乎感知不到。
“大部分人尤其是在中国,用大模型更像是用搜索引擎的加强版,很多时候甚至不知道该如何激发它的全部智能。”换句话说,模型能力与用户体验之间,出现了明显的脱节。当你问ChatGPT“今天该吃什么”,今年的回答与去年相比并无质的飞跃;模型虽能解出更复杂的伽罗瓦理论难题,但对绝大多数人而言,这类能力毫无实用场景。
ToB市场却呈现出完全相反的景象。姚顺雨分享了一个关键细节:在美国,许多专业人士宁愿每月支付200美元订阅最强模型,也不愿选择50美元的次强版本。背后的逻辑很直白:“一个顶尖模型可能在10个任务中完成八九成,次强模型只能完成五六成,而最棘手的是,你永远不知道它会在哪些任务上掉链子,这就需要额外投入大量精力监控,反而增加成本。”
这一观察揭示了ToB与ToC市场的核心差异:在企业场景中,智能的边际提升能直接转化为生产力与收入,用户愿意为“确定性”支付高溢价,因为省下的监控成本与犯错成本,远超过订阅费用的差价。而在消费市场,智能提升遭遇了“用户感知天花板”,再强的硬核能力,若无法落地为日常可感知的体验,便难以创造商业价值。
林俊旸的观察进一步印证了这种分化:“我和美国很多API厂商交流时发现,他们没想到编程场景的调用量会如此庞大,而在中国,编程相关的API调用量远没有这么高。”在美国,AI API调用量中编程场景占据绝对主导,这正是ToB价值的直接体现——代码质量可量化,智能提升能立竿见影地转化为研发效率。
Anthropic的战略选择也因此变得清晰。它没有像OpenAI那样全面出击消费市场,而是聚焦企业服务、编程与Agent领域。这并非能力所限,而是看透了ToB赛道的核心逻辑:智能就是可量化的金钱,在专业场景中,顶尖模型的溢价能力无可替代。
03 第二重分化:垂直整合还是分层解耦?
讨论中出现了一个反常识的观点,挑战了传统商业逻辑。过去,行业普遍认为AI公司应追求垂直整合,从模型研发到应用落地一把抓,形成闭环生态,苹果的成功似乎正是这一逻辑的最佳佐证。但姚顺雨观察到了相反的趋势:“以ChatGPT Agent为例,过去大家认为垂直整合能力强的公司必然做得更好,但如今来看,事实并非如此。”
垂直整合在ToC场景中仍具优势,ChatGPT与豆包均是模型与产品紧密耦合、快速迭代的典型。但在ToB场景中,趋势正在反转——最优质的企业应用,往往来自专业应用公司对顶尖模型的二次开发,而非模型公司亲自下场做应用。
核心原因在于,预训练与产品落地所需的能力本质上截然不同。前者需要海量算力、顶尖科研人才与长周期投入,追求的是技术极限;后者需要深入理解行业客户需求、快速响应场景变化、精细打磨用户体验,考验的是场景洞察力与运营能力。很难有一家公司能在两个维度同时做到极致。
这一趋势对创业者而言,机遇与风险并存。林俊旸直言:“如果你是‘套壳高手’,能把应用做得比模型公司更出色,那还有机会;但如果没有这个信心,这类机会最终会留给模型公司——他们遇到问题时,只需迭代模型、增加算力投入,就能快速解决,这是应用公司不具备的优势。”
04 自主学习:已经发生的革命
关于“自主学习”的争论,是整场对话最具启发性的部分。这个词在硅谷早已成为热门话题,“大街小巷的咖啡馆里,所有人都在讨论”,但姚顺雨指出,每个人对其定义都不同,这本身就说明行业对其认知仍处于模糊阶段。
他提出了一个颠覆性观点:自主学习其实已经发生,只是我们未曾察觉。“ChatGPT利用用户数据不断适配人类聊天风格,让对话体验更自然,这算不算自主学习?Claude已经完成了自身项目95%的代码编写,通过自我迭代提升能力,这又算不算自主学习?”
我们总是期待自主学习以戏剧性的方式降临——比如AI突然具备自主科研能力,或是能稳定盈利的AI交易系统问世,但现实或许是渐进式的。Cursor每隔数小时就用最新用户数据更新模型,持续优化编程体验,这便是一种自主学习,只是其效果尚未达到“石破天惊”的程度,核心原因在于基座模型能力仍有局限。姚顺雨的判断很明确:“自主学习更像是一个渐变过程,而非突然的爆发。”
林俊旸从另一个角度补充了这一观点,他认为自主学习的核心方向是“更懂你”:“过去做推荐系统时,持续输入用户数据就能让系统迭代升级,算法逻辑相对简单。在AI时代,能否通过持续的信息输入,让模型真正理解用户需求,成为贴身工具,是自主学习的关键。”但他也坦承,最大的挑战并非技术,而是评估标准:“推荐系统的好坏可以用点击量、成交量衡量,但AI覆盖人类生活方方面面后,真正的衡量指标是什么,我们至今仍不明确。”
05 环境问题:被忽视的下一个战场
“环境”一词在讨论中反复出现,成为嘉宾们共识的下一个核心战场。姚顺雨提出了一个惊人的判断:“即便现在所有模型训练全部停止,仅将现有模型充分部署到各类场景中,就能创造当前10倍甚至100倍的收益,对GDP产生5%-10%的影响,但目前AI对GDP的实际贡献还不到1%。”这意味着,行业的瓶颈早已不是模型能力,而是部署与应用落地。
林俊旸将这一观点进一步延伸,他认为当前Agent尚未爆发的核心原因,是其活动范围被局限在数字世界:“写文件、处理数据这类数字场景,今年很快就能实现全面覆盖。但真正有价值的场景,是AI能指挥机器人开展物理实验,加速科研进程。”
他以AlphaFold为例:“AlphaFold在蛋白质结构预测上取得了突破,但距离实际制药还有很长距离。即便有AI辅助,仍需要大量物理实验获取反馈,这正是当前AI的能力盲区。”当AI的活动范围从数字世界扩展到物理世界,与具身智能深度融合,Agent的价值才能真正释放。这一愿景或许需要3-5年时间,但已是行业明确的发展方向。
06 一个冷静的概率估算
对话的最后,一个尖锐的问题被抛出:3-5年后,全球最领先的AI公司来自中国团队的概率有多大?林俊旸给出的答案是20%,这个数字背后,是对中美AI差距的清醒认知。
“美国的算力规模整体比我们大1-2个数量级,更关键的是,OpenAI等公司将大量算力投入到下一代技术研发中,而我们的算力大多用于满足当下的客户交付需求,探索性投入相对捉襟见肘。”这是一个残酷的现实:当美国公司在布局未来时,中国公司仍在为当下的生存奔波。
姚顺雨的看法相对乐观,但也指出了三大关键制约因素:一是光刻机技术突破,解决算力瓶颈;二是培育更成熟的ToB市场,拓展国际竞争空间;三是文化层面的突破。“中国愿意做新范式探索、敢于冒险的人还不够多。”他观察到,中国的研究文化更偏好确定性的事情,一旦某件事被证明可行,大家会迅速跟进并做到极致,但面对未知的探索性领域,愿意尝试的人寥寥无几。
他还提到了一个细节:中国行业对刷榜和数字的过度重视,可能成为一把双刃剑。“Claude在编程或软件工程榜单上并非顶尖,但所有人都认可它是最好用的产品。这提醒我们,要跳出榜单的束缚,聚焦真正有价值的核心能力。”此外,中美对AI的认知差异也源于时间沉淀,“OpenAI 2022年就开始布局相关领域,国内直到2023年才跟进,这种时间差带来的认知差距,需要长期弥补。”
07 杨强教授的理论视角
杨强教授从学术角度,为行业发展提供了独特的思考框架。他认为,工业界与学术界正经历一次重要分化:过去几年,工业界领跑AI发展,学术界更多处于观望状态;但当大模型进入稳态阶段,学术界应主动补位,解决工业界尚未触及的根本问题。
他提出了两个核心问题:“智能的上限在哪里?给定一定的计算资源与能源,模型能达到的最优效果是什么?训练与推理的资源该如何分配,才能实现效率最大化?”为了阐释这一逻辑,他引用了《我们为什么睡觉》中的观点:“人类睡觉是为了清理大脑中的‘噪音’,避免误差累积,让第二天的判断准确率持续提升。”
这一类比为大模型研发提供了新的思路:当多个Agent串联工作时,每个Agent都存在误差,经过多轮传递后,整体能力会指数级下降。大模型是否需要类似“睡眠”的机制来清理误差?这或许是未来值得探索的重要方向。此外,杨强教授还提到了哥德尔不完备定理对大模型的启示:“一个系统无法自证清白,大模型的幻觉问题永远无法完全消灭。”
这意味着,追求“零幻觉”是一个伪命题。行业真正该思考的,是如何在资源投入与幻觉降低之间找到平衡点,“这更像是经济学问题,本质是风险与收益的权衡。”
08 唐杰的选择与坚持
唐杰分享了智谱AI的战略抉择过程,为行业提供了实操层面的参考。2023年,智谱是国内首个上线Chat产品的团队,当时的想法很直接:快速推向市场,抢占用户心智。但当十几家大模型团队同时上线同类产品后,问题逐渐显现——用户被严重分散,每家的用户量都不足以支撑模型的持续迭代。
经过一年的沉淀与争论,DeepSeek的崛起让唐杰彻底认清现实:通用聊天赛道已经结束,“我们必须想清楚,下一仗要打什么。”经过团队多晚的激烈讨论,智谱最终确定战略方向——全力投入Coding与Agent领域。“这既有运气成分,更源于我们将所有精力聚焦在Coding上的坚持。”
从结果来看,这一选择无疑是正确的:目前智谱的Coding能力在行业榜单中位居前列,API调用量也表现亮眼。但唐杰始终保持清醒:“AI行业拼的是速度与时机,若能拉开半年的时间窗口,快速满足应用需求,才能在后续的迭代中占据主动。”
他对中国AI未来的判断是谨慎乐观的。承认中美在企业AI Lab层面存在差距的同时,也看到了新生代的潜力:“90后、00后创办的企业,在创新意识上远超上一代。”他甚至开玩笑说:“我们这一代最不幸,上一代还在工作,下一代已经崛起,我们反而被无缝跳过了。”
玩笑背后,是他对中国AI突破的三点思考:第一,需要一群敢于冒险、勇于探索新范式的聪明人,而90后、00后正具备这种特质;第二,需要更友好的政策环境,让创新者能专注于技术研发,而非忙于客户交付;第三,需要长期坚持的定力。“环境永远不会完美,我们有幸经历从差环境到好环境的转变,这种经历本身就是财富。只要傻傻坚持,或许走到最后的就是我们。”
09 几个值得深思的观点
整场对话中,多个观点突破了传统认知,值得行业深入思考。
关于AI替代人类的重新定义:姚顺雨提出,“更多时候不是AI替代人类工作,而是会使用AI工具的人,替代那些不会使用工具的人。”这一观点重构了AI与人类的关系——真正的分水岭不是“人类vs AI”,而是“掌握AI工具者vs未掌握者”,就像当年编程者与计算尺使用者的差距,这种能力鸿沟将重塑职场格局。由此,他强调:“当前中国能做的最有意义的事,就是加强教育,教会大家如何高效使用Claude、ChatGPT等工具。”
关于Agent的四个发展阶段:杨强教授提出了清晰的框架,“以目标定义与规划能力为维度,可将Agent分为四个阶段——目标与人规划均由人定义、目标由人定义但规划由AI完成、目标由AI定义但规划由人完成、目标与规划均由AI自主完成。”目前,行业仍处于最初级阶段,未来的核心方向是实现AI自主定义目标与规划,打造“内生原生系统”。
关于长尾问题的价值:林俊旸认为,“通用Agent的最大魅力在于长尾场景。当一个用户寻遍各处都无法解决问题,AI却能提供答案时,其价值才能真正凸显。”推荐系统时代的马太效应,让头部需求被过度满足,而AGI的核心价值,恰恰在于解决那些人类专家也难以应对的独特困境。
关于“上下文”的价值:姚顺雨举了一个生动的例子,“同样问‘今天该吃什么’,ChatGPT的回答质量取决于上下文——天气冷暖、所在位置、家人饮食偏好等信息,都会影响回答效果。要提升这类问题的体验,不需要更大的模型或更强的训练,而是更丰富的上下文输入。”这意味着,下一阶段的AI竞争,或许不再是模型规模的比拼,而是上下文信息获取与利用能力的较量。
10 写在最后
这场圆桌讨论最动人的特质,是嘉宾们的坦诚。20%的概率估算,没有豪言壮语的煽动,却比任何正能量宣言都更具价值——唯有认清差距,才能找准突破方向。林俊旸的一句话,道出了中国AI从业者的心声:“干这一行就不能恐惧,能投身大模型领域,本身就是一种幸运。”
这种清醒而坚定的心态,或许正是中国AI行业最需要的。不盲目乐观,不妄自菲薄,在认清差距后专注于能做的事,在不确定性中坚守长期价值。唐杰的结语,或许是对中国AI未来最好的注解:“如果我们笨笨的坚持,也许走到最后的就是我们。”在这个快速迭代、充满变数的行业里,“笨笨的坚持”,或许就是最聪明的选择。
本文基于圆桌对话实录整理,嘉宾观点不代表本文立场。
作者:盛煌娱乐
新闻资讯 News
- 春晚彩排神仙打架!胡兵王阳帅到...01-21
- 梁洛施首谈离开李泽楷真相:因他...01-21
- A24新片《红死魔的面具》官宣主...01-21
- 央视开年大剧《太平年》后天开播...01-21


