【全网无错版】上周末,唐杰、杨强、林俊旸、姚顺雨真正说了什么?
作者:系统管理员 发布日期:2026-01-13 浏览次数:

2026 年开年的中国 AI 圈,简直不能再热闹了。但也不能「报道得」再热闹了,仅代表个人观点)

“热闹”的点在于,大模型“开源四杰”中的三家核心人物——唐杰教授杨植麟林俊旸,以及刚刚回国不久任职腾讯的 98 年姚顺雨,罕见在北京同台。中国AI奠基人、91 岁的张钹院士和联邦学习开创者杨强教授也一并出席分享。可以说,这场学术盛宴足以引领 2026 年的大模型行业发展。

不过,一个小小的遗憾是学术君看到了铺天盖地的「未经校正」的现场速记尤其是,在唐杰、杨强、林俊旸、姚顺雨参与的圆桌对话中出现了太多无法理解的拼写错误。

优秀的科学家和他们的前沿思想,值得被更精准地记录与传播。

本着对学术严谨性的追求,我们重新校对与精修如果你在这篇文章中发现了其他错误,麻烦通过私信或留言的方式告知我们,我们会第一时间进行修正。

Image

从左至右依次为:姚顺雨(线上)、李广密、唐杰、杨强、林俊旸

李广密(主持人)我是接下来 Panel 的主持人广密。刚才我在台下听,有几个感受。

第一,就是唐老师的号召力很强,清华的人才非常好,不仅是国内,包括海外,清华人的比例非常高。

第二,就是我刚才听几个 Talk 的感受,叫“不止 Follow,不止开源”,而且都在探索自己的下个范式,而且不止是 Coding,都在探索自己的产品形态。

这个时间点也特别有意思,2025 年其实是中国开源模型“大放异彩”的一年,“开源四杰”在全球取得了非常大的成绩,而且是 Coding 过去一年有 10 到 20 倍增长的一年。包括海外也在提 Scaling 到底走到哪一步了,有没有新的范式出来了。所以今天这个活动,接下来这个 Panel 讨论“接下来怎么走”,是特别有意思的。

话题1:中国大模型将如何分化?

李广密(主持人)我们先从第一个比较有意思的话题聊起来,硅谷其实几家也都在明显的做分化,我觉得从“分化”这个主题可以先聊起来。

Anthropic 其实是对中国模型公司有一个非常大的启发的,硅谷的竞争那么激烈,它没有完全 Follow 全都做,而是专注到了企业,专注到了 Coding,专注到了 Agentic。所以我一直在想,接下来中国的模型会分化成自己想要的哪些方向?我觉得分化这个主题是一个蛮有意思的。我看顺雨也上线了,要不顺雨可以开场给大家讲一讲,包括你最近在忙什么?

姚顺大家好。我现在是不是一个巨大的脸在会场?(会场大笑)不好意思,今天没法亲自来北京,但是很高兴参加这个活动。最近就忙着做模型、做产品,我觉得就是做 AI,一个很正常的状态。回国感觉还是挺好的,吃的好很多。

李广密(主持人)顺雨,你能展开聊聊你对“模型分化”这个主题的想法吗?硅谷也都在分化,比如说 Anthropic 做了 Coding,中国很多模型做了开源,过去 Coding 提得也很快,包括 Google Gemini 也没有全都做,它先把全模态这个点做得很好。那你的老东家在重点做 To C,因为你是横跨中美的,可以给大家讲讲你的体感。就是接下来不管说自己也好、各家也好,分化这个点你是怎么思考的?

姚顺雨我觉得有两个大的感受。一个感受是 To C 和 To B 明显发生了分化。另一个感受是,“垂直整合”这条路,以及“模型和应用分层”这条路,也开始出现了分化。

我先说第一点。很明显,当大家想到 AI 的 Super App,现在大家想到的就是两个:一个是 ChatGPT,另一个是 Claude Code。大家可以认为它们分别是做 To C 和 To B 的典范。但是我觉得很有意思一点是说,我们今天用 ChatGPT 的时候,其实和去年用,对于大部分人、大部分时候来说,感受到的变化,已经没有那么强烈了。但是相反,以 Claude Code 来说,Coding 的革命可能一年前还没有开始,但是这一年,夸张一点说,已经在重塑整个计算机行业做事的方式。人已经不再写代码,而是去用英语和电脑去交流。

很核心的一点是,对于 To C 来说,大部分人大部分时候其实不需要用到这么强的智能。可能今天用 ChatGPT 和去年相比,写抽象代数或者去解伽罗瓦理论的能力变强了,但是大部分人感受不到。大部分人其实可能还是在,尤其在中国,更多像是一个搜索引擎的加强版,很多时候你也不知道该怎么样去用,去把它的智能给激发出来。

但是对于 To B 来说,很明显的一点是,智能越高很多时候就代表生产力越高,就代表你可以赚的钱越多,这一切东西都相关联。那对于 To B 来说,还有一个很明显的点:大部分时候其实很多人愿意用最强的模型。可能一个模型它是 200 美元一个月,第二强或者差一些的模型是 50 美元一个月或者 20 美元一个月。我们今天发现很多,起码美国的人,是会愿意花那个溢价去用最好的模型。因为可能他的年薪是 20 万美元,他每天要做 10 个任务,那一个像 Opus 4.5 这样一个非常强的模型,它可能会 10 个任务八九个直接做对了,那差的模型它可能做对五六个。问题是你不知道这五六个是哪五六个的情况下,就要花很多额外精力去监控这个事情。所以在 To B 这个市场上,强的模型和稍微差点的模型,分化会变得越来越明显,这是第一点观察。

第二点观察,是垂直整合和模型应用分层的区别。一个比较好的例子可能是 ChatGPT Agent,相对应比如用 Claude 或者 Gemini 加上 Manus 这样的应用层产品。过去大家会认为当你有垂直整合的能力,你就肯定会做得更好,但起码今天来看,并不一定。首先,模型层和应用层需要的能力还是挺不一样的。尤其是对于 To B 或者说生产力场景,可能更大的预训练(Pre-training)还是一个非常关键的事情,这个事情对于产品公司确实很难做。但是想要把一个特别好的模型用好,或者说让这样的模型有它的溢出能力,其实也需要在应用侧或者说在环境这一侧做很多相应的事情。所以我们会发现,在 To C 的应用上,垂直整合还是成立的。无论是 ChatGPT 还是豆包,模型和产品是非常强耦合去紧密迭代。但对于 To B 来说,趋势似乎是相反的。模型在变得越来越强,但也同样会有更多应用层的东西想要去利用这样的好模型,在不同的生产力环节发挥作用。这是我的两个观察。

李广密(主持人)我再 Follow 顺雨一个问题。因为你有一个新的身份嘛(腾讯),在中国这个市场上,你接下来的想的 Bet(下注)或者什么,有哪些鲜明的特点或者关键词吗?能给大家 Share 吗?

姚顺雨:对,我觉得腾讯肯定还是一个 To C 基因更强的公司。所以我们会思考,怎么样让今天的大模型或者说 AI 的发展能够给用户提供更多价值。但有一个很核心的思考:我们发现很多时候我们的 Bottleneck(瓶颈)可能在 To C 这一端不是更大的模型,或者更强的强化学习,或者更强的 Reward Model,很多时候可能是额外的 Context(上下文)和 Environment(环境)

我最近经常举的一个例子:比如说我想问“我今天该去吃什么”。其实你今天问 ChatGPT 和你去年问、或者明天问,这个事情可能体验都会很差。因为想要变好,不是说你需要更大的模型、更强的预训练,这个问题的 Bottleneck 可能是你需要更多额外的输入,或者说 Context。比如说如果它知道“啊今天我其实特别冷,我需要吃点暖和的”,然后“我今天在这个范围活动”,可能“我老婆在另一个地方,她想吃什么”等等。其实回答这样的问题,更多的 Bottleneck 是额外的 Context。比如说我和老婆聊了很多天,其实我们可以把聊天记录从微信转发给元宝,或者说把这些额外的输入用好的话,反而会给用户带来很多额外的价值。这是我们对 To C 上的思考。

然后做 To B 在中国确实是一个非常难的事情。生产力的革命,包括我们今天很多中国的公司做 Coding Agent 其实也是要去打海外市场。这方面我们会思考怎么去把自己先服务好。像创业公司做 Coding 和大公司做 Coding 的一个区别是,大公司本身就已经有很多应用场景、各种各样需要生产力变得更好的地方。如果我们模型能够在这些地方做得更好,不仅模型会有自己独特的优势,更关键一点是,对于真实世界的更 Diverse(多样化)的场景数据的捕捉,会是一个很有意思的事情。比如像 Anthropic 作为一个创业公司,想要做更多的 Coding Agent 数据,需要通过数据厂商去标数据。这些数据厂商需要利用软件工程师去想“我要标什么样的数据”。那这个事情最后的 Bottleneck 是数据公司一共就这么几家,人就这么多,Diversity 会受限。但是如果你是一个 10 万人的公司,可能会有一些有意思的尝试,怎么去真的把真实世界的数据给利用好,而不是仅仅依赖于标注商或者说 Distillation(蒸馏)。

李广密(主持人)多谢顺雨。接下来 Cue 一下俊旸。你怎么看接下来千问未来的一个生态位或者分化的 Bet?因为你后面重点讲了全模态的方向。之前阿里云在 To B 很强,那接下来可能你也提了全模态可能更多 To C 的。这方面怎么思考?

林俊旸理论上我是不能评论公司的。但是我觉得公司也不一定有那么多基因之分,一代一代的人可能就塑造了这些公司。

接下来这一句其实我也想注入一些我们自己对 AGI 的理解。因为我觉得今天 To B 和 To C 也好,我们其实是在服务真实的人类。所以我们想的问题,是怎么让人类世界会变得更好。你就算做 To C 的产品,其实也会再分化。比如说今天 OpenAI 已经更像一个平台了,但是你 To C 的话,最终要服务真实的这批用户究竟是谁?

今天可能有很多 AI 可能会更偏向 Medical,更偏向 Law,但是它可能是自然形成。我愿意相信 Anthropic 可能不是说“今天我觉得 Coding 真的很厉害,我就 Bet on 它”。因为我知道他们跟 Business 交流真的非常多。这个可能也是我们自己做的还不够好的一个点,虽然我们拥有巨大的优势。当然也有可能中国这个 SaaS 市场跟美国确实不太一样,他们确实是非常频繁地跟客户交流,很容易去发现这个很大的机会。

今天我跟美国的很多 API 厂商聊起来,他们都没有想到 Coding 的 Token 消耗量居然会这么大。其实在中国其实还真的没有那么大,至少从我这边来看。但是在美国的话,基本上全都是 Coding。这个事情我觉得不是所有人都能 Bet 到的。那今天 Anthropic 在做更多跟 Finance 相关的东西,我觉得也是他们在跟客户交流中看到的机会。所以我觉得大家的分化可能是自然的分化。所以我更愿意去相信 AGI 做 AGI 该做这个事情,然后顺其自然。

李广密(主持人)多谢俊旸。杨强老师,您对分化这个问题怎么看?

杨强分化的问题,其实我更想聊一下工业界和学术界的分化。这个可能是横跨美国和中国。一直以来,学术界是一个观望者,工业界在领头疯跑。搞得现在很多学术界的人也在做工业界的事,像唐杰老师。这是一个好事,就好像天体物理学刚开始是以观测为主,伽利略的望远镜,然后才出现牛顿。所以后面一个阶段,当我们有了众多的稳定大模型,进入一个稳态的时候,我们学术界应该跟上来。跟上来解决什么问题呢?就是工业界可能还没来得及解决的一些问题。这也是我一直在考虑的问题,就是说智能上界在哪里?比方说给你一定的资源,计算资源或者能源资源,你能做到多好?

可以更细一点。比方说我们把这个资源怎么分配?哪些分配在训练上,哪些分配在推理上?我很早就做 AI,90 年代初就做过一个小实验:如果我们有一定的投入在记忆上面,那么这个记忆能够帮助推理多少?然后这个帮助,会不会变成反向的,比如记住了太多的噪音,反而干扰了推理?有没有一个平衡点?这些问题今天还是适用的,是一个 Fundamental(基础)的问题。

最近我也在想另外一个问题,大家学计算机的都上过理论课,有一个重要定理叫哥德尔不完备定理。大概意思是说一个系统、像我们一个大模型,它是不能自证清白的,必定有一些幻觉是不可能消灭掉的。那可能你给更多的资源,它会消灭得更多。科学问题就来了:多少资源能够换取多少幻觉的降低?这是一个平衡点,特别像经济学的风险和收益的平衡。所以我们也叫“无免费午餐定理”。这些东西今天特别适合数学界、算法界和工业界一起来做研究,这孕育着巨大的突破。

刚才唐杰老师也提到持续学习。我觉得持续学习是一个特别好的问题。它里面有一个时间的概念。在持续学习过程中,你会发现,比方说把不同的 Agent 串联起来,每一个 Agent 都不能做到 100%,那么在 N 个以后,能力是按指数下降的。

怎么样保证它不下降?我觉得人类是个样本,比如说第一天是学习,第二天会在第一天的噪音的基础上学习,这样你的能力就会类似大模型,会下降。但是人类有一个方法来解决下降,就是睡觉

我建议大家看一本书叫《我们为什么睡觉》(*Why We Sleep*)。他说每天晚上睡觉其实是在清理噪音,使得第二天可以把准确率持续提升,不至于是错误率的叠加。这些理论研究孕育着一种新的计算模式。我们今天可能比较关注 Transformer、Agentic Computing,但是我觉得有必要去做一些新的探索。这是我回答的问题,工业界和学术界要拉齐。

李广密(主持人)感谢杨强老师。唐老师,从外部感受上,智谱今天更像是走了 Anthropic 这条路线,Coding 非常强,榜单上也比较靠前,包括您刚才讲的 Long Horizon 的长程 Agent。您对分化这个主题怎么看?

唐杰我倒觉得回到一个最本质的问题。早期确实最本质还是基座模型、智能上界。2023 年那时候我们是第一个做出 Chat 的。当时第一个想法就是赶紧上线。当然后来国家有相关的统一规定,就等到八九月份大家一起来上。当大家一起来上的时候,我的第一个感受是十来个大模型都上来了,而且每一家用户都没有那么多。当然今天分化的更严重。

经过一年的思考,我觉得其实这个可能不是真的解决问题。我原来的第一个预判说它会替代搜索。到今天很多人在用模型替代搜索,但是并没有替代谷歌。谷歌反而自己把自己的搜索革命了。从这个角度上,这一仗自从DeepSeek出来之后,我感觉已经结束了。

那 DeepSeek 出来之后,应该思考的是下一个Bet是什么?下一仗是什么?我觉得下一仗肯定是要让 AI 做一件事情。但做这件事情是什么,确实可以 Bet 一下。那时候广密还到我们那交流。后来我们团队争论好多晚上,最后你可以叫我们运气吧,但另一方面我们也是 Bet,Bet 了 Coding。后来,我们就把所有的精力放在了 Coding 上。

话题2:AGI的下一个范式

李广密(主持人)我觉得 Bet 是一个特别有意思的事。过去一年中国不仅是开源很强,而且大家有了自己的 Bet。接下来有一个第二个比较有意思的问题。预训练走了三年,大家说走到了七八成的收益。RL 强化学习今天也都成为共识,可能走到了百分之四五十的空间。今天硅谷也都在讨论接下来新一个范式,唐老师刚才也提到叫自主学习、自我学习。要不我们先从顺雨开始。

你在 OpenAI 待过,对于下一个范式怎么思考? OpenAI 是一个为人类推进来前两个范式的一家公司,对于第三个范式,从你的角度能给大家带来一些分享吗?

姚顺雨现在自主学习在硅谷非常热门,在硅谷的大街小巷、咖啡馆里,大家都在谈论,几乎形成共识。但根据我的观察,每个人对这个的看法可能都不一样。我讲两点:

第一,我觉得这个事情的 Bottleneck 其实不是方法论,而是数据或者说任务。当我们在谈论自主学习的时候,到底是在什么场景下、基于什么奖励函数去做?比如说,你在聊天时,AI 变得个性化是一种自主学习;写代码时,熟悉公司环境是一种自主学习;探索新的科学,在这个过程中,像博士一样从完全不了解到成为领域专家,也是一种自主学习。每一种自主学习,它的挑战或者说方法论,可能都不一样。

第二,我不知道这是不是非共识,但这个事情其实已经在发生了。ChatGPT 利用用户数据拟合聊天风格,使它的感觉越来越好,是不是一种自我学习?今天 Claude Code 已经写了 Claude Code 这个项目 95% 的代码,在帮它自己变得更好,这是不是一种自我学习?

我记得当时我们 2022-23 年做 SWE-agent(Software Agent)时,我去 AGI House 宣传,第一页 Introduction 的 Slide 就说 ASI 最重要的点是自主学习。今天的 AI 系统本质上都有两部分:一个是 Neural Network(神经网络/模型);一个是代码库:你怎么去用这个模型,是用来做推理,还是用来做 Agent。我们看 Claude Code 这个系统,它本质上有两个部分:一部分是 Opus 这个 Neural Network,另一部分是怎么样去使用这个 Network 的一大堆相应的代码。无论是 Kernel GPU,还是部署环境、前端。如果我们做 Software Agent,如果有一天它能自己去 Improve 自己的 Repo,那是不是就是一种 AGI?我觉得今天 Claude Code 已经在大规模做这个事情了,只是人们意识不到,或者局限在特定场景下。我觉得这个事情已经在发生了,可能更像是一个渐变,而不像一个突变。

李广密(主持人)Follow 一个问题。有一些人对自主学习比较乐观,觉得 26 年能看到信号。你觉得还需要哪些实际的突破?比如 Long Context,或者模型并行采样?从你看来,你感觉,接下来还有哪些关键条件具备了,这个信号才会发生?

姚顺雨很多人说 26 年才能看到这些信号,但我觉得 25 年其实已经有一些信号了。比如 Cursor,他们的 Auto-complete Model 每几个小时就会用最新的用户数据去学习。包括新的 Composer Model,其实也是在使用这些真实环境下的数据去 Training。当然,大家觉得这些东西可能还没有特别石破天惊,这是受限于他们没有预训练能力,效果不如 Opus,但我觉得这显然已经是一个信号了。

我觉得最大的 Bottleneck 是想象力。对于强化学习或者推理,我们可以很容易想象,如果实现是个什么样子,比如说 O1 在数学题上从 10 分变 80 分。但如果 26、27 年有一个范式发生,宣布实现了自我学习,我们应该用什么任务去验证?是它变成了一个赚钱的交易系统,像 Trading Bench 的延伸?还是解决了科学问题?我们需要先想象到那个时候,Blog Post(宣发的文章)长什么样。

李广密(主持人)顺雨,OpenAI 已经 Lead 了两次范式创新了。如果 26、27 年有新范式,全球范围内,你觉得哪家公司 Lead 这个创新范式的概率最大?

姚顺雨可能 OpenAI 概率还是更大。虽然因为它商业化等变化,创新基因被削弱,但我觉得它还是最有可能诞生新范式的地方。

李广密(主持人)俊旸,你对下一个范式,对 2026 年有什么展开?

林俊旸如果从更实际一点讲,刚才讲的范式还在早期。RL 的 Compute 还没有 Scale 得那么充分,所以很多的潜力其实没打出来,今天我们还看到了很多 Infra 问题在这里面发生。全球范围内,类似这里面的问题也都还存在。

如果要说下一代范式,一个自主学习。之前聊到“人类不能让 AI 变得更厉害”:你跟 AI 不断进行交互,只会让它上下文变长、变得越来越笨。Task-time Scaling 这件事情是不是真的能够发生,我觉得还是真的挺值得思考的。能通过更多的 Token,让自己变得更强,我觉得至少 O 系列,在一定程度上实现了这个事情。有没有可能像 Anthropic 说的“干 30 个小时”,真的能干出很难的任务,我觉得今天大家做那种 AI Scientist 这个事情,其实还挺有意义的,是在挑战一些很难的,甚至是做人类未曾做到的这些事情,有没有可能通过 Task-time Scaling 来实现。那么从这个角度上来说,AI 肯定是需要自主进化的 ,但究竟你是不是要更新参数,这个见仁见智,可能大家都有不同的技术手段来实现这个事情。

我觉得还有第二个点是,AI 有没有可能实现更强的主动性。就是说,环境可能就是我的输入信号。比如说我现在这个 AI,必须得有人类去 Prompt 它,然后你才能够启动它。那有没有可能环境就能 Prompt 它?它自己能自主思考,去做一些事情。

但这引发了一个新的问题,就是安全的问题。我非常担心安全这个问题,其实不是很担心今天它讲一些不该说的话,最担心的事情是它做一些不该做的事。就比如说,它今天主动产生一些想法,往这个会场里面扔一颗炸弹这种事情。那我们肯定是不希望这些不安全的事情发生。但就像培养小孩一样,我们可能要给它注入一些正确的方向。但主动学习可能也是挺重要的一个范式。

李广密(主持人)是的。俊旸又提了一个“主动性”,主动性其实也可能是 26 年非常关键的一个 Bet。

我再 Follow 俊旸一个问题:如果自主学习在 26 年看到信号,你感觉可能是在哪些任务上、做什么样的任务会先看到?是“模型训练模型”了,最强的模型可以提升自己了?还是说自动化的 AI 研究员了?你有期待在哪些地方先看到吗?

林俊旸我觉得自动化的 AI 研究员可能甚至都不是那么需要自主学习,我觉得可能很快“AI 训 AI”这件事情就可以实现。我看我们的同学每天在干的这个事情,我都觉得 Claude Code 很快是可以把他们替代掉的。

但是,我觉得可能是更持续地理解用户这件事情,比如说 Personalization**(个性化)其实还挺重要的。比如说过往我们在做推荐系统的时候,其实用户的信息是持续输入的,这会让整个系统变得更强。虽然它的算法其实很简单,但今天在 AI 的这个时代,它是不是能够更懂你?就是你的这些信息的输入,能不能成为最好……我们过去讲 Copilot,但其实今天连 Copilot 都没有实现,就是能不能真正成为我的 Copilot 的问题。

所以我觉得如果说自主学习的话,可能会是在跟人的交互上。比如说 Personalization 这一件事情上可能就能做到,但是以什么指标来进行衡量,我觉得稍微有点不太好说。因为在推荐的时代,Personalization 你做得越好,别人可能就点得越多、买得越多。但是在 AI 时代,覆盖到人类生活的方方面面的时候,真正的 Personalization 的衡量指标是什么,我们其实不太知道。所以今天我感觉可能更大的技术挑战是:我们今天的 Evaluation(评估)不知道该怎么做。这个可能是我们更值得研究的问题。

李广密(主持人)俊旸,因为你说到了主动,包括个性化,你感觉如果实现“记忆”这个点,26 年能看到技术的大突破性的跨越吗?

林俊我个人观点是,大量技术的所谓“突破性”其实都是一些观测问题,它其实都是线性发展的,只是人类对它的感受非常强烈而已。包括像 ChatGPT 的出现,对于我们做大模型人来说,其实就是线性的增长。

现在大家都在做 Memory 这个事情。你说技术方案对还是不对呢?我觉得很多方案也没有什么对错之分。但是做出来的效果,至少我拿我们自己献个丑:我们自己的 Memory 看起来好像知道我过去干了什么,但只是记起来过去的事情,每次都会叫一遍我的名字,其实并不显得你很聪明。

但你的 Memory 有没有可能到某一个临界点的时候,让人觉得说,你结合你的 Memory 真的能够像生活当中的人一样,就过去大家讲电影《Her》,它真的很像人,理解你的 Memory 可能就是在那一下,人类的感受就觉得突然间迸发。那可能就是那个时刻。

我觉得多多少少也需要一年的时间。很多时候其实我觉得技术也没有发展那么快,只是大家比较卷,觉得每天都有新的东西,但其实技术就是在线性发展,只是我们可能是在观测的角度处于一个指数上升的阶段。比如说 Coding 的能力一点点提升,可能就能带来很多的生产价值,大家可能就觉得 AI 发展得很快。但从技术进展上来说,可能我们就多干了一点点事情。每天看我们自己做的这个事情都还真的挺土的,解的那些 Bug 都不好意思拿出来跟大家讲,非常的丑陋。

如果这样做了,我们都已经能够做到这样的成绩的话,那我觉得可能未来算法和 Infra 结合得更好的话,可能更加大有可为。

李广密(主持人)多谢。杨强老师。

杨强我一直以来是做联邦学习。联邦学习的主要思想是“多个中心,大家协作”。

我现在越来越多地看到,很多本地资源不足,但是本地的数据又有很多隐私和安全的要求。所以我们可以想象,现在大模型的能力越来越强,这种通用性大模型和本地的这种特殊性的小模型,或者是领域专家的模型,如何协作?

我觉得这种协作变得越来越可能。像美国,我看到 Zoom,就是黄学东他们做的叫 Federated AI 的 AI 系统,他做了一个很大的基座,这个基座大家都可以插进来。然后他就可以在一个 Decentralized(去中心化)的状态下,能够既保护隐私又能够和通用大模型有效地沟通协作。

我觉得这种开源模式特别好,一个是知识的开源,一个是 Code 方面的开源。所以,我觉得尤其在像医疗、金融这样的场景下,会越来越多看到这样的现象发生。

李广密(主持人)多谢杨强老师。唐老师。

唐杰我其实对今年会有比较大的范式革新挺 Positive 的。我倒不说太细,因为那几个点我都……就像我刚才讲的,包括持续学习,还有 Memory,甚至模型架构,甚至多模态,我觉得都有可能出现新的范式的变革。

但我觉得有一个大的趋势,我来说一下为什么会产生这样的一个范式。我觉得原来其实是工业界跑得远远快于学术界。我记得在去年还有前年的时候,回到清华跟好多老师聊天说能不能做大模型,很多老师是第一没卡...不是没卡,是卡的数量几乎为零。工业界是有 1 万片,学校是 0 片或者 1 片,倍数是 1 万倍。

但是到现在,很多学校已经有很多卡了,而且很多老师已经开始做了很多大模型的相关研究,包括硅谷那边有很多老师都开始做甚至模型架构、持续学习这些相关研究。所以它已经不是一个……原来我们总觉得工业界在 Dominate(主导)这些,其实今天我觉得在 2025 年底到 2026 年初的时候,这一现象不大存在了。可能还有 10 倍的差,这里 1 万片那里 1000 片,但是它已经孵化出种子了。我觉得在学术界它有这个创新的基因,有这个可能性了,这是第一个。

第二个,我觉得一个创新的出现它一定是某个事情有大量的投入,并且它的 Efficiency 变成为瓶颈了。现在在整个大模型里面,投入已经巨大,但是 Efficiency 并不高。也就是我们继续 Scaling,你说有没有收益呢?肯定是有收益的。比如说原来我们 Data,从 2025 年初可能 10 个 T 的数据,现在 30 个 T,甚至我们可以 Scaling 到 100 个 T。但 100 个 T 你 Scaling 上去以后,你的收益有多少?还有你的计算 Cost 得有多少?这就变成一个问题了。你不创新,这可能变成你花掉了 10 个亿、20 个亿,但是收益很小,就不值得了。

另外一方面,对于新的智能创新,假如我们每一次都要重训一个基座,再重训很多 RL。像 24 年出来 RL 的时候,大家觉得我接着训嘛,收益比较有。但到今天你再接着疯狂去 RL,收益也是有的,但就没有那么 *Significant,还是一个收益效率的问题。

所以我们未来也许可以定一个:一方面,我们既需要 Scaling Up——我刚才其实在台上讲了,“反正最笨的办法就是 Scaling”,因为 Scaling 我们肯定有收益,这是典型的一个工程做法。Scaling 肯定会带来智能上限的提升,毫无疑问你只要 Get 到 More Data。但第二个方法,我觉得应该定一个叫 Intelligence Efficiency,就是说智能的效率,我们获得智能的效率,即用多少的投入能获得智能的增量。如果我们能用更少的投入获得增量,而且我们现在已经变成一个瓶颈了,假如能用更少的范式获得同样智能提升,这就是一个瓶颈式的事情。所以我是觉得 2026 年一定有这么一个范式发生。

当然,我们也是在 Bet,我们也在努力,我们希望这个发生在我们身上,但也不一定。

话题3:Agent战略

李广密(主持人)对,我跟唐老师一样非常乐观。因为其实每个领先的模型公司每年的计算量实际上是每年 Compound(复合增长)有 10 倍左右。大家手上的计算资源多了,人才也涌入得越来越多,大家手上卡片多、做的实验多了,其实它就是一个实验工程,有可能某个点就出来了。

刚刚唐老师也聊到一个怎么衡量智能水平的点。我觉得第三个我们可以一起聊一下 Agent 这个战略。最近我跟很多研究员聊,大家都提到对 26 年还有一个很大的预期,说 Agent 今天可以在后台比如推理 3~5 个小时,做人类 1~2 天的工作量;大家期待说 26 年可以做人类正常工作一周到两周的工作量。

这也是一个非常大的变化,因为它不再只是一个工具——就是唐老师提的说只是一个 Chat,而是说真的在自动化你一整天甚至一周的任务流。那这样的话其实,26 年有可能是 Agent 真的叫“创造经济价值”的关键一年。

所以 Agent 这个问题我们可以展开聊一下。大家也是顺雨刚才提的“垂直整合”嘛,既有模型又有 Agent 产品。包括我们看到硅谷的几个公司也都从模型到 Agent 端到端都做了。

顺雨,你花了很多时间做 Agent 研究,你对 26 年这个 Agent,比如 Long Horizon 的这种 Agent,真的能 Automate 人类一周到两周的工作?这个对 Agent 的战略,包括从模型公司的出发点会怎么思考这个问题?

姚顺雨我觉得还是像刚刚说的,在 To C 和 To B 可能不太一样

目前看起来,To B 的情况是已经达到了一个在不断上升的曲线,好像没有要变慢的趋势。Anthropic 这公司很有意思,它基本上不做什么创新,它就是觉得:模型预训练变大了,然后老老实实把 RL 做好,只要预训练不断变大,后训不断把真实世界的任务做好,它就会越来越聪明,带来越来越多价值。

我觉得 Anthropic 特别有意思的一点是,从某种程度来说,做 To B 其实所有的目标之间是更一致的。你的模型智能越高,解决的任务就越多;解决任务越多,在 To B 下带来的收入就越大。这点就很好办了。

那做 To C 的一个问题是,我们都知道 DAU 或者说产品的指标,其实和模型的智能很多时候是不相关的,甚至相反。我觉得这是 Anthropic 能够聚焦另一个很重要原因:它只要真的把模型越做越好,收入就越来越高,所有事情全部都是非常 Aligned 的。

目前看起来我觉得生产力的 Agent 才刚刚开始。现在可能除了模型之外有两个 Bottleneck:一个是环境问题,或者说 Deployment(部署)的问题。

我之前在 OpenAI 之前,在一个叫 Sierra 的公司实习过,这是一个 To B 的客服公司。我在 To B 公司工作过有很多收获。最大的收获是,我感觉即使今天模型不再变好,所有的模型训练全部停止了,但是我们把这些模型部署到世界上各种各样的公司,它可能能带来今天的 10 倍或者 100 倍的收益,或者说可能对 GDP 能够产生 5%~10% 的影响。但是今天我觉得它的影响还远远不到 1%。

第二点是教育非常重要。我观察到现在人和人的差距在拉大,并不是说 AI 要替代人的工作,而是说会使用这些工具的人,在替代那些不会使用工具的人。就像当年电脑刚被发明出来,你转身去学习编程,和你还在使用计算尺、算盘,那是巨大的差距。我觉得现在中国能做的一个最大的有意义的事情其实就是更好的教育,教大家怎么更好地去使用像 Claude Code 或者 ChatGPT 这样的产品。当然 Claude Code 可能在中国用不了,但是我们可以用 Kimi 或者智谱这样国产的模型。

李广密(主持人)多谢顺雨。俊旸,对 Agent 的想法,包括因为千问也有一个生态,千问自己做 Agent 以及扶持生态的通用 Agent,你也可以展开讲讲。

林俊旸这里涉及一个产品哲学的问题。当然 Manus 确实很成功,但是“套壳”是不是一个未来,这本身也是个话题。我觉得今天到这个 Timing,我其实比较同意你的观点,叫“模型即产品”。

我跟 TML 的人聊,他们叫 "Research as a Product"。其实我挺喜欢这个事情。包括我看 OpenAI,挺多 Researcher 自己能够成为产品经理 End-to-End 地把这个东西做起来。今天我们自己内部的 Researcher 都想做更多面向真实世界的东西。

我其实愿意相信接下来的 Agent 是可以做到刚才所说的事情,而且跟刚才所提的 Self-evolution(自我进化)以及 Active Learning(主动学习)都有比较强烈的关系。比如它能干这么长时间,它其实自己就得在过程当中进化,并且它还要决定去干什么东西,因为它收到的指令是一个非常 General 的任务。所以我们现在 Agent 其实已经开始越来越变得是那种“托管式”的 Agent,而不是说我要不断跟你来来回回交互的那种形式。

从这个角度上来说,它对模型的要求其实是很高的,模型就是 Agent,Agent 就是这个产品本身。如果他们都是一体化的话,那么今天做基础模型本身其实也就是在做这个产品。如果不断提升模型能力的上限,包括 Task-time Scaling 能做上去的话,确实能够做到这个事情。

但我觉得还有一个点是跟环境交互有关系,我们现在交互的环境还不是很复杂,都还是电脑的环境。我有朋友是做跟 AI for Science 比较相关的。比如今天你干 AlphaFold 这一个事情,其实做出来还没到那一步,比如制药,你就算用今天 AI,可能不一定帮到你那么多。因为你要去做湿实验,要做这些事情才能得到反馈。

有没有可能我们未来 AI 能够环境复杂到可能是真实的人类世界的环境,指挥机器人去做湿实验,去加快效率?否则按照现在人类的效率,其实非常低。我们甚至还要雇佣很多外包在实验环境里面去做实验。如果能达到这一个点,可能才是我想象当中 Agent 能够做人类很长时间的活,而不是说仅仅是在电脑当中写个文件。

这些东西我觉得可能今年很快就可以完成。但我觉得接下来三年到五年的时间,可能这个事情会更加有意思。那这个的话可能又要跟具身智能结合在一起。

李广密(主持人)我想 Follow 俊旸一个尖锐点的问题:从你的角度看来,通用的 Agent 这个机会是创业者的吗?还是说模型公司是一个时间问题,总会把通用 Agent 做好?

林俊旸:我不能因为我做基础模型,我就去做创业导师,我做不了这个事情。那我只能借成功人士 Peak(Manus 的 CTO)说的话,他说:做通用 Agent 最有意思的事情是长尾,反而是更值得关注的事情,或者是说今天 AI 更大的魅力是在长尾。

如果是马太效应,头部的这个东西其实挺容易解决的。当年做推荐的时候,我们看到推荐非常集中在头部商品。但我们想把尾部推过去,但我当时做就非常遭殃。我作为一个干 NLP 和多模态的人,碰到推荐系统,去干解马太效应,那基本上是奔着死路去的。

但我觉得今天的所谓 AGI 其实就在解这个问题,你做通用 Agent 是能不能把长尾的问题给解决。今天我一个用户,我真的寻遍各处都找不到能够帮我解这个问题的。但就在那一刻,我感受到了 AI 的能力,全世界任何一个角落,我寻遍各处都找不到,但是你却能帮我解。可能这就是 AI 最大的魅力。

所以你说要不要去做通用的 Agent?我觉得见仁见智。如果你觉得你是一个“套壳高手”,套的可以比模型公司做得更好,我觉得可以去做。但如果你没有这个信心,这个事情可能是留给模型公司做“模型即产品”的时候,因为他们遇到问题的时候,其实我只要训一训模型,我只要烧一烧卡,这个问题可能就解决了。所以见仁见智。

李广密(主持人)其实解决长尾的问题,模型公司算力加数据好像解决起来也挺快的,对吧?

林俊旸今天 RL 最有意思的地方,我觉得是我们发现修问题比以前容易了。以前修问题很难。我举一个 B 端客户的情况,他们说我们自己要做 SFT,你能不能告诉我通用数据怎么配比?每次我们都很头痛。然后我们觉得对方不太会做 SFT,他那个数据非常垃圾,但他可能觉得非常有用。

那今天有了 RL 之后,你可能真的只要很小的一个数据点,甚至不需要标注,只要有 Query,有 Reward,这个东西稍微训一训,合并起来其实也非常容易。那可能是今天技术的魅力。

李广密(主持人)多谢俊旸,来,杨强老师。

杨强我觉得 Agent 出现应该有四个阶段。

看一个,是目标的定义,是由人为定义的还是自动定义的?

第二个,是说规划,就是中间的 Action,规划也可以由人来定义,也可以由 AI 自动定义。

所以这样就自然地分为四个阶段了。我觉得我们现在在一个非常初级的阶段,就是目标也是人定义的,规划也是人做的。所以现在的这些 Agent 的 Definition 系统,基本上是一个更高级的 Very High-level Programming Language。

但我预料未来会出现一个大模型观察人的工作,尤其是把人的 Process Data 给使用起来。最后目标也可以是大模型来定义,规划也可以由大模型定义。所以,Agent 应该是由大模型内生的一个 Native 的系统。

李广密(主持人)多谢杨老师。唐老师。

唐杰我觉得确实有几个因素决定了 Agent 未来的走势。

第一,Agent 本身有没有解决人类的事情,这个事情是不是有价值的,价值有多大。比如原来的 GPTs 出来,也做了很多 Agent。那个时候你会发现 Agent 都很简单,最后发现 Prompt 就解决了。那些大部分 Agent 慢慢就死掉了。所以第一个是解决这个事情有多大价值,能不能帮到人。

第二,做这个事情的 Cost 有多大。如果 Cost 特别大,那也是一个问题。刚才俊旸也说了,也许我调用一个 API 就能解决。但反过来,假如调个 API 就能解决,那么这个 API 本身可能觉得这件事情价值很大的时候,它就会把它做进去。这是个矛盾,基座和应用永远是个矛盾。

最后一个维度,是做应用的速度。如果你说我有个时间窗,我能够拉开半年的时间窗,迅速把应用满足了,半年以后,要么迭代,要么怎么着,反正能往前走。说白了大模型时代到现在,更多的是在拼速度、拼时间。

也许一个决策是正确,就像你刚才说也许我们 Bet 代码正确了,那也许我们就会在这方面走得更远一点。但也许 Bet 失败了以后就半年,半年就没了。所以今年我们只是在 Coding、在 Agent 这块我们 Bet 了一点点,现在我们 Coding 调用量都还不错。所以我觉得更多也是一个 Bet 吧,做 Agent 可能未来也是一个 Bet。

话题4:中国AI的未来

李广密(主持人)多谢。因为过去模型公司既要追通用能力,优先级上就没有花那么多精力去探索。其实通用能力追上来之后,我们也更多的期待 26 年智谱、千问有更多自己的 Claude Code 时刻和 Manus 时刻。我觉得这是非常值得去预期的。

第四个问题,也是最后一个问题,我觉得比较有意思。因为这个活动、这个时间点,更多值得去展望未来。

我其实挺想问大家一个问题:在三年和五年以后,全球最领先的 AI 公司是一个中国团队的概率有多大?我们从今天的跟随者变成未来的引领者,这个文化包括关键条件,到底是还有哪些需要做好的?

顺雨,因为你是经历过硅谷跟中国两个体感的,你对这个概率的判断和需要哪些关键条件的判断是怎么样的?

姚顺雨我觉得概率还挺高的。我还是挺乐观的,因为目前看起来,任何一个事情,一旦被发现出来,在中国都会很快 Catch up 或者复现,然后在很多局部去做到更好 。包括之前制造业、电动车这样的例子已经不断在发生。

我觉得可能几个比较关键的点,一个可能是中国的光刻机到底能不能突破。如果最终算力变成了 Bottleneck,我们能不能解决这个算力问题?目前看起来我们有很好的电力优势,有很好的基础设施优势。可能主要的瓶颈就是产能,包括光刻机以及软件生态。这个问题解决了会是个很大的帮助。

另一个问题就是,除了 To C 之外能不能有更成熟或者更好的 To B 的市场,或者有没有机会在国际的商业环境去竞争。今天我们看到很多做生产力或者做 To B 的模型,还是会诞生在美国,因为支付意愿更强,To B 的文化更好。中国国内做这个事情很难,所以大家都会选择出海或者做国际化。

但我觉得还有更重要的是主观上的概念。我最近跟很多人聊天,直观的感受是:中国其实有非常多非常强的人才。任何一个事情,只要被证明能做出来,很多人都会非常积极地去尝试,并且想要甚至做得更好。

但好像,今天中国想要突破新的范式或者做非常冒险事情的人,可能还不够多。这里面可能有经济环境、商业环境、文化的因素。但是如果增加一点的话,主观上能不能有更多有创业精神或者冒险精神的人,真的想要去做前沿探索或者新的范式突破的事情。

因为目前来看,一个范式一旦被发生,我们可以用很少的卡、很高的效率去 Catch up 或者甚至局部做得更好。但是,我们到底能不能去引领新的范式?我觉得这可能是今天中国唯一要解决的、某种程度上唯一要解决的问题。因为其他所有事情,无论是商业、产品设计还是这种 Catch up 做工程,我们都已经某种程度上比美国做得更好。

李广密(主持人)我再 Follow 顺雨一个问题:你对中国的 Lab 里面的研究文化有什么要呼吁的吗?你也感受过 OpenAI 或者湾区 DeepMind 的研究文化,中国跟美国有什么差异?这个研究文化对作为一个 AI Native 的公司有哪些根本性的影响?

姚顺雨我觉得每一个地方的研究文化都很不一样,美国不同实验室之间的区别可能比中美之间的区别还要大。在中国也一样,我个人觉得有两点吧:

第一,在中国大家还是更喜欢做更安全的事情。比如今天预训练已经被证明可以做出来了。这事情其实也非常难做,有很多技术问题要解决。但是只要一旦被证明能做出来,我们都很有信心几个月或者一段时间内就把这个东西搞清楚。但是如果今天要让一个人去探索一个比如长期记忆或者持续学习,大家不知道怎么做,能不能做起来。那这个我觉得还是比较困难。

当然,也不只是大家更喜欢做确定性的事情。很重要一点是,文化的积累以及整体的认知其实是一个需要时间沉淀的事情。可能在 OpenAI 做 RL 这事情,可能是 22 年就开始做了。国内可能是 23 年开始做,对这个东西的理解会有差异。或者说,中国 RL 好像没有 Scale up 得这么大。我觉得很多是时间问题。当你积累的文化或者底蕴更深,潜移默化地会影响人的做事方式。

第二,我觉得在中国大家对于刷榜或者数字会看得更重一些。这一点上,像海外 Anthropic 就会做得比较好。包括 DeepSeek 做得也比较好的一点是,他们可能没有那么关注榜单的数字,可能会更注重:第一什么是正确的事情,第二是什么是你自己能体验出来好还是不好的

我觉得这挺有意思的。你看,Claude 模型可能在很多编程或者软件工程榜单上也不是最高的,但是大家都知道这个东西是最好用的。我觉得还是需要大家能够走出榜单的束缚,去坚持自己觉得什么是正确的、或者什么是好的。

李广密(主持人)多谢。俊旸,你来聊聊中国赢下的概率和条件。

林俊旸你这个问题本身是一个危险的问题。理论上这个场合是不可以泼冷水的。但是,如果从概率上来说,我想说一下我感受到的中美差异。

比如美国的 Compute,可能整体比我们大 1~2 个数量级。但是我看到不管是 OpenAI 还是 Anthropic,他们大量的 Compute 其实只是投入到下一代的 Research 当中去。我们今天相对来说捉襟见肘,光交付可能就已经占据了绝大部分的 Compute,这会是一个比较大的差异。

这可能是历史以来的问题:创新是发生在有钱的人手里,还是穷人的手里?

穷人不是没有机会,因为我们觉得这些“富哥”真的很浪费卡,他们 Ablation(消融实验)这么多东西,可能训了很多也没什么用。但今天穷的话,你会想,比如所谓的算法 Infra 联合优化这个事情。其实如果你真的很富的话,你真的没有什么动力去做这个事情。

我觉得可能更进一步,刚才顺雨也提到光刻机的问题,未来有可能还有一个点是,如果从软硬结合的角度,是不是真的有可能 End-to-End 地做出来?比如我们下一代的模型结构和芯片,其实都有可能是一起把它给做出来的。

我特别记得我在 21 年的时候,当时我们在做大模型。阿里做了芯片,来找我说:能不能预测一下三年之后这个模型是不是 Transformer?三年之后模型是不是多模态?为什么是三年呢?他说我们需要三年的时间才能流片。我当时回答是:三年之后,我在不在阿里巴巴,我都不知道。但最后我今天还在阿里巴巴,然后他果然还是 Transformer,还是多模态,我就非常懊悔为什么当时没有去催他去做。

但当时我们的交流其实非常“鸡同鸭讲”,他讲了一大堆我不懂,我讲了他不知道我们在做什么,就错过了机会。但这个机会有没有可能再来一次?我们虽然是一群穷人,但是不是有可能穷则生变?创新的机会可能发生在这里。

但我觉得可能我们需要改变的是教育。我感觉,比如我属于 90 年代靠前一些的,顺雨属于 90 年代靠后一些的,团队里面好多 00 后,我感觉大家冒险精神变得越来越强。美国人天然有非常强烈的冒险精神,典型的例子是当时电动车刚出来,甚至天棚漏水、开车可能会意外身亡的情况下,依然有很多富豪愿意做这个事情。但在中国,富豪们是不会去干这个事情的,大家会做一些很安全的事情。

那今天,大家的冒险精神开始变得更好,中国的营商环境也在变得更好,我觉得是有可能带来创新的。概率没那么大,但真的有可能。

李广密(主持人)如果看一个数字呢?

林俊旸你是说百分之多少?

李广密(主持人)对,三年到五年后中国最领先的那个公司是一家中国公司的概率。

林俊旸我觉得 Below 20% 吧,我觉得 20% 已经非常乐观了,因为这里真的有很多历史积淀的原因。

李广密(主持人)我再 Follow 一个问题,你内心的那个 Gap 变大的恐惧感强吗?有的地方在追上来,有的地方算力又在拉大。

林俊旸今天你干这一行就不能恐惧,必须得有非常 Chill 的心态。从我们的心态上来说,能干这行已经非常不错了,能够做大模型这件事情已经非常幸运了。

我觉得还是看你的初心是什么。刚才顺雨提到一个点,你的模型可能不一定那么强,在 C 端里边其实是 OK 的。那我可能转换成另外一个角度思考:我们的模型为人类社会带来什么样的价值? 只要我去相信我这个东西能够为人类社会带来充分的价值,能够帮助人类,他就算不是最强的,我也愿意接受。

李广密(主持人)多谢俊旸。杨老师,您经历过很多 AI 的周期,也看过很多中国 AI 公司变成世界最强,您的判断?

杨强回顾一下互联网的发展,一开始也是从美国开始,但是中国很快就赶上,而且应用像微信就是世界第一的。我想 AI 是一个 Enabling 的技术,它并不是一个终端的产品。但是我们中国有很多的聪明才智会把这个产品发挥到极致,不管是 To B 还是 To C。但我可能更看好 To C,因为百花齐放,中国人集思广益。

但是 To B 可能有一些具体的限制,像付费意愿、企业文化等等,这些可能也在改变。但是我最近也特别观察一些商业方面,比如美国有一个公司叫 Palantir,他的一个理念是:现在不管 AI 发展到什么阶段,我总是能在 AI 里面发现一些好的东西应用在企业上。中间肯定有 Gap,我们要给它弥合。

它有一个办法叫“本体”,用本体的方法。其实我观察了一下,大概的思想就是我们以前做的迁移学习,把一个 General 的 Solution 应用到一个具体的实践当中,用一个本体来做一个知识的迁移。这个方法非常巧妙。它是通过一种工程的方法,叫前端工程师 FDE(Forward Deployed Engineer)来解决的。

不管怎么样,我觉得像这种就非常值得我们学习。我觉得中国的企业像 AI Native 的公司应该发展出这样的一些 To B 的 Solution 来。我相信会的。所以,我觉得 To C 肯定是百花齐放的,To B 可能也会很快地跟上来。

李广密(主持人)多谢杨老师。唐老师。

首先我觉得确实也要承认,在中美,无论从研究,尤其是企业界的 AI Lab,是有差距的,这是第一个。

但我觉得未来中国慢慢变得越来越好,尤其是 90 后、00 后这一代起来,真的远远好过之前。我有一次在 YOCSEF 的一个会上说过一句话:我们这一代是最不幸的。为什么呢?你看我们上一代还在呢,我们现在还在继续工作,还没出头之日。然后很不幸的下一代已经出来了,世界已经交给下一代了,把我们这一代无缝给跳过了。其实开玩笑的。

但我觉得最有意思的是,可能未来中国也许的机会:

第一,一群聪明人真的敢做特别冒险的事。我觉得现在是有的,00 后、90 后这一代,包括俊旸、Kimi、顺雨,都是愿意而且非常敢冒风险做这样大冒险的事。

第二,我觉得确实环境要更好一些。无论从国家的环境,比如大企业和小企业之间竞争,创业企业之间的问题,包括我们的营商环境。像刚才俊旸说的,还要做交付。我觉得把环境 Build 得更好,让一群聪明人又敢于冒险的聪明人有更多的时间去做这种创新的事情。比如让俊旸这样的人有更多时间做创新。这是第二个,也许是我们政府包括国家可以来帮忙改善的事情。

第三,回到我们每个人身上,就是能不能坚持。我们能不能愿意在一条路上,敢做、敢冒险,而且环境也还不错?我觉得环境肯定不会是最好的,永远不要想着环境是最好的。如果我觉得我们恰恰可能也是幸运吧,我们在经历一个环境从也许原来没那么好慢慢变得更好的一个时代。我们是经历者,也许就是这个财富收获最多的人。如果我们笨笨地坚持,也许走到最后的就是我们,感谢大家。

结语

李广密(主持人)感谢唐老师。所以我们也很想呼吁,应该有更多的资源资金投入到中国的 AGI 行业。有更多的算力,让更多的 AI 年轻研究员“搓卡”,可能搓个三五年,中国也有 3~5 个自己的 Ilya,对吧?这是我们未来 3-5 年很期待的

文章来源:学术头条