本文作者:创意奇才

对话月之暗面杨植麟:对Scaling Law乐观,预训练还有提升空间

创意奇才 昨天 28
对话月之暗面杨植麟:对Scaling Law乐观,预训练还有提升空间摘要: 直播吧月日讯据近期报道海港尝试与巴西外援奥斯卡续约并提供了一份为期两年加薪的合约以及合同结束后在俱乐部管理层任职年不过遭到拒绝界面新闻记者伍洋宇界面新闻编辑文姝琪在月之暗面北京总部...

直播吧10月21日讯据近期报道,海港尝试与巴西外援奥斯卡续约,并提供了一份为期两年加薪50%的合约,以及合同结束后在俱乐部管理层任职(2026年),不过遭到拒绝。

界面新闻记者 | 伍洋宇

界面新闻编辑 | 文姝琪

在月之暗面北京总部会议室,今年刚刚31岁的杨植麟正在摆弄他的笔记本。在下个会议开始之前,这位繁忙的创始人要抽出一个小时,为公司完成一些输出,并回应一些疑问。

他全程神色轻松,能在时不时的玩笑中笑出来。这一个小时没有回应任何行业和产品以外的问题,但好像又充分展现了态度。

在公司卷入风波一周后,这是一场突然且罕见的产品发布会,传递的信号言简意赅:公司的重心仍然在模型研发和产品推进上。

11月16日,在Kimi Ch 全量开放一周年之际,Kimi发布新一代数学推理模型k0-m h,数学能力对标OpenAI o1系列。 

在中考、高考、考研以及包含入门竞赛题的MATH等4个数学基准 中,k0-m h初代模型成绩超过o1-mini和o1-preview模型。在两个难度更大的数学题库OMNI-MATH和AIME基准 中,k0-m h初代模型的表现分别达到了o1-mini最高成绩的90%和83%。 

此外,Kimi探索版在搜索体验上也加入了强化学习,在意图增强、信源分析和链式思考三大推理能力上有所提升。 

月之暗面方面表示,k0-m h模型和Kimi探索版,未来几周将会分批上线Kimi网页版和Kimi智能助手APP。

杨植麟作为此次产品发布的主讲人,同时探讨了行业近段时间一系列关键议题。 

杨植麟将AI技术过去几年的发展归功于“Scaling”,但认为这不是简单将模型做大就可以,核心是找到有效的方法去“Scale Up”,比如说更好的数据或算法。 

同时,他提及背后的范式已经发生一些转变,例如要从“Next-Token Prediction(预测下一个token)”转向更关注基于强化学习的“Scale Up”。

这是让大模型打破静态数据集带来的局限性,进而具备思考能力去探索更艰难任务的重要环节。 

对杨植麟而言,数学场景被认为是AI锻炼思考能力最适合的场景。他引用了伽利略的一段话,“这个宇宙如果你把它看成一本很大的书,宇宙它其实是用数学来写的,数学是表达这个宇宙的语言”。并且,在数学场景中,AI不用跟外界交互就可以自成一体。

除了明确表示向强化学习进击之外,杨植麟对预训练模型作出了自己的评价和判断。他对Scaling Law仍然乐观,认为预训练模型还有半代到一代的提升空间,这个空间大概率会由头部大模型在明年释放出来。

杨植麟还透露Kimi Ch 的月活用户规模达到3600万,他难得地强调,提升留存就是Kimi当前最核心的目标。

“基本上它跟你的技术成熟度或者技术水平也是一个正相关的过程,所以对我们当前来说是最重要的。”他说。

你们预训练的情况现在是什么样的?

杨植麟:我觉得预训练还有空间,半代到一代的模型。这个空间会在明年释放出来,领先的模型会把预训练做到一个比较极致的阶段。

但是我们判断接下来的重点会在强化学习上,范式上会产生一些变化。它还是Scaling,只是通过不同的方式去Scale。

Scaling law会不会有一个天花板或者上限?我相对来说比较乐观一点。核心在于原来用静态数据集是比较简单粗暴的使用方式,现在用强化学习的方式,很多情况下是有人在参与这个过程。但是人没有办法标注那么多数据,不可能把每道题具体的思路都标出来,所以你其实是用AI本身加上人的杠杆。比如说你标100条数据,就能产生 大的作用,因为剩下的它都是在自己思考。

它从做法上来说确定性是比较高的,因为很多时候(模型)是一个调出来的过程。我现在觉得大概率可以通过这种方式做出来,它上限是很高的。

关于多模态模型的问题,Sora马上要发了,大概是圣诞节之前,一直不做多模态的原因是什么?

杨植麟:我们也做,几个多模态的能力在内测。

我是这样看的,AI接下来最重要的是思考和交互这两个能力。思考的重要性远大于交互,不是说交互不重要,交互是一个必要条件,但思考会决定上限。

你就看这个任务的标注难度有多大,你到底需要一个博士去标,还是每个人都可以标,哪个任务更难找到这样的人,那个东西就是AI的上限。

是什么时候决定聚焦Kimi?

杨植麟:大概今年二、三月份吧,或者三、四月份,大概那个区间。一个是基于美国市场的判断,二是基于我们自己的观察,主要是这两点。还有就是确实得做减法,不是疯狂的做加法。

对于Kimi来说,它目前的最核心的任务是什么?

杨植麟:最核心的任务就是提升留存,或者把留存作为一个重要的衡量指标。基本上它跟你的技术成熟度或者技术水平也是一个正相关的过程,所以对我们当前来说是最重要的。

假设我们衡量距离AGI目标的距离,现在还是初级阶段,当然每年都有一些比较大的进步,如果今年用去年的产品,你会发现可能根本没法忍受。

Kimi过去一年确实深受很多用户的喜欢,但是它最受争议的一个问题就是烧钱投放,能不能今天有一个正式的回应,就是为什么Kimi在那么早的时间选择投放用户?你今天也说到了关于留存其实并没有那么的满意,那接下来投放的动作会是持续性的吗?

杨植麟:整体留存我们相比于其它的产品还是有优势的,如果放眼去看这个产品的终极生态,今天肯定有 大的空间,这个是我想表达的,我们会持续在这个方面做得更好,肯定还有很大的空间

因为预训练的Scale现在都觉得遇到瓶颈了,美国遇到瓶颈以后你觉得对中美大模型的格局的影响是什么? 是变大还是变小?特别是对于中国公司来说是好事还是坏事?能不能对未来做一些预测?

杨植麟:对我们来说它有可能是一个好事。假设你一直pre-train,你的预算今年1B、明年10B或者100B,它不一定可持续。当然你做post-train也要Scaling,只是说Scaling的起点 。你可能Scale很长一段时间,在一段时间内你的算力就不会是瓶颈,这个时候你的创新能力是更重要的,在这种情况下我觉得对我们反而是一个优势。 

在范式转化之后,从训练的Scaling到推理的Scaling,可以完整回顾一下,看到这个趋势的时候做了哪些关键的判断?之后的技术和产品上已经有了哪些调整?

杨植麟:o1的变化其实是可以预测的,我们很早就在说接下来推理占的比例会远远超过训练。因为你如果去分析的话,它是必然产生的,你没有那么多数据训练,你肯定是要生成数据,生成数据肯定是强化学习,本质是一样的。

只不过在早期预训练的很多红利没有被完全发挥出来,所以可能很关注怎么通过Next—Token prediction能压缩出来更多的智能。但是我们很早去铺垫,比如说在强化学习上我们能做什么,不管是在人才上还是在技术的储备上。 

o1发了以后大家也会觉得深层推理,还有包括你今天说的数学模型,它离普通用户比较远,你怎么看这个功能和用户的关系?

杨植麟:其实也不远。数学我觉得是两个方面的价值, 个方面它今天在教育产品上其实有 大的价值。在我们整体的流量里也起到很重要的作用。第二个,我觉得它是技术上的迭代和验证。我们可以把这个技术去放在更多的场景里,比如我们刚刚说的探索版。

怎么看待AI创业公司被收购,人才回流大的现象?  

杨植麟:这个问题我们没有遇到,但可能有一些别的公司遇到。行业发展进入了一个新的阶段,它从一开始有很多公司在做,变成了现在少一点的公司在做,接下来大家做的东西会逐渐不一样,我觉得这是必然的规律。

我们主动选择做了业务的减法,这个还是很重要的,你应该聚焦一些重要的事情,然后做好。在这几个大模型创业公司里,我们始终保持人数最少,始终保持卡和人的比例是最高的,这个 关键。

如果你想把团队保持在一定的规模, 的方式是业务上做一些减法。我们一开始确实也尝试过几个产品一块做,这在一定的时期内有可能是有效的,到后来发现还是要聚焦,把一个产品做好、做到极致是最重要的。

砍业务本质上也是在控制人数,不希望人数长得特别猛。如果现在三个业务一起做,我就活生生把自己变成大厂,就没有任何的优势。

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享