2 月 18 日上午消息,月之暗面研究员 Flood Sung 近日分享了 k1.5 模型背后的完整思考过程,并透露称,2024 年 9 月 12 号 OpenAI o1 发布带来的震撼效果,令自己陷入了 Long-CoT 的有效性反思中。因为 Long-CoT 的有效性,其实在一年多前月之暗面Kimi联合创始人 Tim 周昕宇就验证过,使用很小的模型,训练模型做几十位的加减乘除运算,将细粒度的运算过程合成出来变成很长的 CoT 数据做 SFT,就可以获得非常好的效果。“我依然记得当时看到那个效果的震撼。”Flood Sung 表示,公司意识到 Long Context 的重要性,所以率先考虑把 Context 搞长,但却对 Long-CoT 这件事情不够重视,其实主要还是考虑了成本问题。“Long Context 主要做的是长文本输入,有 Prefill 预填充,有 Mooncake 加持,成本速度可控,而 Long-CoT 是长文本输出,成本高很多,速度也要慢很多,在这种情况下,把输出搞长就没有成为一个高优选项。”Flood Sung 反思道,“但还有什么比 Performance (性能)更重要呢?成本和速度有摩尔定律加持,可以不断下降,只要把 Performance 搞上去,剩下的都不是主要问题。”所以,我们得搞 Long-CoT,搞 o1。“All in All,我们就是要训练模型能够像我们人一样思考,自由地思考。”Flood Sung 表示。在月之暗面 Kimi 官网上,Flood Sung 刊发了一篇解密 o1 破解过程的万字长文,预示了公司关注并开始对标 o1 并推进相关研究的实质性动作。相关内容:月之暗面:Kimi 大模型API 已支持 Tool Calling 功能月之暗面 Kimi 开放平台将启动 Context Caching 内测:提供预设内容 QA Bot、固定文档集合查询Kimi 内部人士:正灰度测试 AI 视频生成功能,上线后每天可免费生成 100 秒朱啸虎风波后,杨植麟公开发声:感恩所有投资人支持创业梦想声明:内容来源公开的各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。


常见问题