机器之心发布机器之心编辑部在追求人工智能极限的道路上,"更大即更强" 似乎已成为共识。特别是在数学推理这一被视为 AI ...
首先,让我们回顾一下Scaling Law的起源。2017年,百度硅谷的人工智能实验室首次探讨了模型性能与规模之间的联系,而OpenAI在2020年对此进行了更深层次的探讨,提出了更具体的数学模型。然而,Scaling Law并非一条不变的物理规律,它的有效性受到多种因素的影响——一旦底层算法有了突破,前提发生变化,这一理论就可能失效。
2025-01-20 23:06发布于北京新智元官方账号 【新智元导读】来了来了,月之暗面首个「满血版o1」来了!这是除OpenAI之外,首次有多模态模型在数学和代码能力上达到了满血版o1的水平。 还记得吗,AI大神Karpathy曾说过,「英文是最热门的编程语言」。 两年后的现在,这个规则彻底要被颠覆了。 从今天起,中文很有可能成为全球最热门的编程语言! 就在刚刚,Kimi发布了k1.5 多模态 ...
作者 | AICon 全球人工智能开发与应用大会策划 | 李忠良在 AI 的快速发展中,Scaling Law 的瓶颈带来了新的竞争态势。AI 应用,尤其是深度学习、大规模并行计算、推理和训练等领域,要求计算能力以非线性、指数级的方式增长。为了应对这种需求,AI ...
作为一个AI从业者,个人观点“scaling law撞墙”,完全不是媒体吹得那么耸人听闻!它只是意味着——未来通用人工智能的发展路径应当适时地转向。
Is Scaling is All you Need? 在Ilya探讨完「预训练即将终结」之后,关于Scaling Law的讨论再次引发热议。 这届NeurIPS将被铭记成预训练终结的一届会议 在 ...