AI大模型发展路径之争将带来哪些巨变 路径分化拥抱开源
在AI大模型的“下半场”,路径分化和拥抱开源成为新的趋势。部分国家为了保持领先优势,不断追求更高的算力、数据规模;而中国的AI发展则逐渐明确,在推进算力基础设施建设的同时,致力于普惠AI,形成差异化优势。
DeepSeek的开源策略引发了大模型赛道的分化。2月18日,美国人工智能企业xAI发布了Grok 3推理模型,性能超过或媲美DeepSeek、GPT-4等模型。然而,Grok 3的训练过程消耗了大量算力资源,累计使用了20万张英伟达GPU。相比之下,今年1月发布的开源模型DeepSeek-R1成本仅为同类模型的三十分之一,迅速在全球范围内走红,开启了低成本训练模型的风潮。
当前,面对DeepSeek以高性价比强势破局,部分AI厂商依然坚持高投入“卷算力”。这种路径分化与“Scaling Laws”(尺度定律)的性价比降低有关。当算力、算法、数据达到一定程度时,大模型的智能表现将出现跃升,即“智能涌现”。但近年来,随着模型体积膨胀,参数数量呈指数级增长,“Scaling Laws”的性价比逐渐下降。例如,Grok 3的计算量几乎是DeepSeek的几十倍,但性能提升并不明显。
预训练阶段的“Scaling Laws”遇到瓶颈,但在推理阶段仍有很大机会。DeepSeek正是在模型推理阶段找到了新解法,为全球通向AI未来开辟了一条新路径。不同AI厂商对大模型的发展路径各有坚持。xAI仍在扩张其超级计算集群,OpenAI也在继续推进大规模投资项目。与此同时,越来越多的科研团队开始研发低成本AI模型,如美国一研究团队近期宣布开发出名为“s1”的模型,训练成本只需几十美元。
清华大学计算机科学与技术系长聘副教授刘知远认为,高效利用现有资源,走可持续高质量发展的路线才是正确的方向。而资深人工智能专家郭涛则认为,“大力出奇迹”的优势更大,通过大规模数据和超强算力可以充分学习海量知识,逼近通用人工智能。多家研究机构也肯定了算力的作用,认为算力堆积仍是模型进步的关键变量之一。
相关推荐:
- 2025-02-28
- 2025-02-28
- 2025-02-28