在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。如果忽略这些差异,笼统地应用通用的 Scaling Laws,往往会导致性能预测偏差和算力浪费。
科技行者 on MSN
北航团队首次揭秘多语言编程的奥秘:为什么Python比Rust更“饿”数据?
这项由北京航空航天大学的杨健、国鑫、林静等研究者联合优矿公司和中国人民大学人工智能学院团队完成的突破性研究,发表于2025年12月的arXiv预印本(论文编号:2512.13472v1),是全球首次系统性探索多语言编程训练规律的重要成果。
Mumbai - 234-2 (30 ov), Sarfaraz Khan 6(3) Musheer Khan 26(25), need 3 runs Mumbai - 142-1 (20 ov), Rohit Sharma 98(60) Musheer Khan 1(2), need 95 runs Mumbai - 71-0 (10 ov), Rohit Sharma 54(29) ...
昨天,MiniMax M2.1 发布。前脚 MiniMax 刚传出通过港交所聆讯的消息,后脚就直接发布了新一代模型 —— M2.1。巧的是 GLM-4.7 ...
阿里云通义千问团队近日宣布推出Qwen Code v0.5.0版本,为开发者带来多项功能升级。此次更新不仅新增了VS Code集成插件,还同步发布了Typescript软件开发工具包(SDK),旨在将AI编程能力深度融入开发者的日常工作环境。 作为面向全流程开发的智能助手,Qwen ...
今天凌晨1点30,编程大神Andrej Karpathy发表了一段深度长文,引起了程序员巨大共鸣:作为一名程序员,我从未感觉如此落后。这个职业正被彻底重构,因为程序员所贡献的部分正变得越来越稀少和零散。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果