在大语言模型(LLM)落地应用中,推理速度始终是制约效率的核心瓶颈。传统自回归(AR)解码虽能保证生成质量,却需逐 token 串行计算,速度极为缓慢;扩散型 LLM(dLLMs)虽支持并行解码,却面临训练成本高昂、质量下降及 KV ...
本文以美军在该领域进展为调研切入,基于收集到的近2年资料(2024-2025年涉及美国国防部报告、军种项目文档及媒体信息),美国军方在大模型安全领域已形成“顶层框架引导+专项机构落地+军种差异化实践”的格局,核心聚焦“评估体系标准化”与“安全围栏场景 ...
GRPO(baseline,蓝色)与 BAPO(红色)训练比较。BAPO通过动态提高clip上下界,有效提高了正样本在训练中的影响,降低了模型entropy衰减速度、提高了训练阶段的奖励,同时,缓解了梯度过大的情况。(来源:BAPO论文) ...
如果说 2023年是「惊艳」 (ChatGPT的横空出世), 2024年是「迷茫」 (在大模型落地的憧憬中探索),那么在Andrej Karpathy的笔下, 2025则是「觉醒」 的一年。
【新智元导读】就在刚刚, Andrej Karpathy 这位曾一手缔造特斯拉Autopilot、定义了OpenAI早期灵魂、现在公认的全球「AI教导主任」,发布了他极具分量的 2025年LLM年度回顾! 如果说 2023年是「惊艳」 ...
老黄GTC重点展示的PD分离技术为何成兵家必争之地?UCSD全华人团队力作,创新性地提出预填充-解码分离技术。在严格的延迟约束下,相比现有最先进的服务系统,可实现高达4.48倍的有效产出率或10.2倍更严格的SLO达成率。
对于许多资深网络用户来说,1996年上映的篮球动画电影《怪物奇兵》(Space Jam)不仅是童年回忆,其至今仍保留着当年面貌的官方网站,更是网络发展史上的活化石。
大型语言模型(LLM)的评估就像给学生考试打分一样,是决定AI系统好坏的关键环节。现在大多数公司都在用一种看似聪明实则问题重重的方法:让一个便宜的AI来给另一个AI打分,然后根据这个分数来判断模型的优劣。这就好比让一个从未学过数学的人来批改数学试卷, ...
在2023年末,AI界的风云人物安德烈·卡帕西发布的《2025 LLM Year in Review》引发了广泛关注。这位前OpenAI联合创始人和特斯拉前AI总监在报告中明确指出,当前的大模型(LLM)潜力仅被挖掘了10%,未来的发展空间巨大,尤其是在训练范式、智能形态和应用层面。
在最新一期《自然·机器智能》发表的一篇论文中,美国斯坦福大学研究提醒:大语言模型(LLM)在识别用户错误信念方面存在明显局限性,仍无法可靠区分信念还是事实。研究表明,当用户的个人信念与客观事实发生冲突时,LLM往往难以可靠地作出准确判断。
该研究成果以“LLM4CP: Adapting Large Language Models for Channel Prediction”为题受邀发表于期刊Journal of Communications and Information Networks上。 精确的信道状态信息(CSI)对于B5G/6G MIMO无线通信系统性能保障至关重要。然而,在高速移动场景下,信道相干时间大大缩短,传统 ...
大模型微调正从“实验室专属”走向“人人可及”。英伟达近日发布面向初学者的LLM微调官方指南,系统性详解如何在从GeForce RTX笔记本到DGX ...