Scale-up网络是算力资源纵向扩展网络,用于提供高带宽、低时延与高可靠的GPU互联网络,压缩GPU之间的通信开销,提高算力资源利用率。本文分析了Scale-up网络的技术要求,指出当前RoCE v2与PCIe都不能完全满足Scale-up网络的技术要求,需要从物理层、链路层及事务 ...
GPU的Scale Up互连成为炙手可热的话题,在2024年涌现了众多相关的行业讨论。站在阿里云的视角,什么样的技术以及生态才能满足云上智算集群的发展?为什么采用全新的Scale Up设计而不复用当前的以太网和RDMA技术呢?本文借着行业内的一些事件,对GPU超节点的 ...
在 AI 大模型参数从百亿级迈向千亿级、智算集群规模突破百万卡的今天,“算力聚合” 正成为制约 AI 普惠的核心瓶颈 —— 传统 PCIe 总线、RoCEv2 协议已难以满足超节点内数十甚至数百 GPU 间 “低时延、高带宽、高可靠” 的数据传输需求。 在此背景下,ETH-X Scale ...
2022年至2024年以及2025年上半年,壁仞科技研发开支达到了10.18亿元、8.86亿元、8.27亿元及5.72亿元,分别占该等期间总经营开支的79.8%、76.4%、73.7%及79.1%。三年一期累计研发开支达到了33.02亿元。
光&铜观点: 2026年商用GPU持续放量,也是CSP ASIC进入大规模部署的关键一年,数据中心Scale up催生超节点爆发,铜缆凭短距低耗低成本,成为柜内互联最优解;Scale out带动集群持续扩容,光模块与 GPU配比飙升,产品放量使得光芯片缺口凸显。一铜一光双线共振,互联需求迎来量价齐升,建议重点关注光铜两大核心赛道。
通用人工智能(AGI)领域又出一系列重磅消息。 3月29日上午,IEEE的头版刊登台积电董事长刘德音联合撰写题为《我们如何实现1万亿个晶体管GPU》的文章。 刘德音在文中预测,半导体技术的突破给AI技术带来重要贡献。在未来10年,GPU集成的晶体管数将达到1万亿。
通信世界网消息(CWW)近年来,大语言模型(LLM)的发展备受瞩目,模型参数规模迈向万亿,模型泛化能力增强,可同时处理语言、文字、图像、视频等多种任务。LLM的发展驱动了底层智算基础设施的升级,传统单机8卡的设备形态在支撑模型快速迭代时遭遇瓶颈。
然而,“全能布局”的背后,潜藏着业务重心取舍的难题。9999元的定价策略,也凸显出芯片厂商跨界进入终端领域的生态位风险。这种看似“战线过长”的布局,实则折射出国产GPU厂商在国际霸权生态下的集体困境。
近日,摩尔线程公司正式发布了基于全新“花港”架构的华山GPU芯片。这款芯片在多个关键性能指标上实现了对英伟达最新Blackwell架构产品的超越或匹敌,标志着中国企业在高端GPU研发领域取得了重要突破。下面,我们就来聊聊这款芯片的一些亮点和背后的故事。