近日,PyTorch 官方分享了如何实现无 CUDA 计算,对各个内核进行了微基准测试比较,并讨论了未来如何进一步改进 Triton 内核以缩小与 CUDA 的差距。 在做大语言模型(LLM)的训练、微调和推理时,使用英伟达的 GPU 和 CUDA 是常见的做法。在更大的机器学习编程与 ...
11 月 6 日,PyTorch 创始人 Soumith Chintala 宣布将卸任框架负责人,并离开他就职 11 年的 Meta。 11 月 6 日,PyTorch 创始人 Soumith Chintala 宣布将卸任框架负责人,并离开他就职 11 年的 Meta。这标志着全球最受欢迎的开源深度学习框架之一,进入新的领导阶段。 Chintala 在 ...
PyTorch公开2024 H2发展路线图,增透明度。 【导读】最近,PyTorch团队首次公布了开发路线图,由内部技术文档直接修改而来,披露了这个经典开源库下一步的发展方向。 如果你在AI领域用Python开发,想必PyTorch一定是你的老朋友之一。2017年,Meta AI发布了这个机器 ...
【新智元导读】用英伟达的GPU,但可以不用CUDA?PyTorch官宣,借助OpenAI开发的Triton语言编写内核来加速LLM推理,可以实现和CUDA类似甚至更佳的性能。 试问,有多少机器学习小白曾被深度学习框架和CUDA的兼容问题所困扰? 又有多少开发者曾因为频频闪烁的警报「 ...
AMD宣布ROCm和PyTorch支持已经开放给同是RDNA 3架构的RX 7900 XT显卡,涵盖了RDNA 3架构的所有顶级产品。 AMD上个月已经放出了Ubuntu Linux的ROCm 5.7.1驱动更新,为Radeon Pro W7900和Radeon RX 7900 XTX显卡带来了ROCm和PyTorch支持。而在12月初的AMD Advancing ...
刚刚,才离开 Meta 不久的 Soumith Chintala 发布了一条推文,盛赞 Thinking Machines Lab(以下简称 TML)的人很了不起(incredible)。 与此同时,这位 PyTorch 之父也更新了自己的个人介绍,正式官宣加入 TML,并表示正在这家估值已达 500 亿美元的创业公司「创造新东西 ...
Hexagon‑MLIR是高通技术公司提供的开源AI编译器软件栈,确保用户能够在Hexagon NPU(为高性能、高效AI和生成式AI载荷构建的一款专用AI加速器)上轻松编译和运行Triton内核与PyTorch模型。 此项举措通过探索基于开源MLIR的编译软件栈来补充本公司的商业工具链,为 ...
导语:本书适用于自然语言处理(NLP)和深度学习的新手学习两个领域中的一些重要的知识点。这两个领域研究热点都呈指数增加。由于本书强调深度学习和自然语言处理中的代码实现 本书适用于自然语言处理(NLP)和深度学习的新手学习两个领域中的一些重要的知识点 ...
从“能用”到“好用”,昇腾生态的攻坚战,华为 ...
PyTorch,这一广受欢迎的开源机器学习框架,近期正式推出了其最新版本——2.8版。此次版本更新聚焦于提升量化大语言模型(LLM)在Intel CPU上的推理性能,吸引了众多开发者和研究人员的目光。 在PyTorch 2.8中,开发者团队通过算法优化和技术革新,显著提高了 ...
在硅谷的科技版图上,一场引人瞩目的人才流动刚刚落下帷幕。曾经主导开发PyTorch框架的Soumith Chintala,在正式卸下“PyTorch之父”的头衔后,仅隔24小时便以惊人速度加入了一家名为Thinking Machines Lab(TML)的初创公司。这一举动不仅让行业震动,更被视为技术 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果