注册
登录
专栏名称:
微软亚洲研究院
专注科研18年,盛产黑科技
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
爱可可-爱生活
·
本文提出了一种名为LLC的通用神经符号回归工 ...
·
2 天前
爱可可-爱生活
·
本文提出了一种名为“压缩注意力”的创新方法, ...
·
4 天前
机器之心
·
大模型时代需要什么样的安全水位?火山方舟首度 ...
·
5 天前
爱可可-爱生活
·
[LG]《Weak to Strong ...
·
1 周前
爱可可-爱生活
·
//@爱可可-爱生活:后天开奖,欢迎参与~- ...
·
1 周前
今天看啥
›
专栏
›
微软亚洲研究院
nnScaler:重塑深度学习并行策略,大幅提升训练效率
微软亚洲研究院
·
公众号
·
AI
· 2024-07-22 17:00
文章预览
(本文阅读时间:6分钟) 编者按:深度学习技术已经在图像识别、语音识别、自然语言处理、搜索推荐等多个领域不断展现出巨大的应用价值。然而,随着模型规模的不断增大,深度学习模型的训练变得耗时且昂贵,设计最优的并行策略组合以提高其在多设备上的执行性能是目前该领域的一大挑战。在此背景下,微软亚洲研究院提出 nnScaler 技术,通过一套并行化原语和策略限定搜索的方法来寻求最佳的并行策略组合。这一尝试为寻求深度学习并行策略最优化提供了方案和工具,有效应对了当前的深度学习训练效率难题。相关论文已被计算机系统领域顶级学术会议 OSDI 2024 收录。 目前,深度学习已经透过多种应用形式广泛深入人们的日常生活当中。但随着模型规模的不断增大,其训练变得耗时且昂贵。为此,科研人员不断设计出各种并行策略来提 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
爱可可-爱生活
·
本文提出了一种名为LLC的通用神经符号回归工具,通过结合深度学习-20241118052721
2 天前
爱可可-爱生活
·
本文提出了一种名为“压缩注意力”的创新方法,通过离线语义聚类和在-20241116053704
4 天前
机器之心
·
大模型时代需要什么样的安全水位?火山方舟首度公开「会话无痕」技术细节
5 天前
爱可可-爱生活
·
[LG]《Weak to Strong Learning fro-20241113054328
1 周前
爱可可-爱生活
·
//@爱可可-爱生活:后天开奖,欢迎参与~-20241113061556
1 周前
寻乐猪
·
【成都】近期演出合集
2 月前
学习大国
·
【夜读】5天爬五岳,日行三万步……如此“特种兵式旅行”你咋看?
1 月前