专栏名称: AI前线
InfoQ十年沉淀,为千万技术人打造的专属AI公众号。追踪技术新趋势,跟踪头部科技企业发展和传统产业技术升级落地案例。囊括网站和近万人的机器学习知识交流社群。
今天看啥  ›  专栏  ›  AI前线

清华汪玉教授团队支招:如何把“大”模型部署到“小”设备上 | Q福利

AI前线  · 公众号  · AI  · 2024-07-13 13:30

文章预览

2024 年,由 AI 驱动的 GPT-4o 等应用产品爆红。这些热门产品的广阔应用前景令人振奋,吸引了大量资源投入 AI 的算法研究、数据清洗、算力等方面的基础建设中。 这些爆款应用是由大数据训练的大模型支撑的。 举例来说,近年来,大语言模型的训练数据和模型的体量迅速增长,从 2017 年发布的有 1.65 亿参数量的 Transformer,到 2020 年发布的有 1750 亿参数量的 GPT-3,再到 2022 年发布的 ChatGPT 应用背后的模型也至少有数百亿参数量。 这样的训练数据和模型体量的增长带来了模型能力的提升,让大模型“涌现”出指令跟随、上下文学习等能力,展示出“通用”的生成能力。 有目共睹的是,生成式任务的智能算法模型扩大,对算力的需求急剧增加。 在这个背景下, 高效深度学习领域 显得尤为关键,得到了广泛关注。 如何将“大”模型(参数量大、计算 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览