今天看啥  ›  专栏  ›  南方能源观察

“深度求索”来了,电力不再是AI发展瓶颈?

南方能源观察  · 公众号  · 能源  · 2025-02-05 17:40
    

文章预览

全文 1017 字,阅读大约需要 2 分钟 未经许可严禁以任何形式转载 南方能源观察 微信号:energyobserver 欢迎投稿,投稿邮箱: eomagazine@126.com 姜黎 农历新年期间,笔者问了深度求索(DeepSeek)一个问题:相比GPT-4,你能节省多少算力?以下节选了部分DeepSeek的回答: 目前没有官方公开的详细数据,但可以通过模型架构和已知信息进行合理推测: 模型规模优化:GPT-4的参数量约为1.8万亿(推测),采用混合专家(MoE)架构,训练消耗约2.15e25 FLOPs。DeepSeek公开的模型(如DeepSeek-R1)参数量显著更小(约百亿级),通过稀疏激活和架构优化实现高效计算,理论上训练算力需求 可能降低1-2个数量级 。 实际场景差异:在同等任务下,DeepSeek的推理速度可达GPT-4的3-5倍(部分公开测试数据),显存占用降低约60%。 根据Visual Capitalist网站数据,截至2024年3月,美国拥 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览