文章预览
·聚焦:人工智能、芯片等行业 欢迎各位客官关注、转发 前言 : 近年来,大语言模型领域取得了显著的发展,随之而来的是对算力资源需求的急剧增加。 然而,在当前的市场环境下,如英伟达 A100等高端GPU的供应紧张,成为了行业面临的一大挑战。 尽管如此,这一困境也为众多国产算力厂商带来了寻找新型替代方案的机遇,促使他们积极寻求创新突破。 作者 | 方文三 图片来源 | 网 络 AI大模型的主战场,万卡已是标配 去年5月,Google正式推出的A3 Virtual Machines超级计算机,配备了高达26,000块Nvidia H100 GPU,并辅以自研芯片构建的TPUv5p 8960卡集群。 至今年3月,Meta公开分享了其最新的两个AI训练集群,两者均集成了24,576个Nvidia Tensor Core H100 GPU,相较于前一代的16,000块,有了显著的增长。 OpenAI所开发的ChatGPT-4则包含16个专家模型,共计1.8万亿参数
………………………………