文章预览
大型基础模型在实现人工智能领域的最新突破中发挥了核心作用。通过同时将数据集和模型规模扩展到前所未有的水平,这些基础模型在蛋白质结构预测、图像/视频生成、代码生成、聊天机器人等许多领域表现出色。然而,它们的计算和内存成本也急剧增长,使得这些基础模型在实际应用中的部署变得困难,尤其是在资源受限的边缘设备上。此外,巨大的训练成本也显著阻碍了新基础模型的发展,并引发了对巨大能源消耗和二氧化碳排放的担忧。为了解决这些问题,构建有效的模型加速技术对于缩小计算供需之间的差距至关重要。 本论文将涵盖模型加速的三个重要方面。首先,我们将讨论高效表示学习,包括用于高分辨率视觉的EfficientViT(一种新的视觉Transformer架构)和用于条件图像生成的条件感知神经网络(一个新的控制模块)。其次,我们将
………………………………