文章预览
转自:新智元 【导读】 用英伟达的GPU,但可以不用CUDA? PyTorch官宣,借助OpenAI开发的Triton语言编写内核来加速LLM推理,可以实现和CUDA类似甚至更佳的性能。 试问,有多少机器学习小白曾被深度学习框架和CUDA的兼容问题所困扰? 又有多少开发者曾因为频频闪烁的警报「CUDA版本必须与安装的PyTorch匹配!!!」而企图炸键盘? 无论是TensorFlow还是Pytorch,GPU和CUDA搭配的概念早已深入骨髓。 如果我说,就在昨天,有款为LLM「量身定做」的CUDA-free推理上新了!你激不激动? 原文地址:https://pytorch.org/blog/cuda-free-inference-for-llms/?hss_channel=tw-776585502606721024 那么,让我们紧跟Pytorch的官方技 术博客,一探究竟!看看它是如何将「自由」变为现实! GPU的好搭子CUDA CUDA(Compute Unified Device Architecture)到底是何方神物?为何被视为GPU的好搭子,LLMs的「利器」? 它是
………………………………