专栏名称: GiantPandaCV
专注于机器学习、深度学习、计算机视觉、图像处理等多个方向技术分享。团队由一群热爱技术且热衷于分享的小伙伴组成。我们坚持原创,每天一到两篇原创技术分享。希望在传播知识、分享知识的同时能够启发你,大家一起共同进步(・ω<)☆
目录
相关文章推荐
GiantPandaCV  ·  kimi ...·  昨天  
GiantPandaCV  ·  [KV ...·  3 天前  
GiantPandaCV  ·  NVIDIA Nemotron-4 ...·  1 周前  
GiantPandaCV  ·  MLIR_对自定义IR ...·  6 天前  
今天看啥  ›  专栏  ›  GiantPandaCV

一个Tensor在深度学习框架中的执行过程简单梳理

GiantPandaCV  · 公众号  · 3D  · 2022-01-27 16:36
❝撰文:BBuf。审稿:王迎港。0x0. 前言相信看到这篇文章的人都对深度学习框架是有所了解和熟悉的,也多多少少会使用Python写一些神经网络相关的代码。例如我们可以在PyTorch写出下面的代码:import torchx = torch.tensor([-1.0, 2.0], device="cuda")y = torch.relu(x)print(y)使用PyTorch运行之后我们会获得如下结果:tensor([0., 2.], device='cuda:0')对于x这个输入Tensor来说,它被喂给了relu这个Op,然后输出结果,一切看起来都很简单和正常。但如果有人问你是否清楚这背后到底发生了什么,relu这个Op对应的Cuda Kernel是在什么时候被GPU调用的,相信一部分人是不会很清楚的。因为包括我的大多数人习惯在舒适区使用深度学习框架,对背后的原理可能没有深入了解,所以回答不了也很正常。这篇 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照