|
LORS:腾讯提出低秩残差结构,瘦身模型不掉点 | CVPR 2024 AIWalker · 公众号 · · 4 月前 · 访问文章快照 |
|
开源!优于Domo AI!!阿里Diffutoon:端到端的高质量视频动漫化方法 AIWalker · 公众号 · · 4 月前 · 访问文章快照 |
|
跳过不重要,关注关键点 ! ToSA ,优化 Transformer 层的标记处理,为密集预测任务削减计算成本 ! AIWalker · 公众号 · · 4 月前 · 访问文章快照 |
|
45个开源的多尺度注意力创新点,顶会都在用! AIWalker · 公众号 · · 4 月前 · 访问文章快照 |
|
拳打开源SOTA脚踢商业闭源的LI-DiT是怎样炼成的?(商汤/MMLab/上海AI Lab) AIWalker · 公众号 · · 4 月前 · 访问文章快照 |
|
Mamba终结Transformer、Transformer力压RNN,浅谈我站Transformer的原因 AIWalker · 公众号 · · 5 月前 · 访问文章快照 |
|
视觉 AI 的「Foundation Model」,已经发展到哪一步?丨CVPR 2024 现场直击 AIWalker · 公众号 · · 5 月前 · 访问文章快照 |
|
从数据采集到部署,手把手带你训练一个高质量的图像分类模型 AIWalker · 公众号 · · 5 月前 · 访问文章快照 |
|
DiG:使用门控线性注意力机制的高效可扩展 Diffusion Transformer AIWalker · 公众号 · · 5 月前 · 访问文章快照 |