|
ICML 2024|SLAB:华为开源,通过线性注意力和PRepBN提升Transformer效率 AIWalker · 公众号 · · 6 月前 · 访问文章快照 |
|
DALL-E 3不到50%,SDXL仅24.92%!各大SOTA文生图模型为啥这么难符合常识? AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
LSTM又火了!最新52个创新思路+全部开源代码! AIWalker · 公众号 · 科技自媒体 · 7 月前 · 访问文章快照 |
|
LSTM又火了!最新52个创新思路+全部开源代码! AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
用ViT取代Encoder!VIM:使用 ViT 改进的 VQGAN 进行矢量量化图像生成(ICLR 2022) AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
HAFormer:融合 CNN 与 Transformer 的高效轻量级语义分割模型 ! AIWalker · 公众号 · 科技媒体 · 7 月前 · 访问文章快照 |
|
英伟达也对 Mamba下手了 ,视觉 Transformer 与 Mamba 的完美融合 ! AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
扩散模型的低比特量化方案探索,Q-DM:性能比肩全精度模型相当|扩散模型经典解读 AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
缝合怪系列 | 82个必备即插即用缝合模块!附下载 AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
绝地归来!英伟达等提出JeDi:无需微调,个性化图像生成新SOTA![CVPR 2024] AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
ECCV'24|清华黄高团队提出Agent Attention:无缝集成Softmax和Linear的注意力机制 AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
EfficientMod:微软出品,高效调制主干网络 | ICLR 2024 AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
TraceNet: 移动设备上的一种实用、高效实例分割模型 ! AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
结合卷积与变换,Perspective+ Unet 提升图像分割的性能与效率! AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
Mamba+Transformer!昆仑万维提出用于Diffusion的新架构Dimba! AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
魔芯科技、中科大提出仅将 UMamba 的 Mamba 替换为 xLSTM,就能在各种2D和3D图像分割中取得SOTA表现! AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
从 CNN 到 Mamba | PyramidMamba 网络的语义分割优势,解决多尺度特征融合中的语义冗余问题 ! AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
顶会ECCV | 16个领域200个新思路,附代码与论文PDF AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
自回归解码速度提高64 倍!MaskGIT:双向Transformer的图像生成新范式|LVM经典解读 AIWalker · 公众号 · · 7 月前 · 访问文章快照 |
|
从 Mamba 到 RWKV-SAM | 速度提高2倍,分类和语义分割都优于 Mamba 模型 ! AIWalker · 公众号 · · 7 月前 · 访问文章快照 |