文章预览
CNN+Transformer 这类结构其实一直都挺火的,核心在于他们的互补性。因为在一些复杂的AI应用中,单个模型很难同时高效处理多种类型的数据。如果结合CNN在图像处理上的强大能力和Transformer在序列数据处理上的优势,就可以增加模型处理的灵活性,提高计算效率。 这种结构也是非常热门的毕业or小论文选择 ,刚刚过去的2024年就有相当多顶会顶刊成果,感兴趣的同学们抓紧。目前CNN+Transformer比较常见的创新就是架构设计创新、注意力机制优化、特征融合策略改进、预训练与微调策略创新、特定领域应用... 本文根据这些方向提供 15个 最新的CNN+Transformer创新点 参考,基本都有代码可复现,帮大家节省了查找的时间,有论文需求的同学可无偿获取,希望大家科研顺利哦! 扫码添加小享, 回复“ 卷结合思路 ” 免费获取 全部论文+开源代码 LEFormer: A hybrid
………………………………