文章预览
©PaperWeekly 原创 · 作者 | Jianwu Zheng 单位 | 上海交通大学 研究方向 | 数据管理与人工智能 近年来,神经网络(深度学习)主导了人工智能领域,并推动了大模型技术的蓬勃发展。然而,该论文引发了两个看似不相关却极具启发性的问题,可能会改变我们对现有技术的看法。 论文标题: From Cluster Assumption to Graph Convolution: Graph-based Semi-Supervised Learning Revisited 论文链接: https://arxiv.org/pdf/2309.13599 代码链接: https://github.com/zhengwang100/ogc_ggcm 研究问题 第一个问题聚焦在图深度学习领域: 为什么图神经网络(GCNs)会遭遇过渡平滑(oversmoothing)的问题,而传统的浅层方法却没有这种困扰,尽管它们都采用了相似的邻居信息聚合策略? 针对此问题,此论文给出了答案: 相对于传统的浅层方法,典型的 GCNs 是一类“次优”方法。 即 GCNs 在每一层无法同时
………………………………