关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
今天看啥  ›  专栏  ›  深度图学习与大模型LLM

KDD25 | 大语言模型能否提高图神经网络的对抗鲁棒性?

深度图学习与大模型LLM  · 公众号  ·  · 2025-01-01 09:02
    

文章预览

Can Large Language Models Improve the Adversarial Robustness of Graph NeuralNetworks? 作者: 张中健,王啸,周辉池,于越,张梦玫,杨成,石川 单位: 北京邮电大学,北京航空航天大学,帝国理工学院,中国电信翼支付 摘要: 图神经网络(Graph Neural Networks, GNNs)对对抗攻击,尤其是针对图结构的扰动,具有较高的脆弱性。近年来,许多增强GNNs鲁棒性的方法得到了广泛关注。同时,我们也见证了大语言模型(Large Language Models, LLMs)的显著成功,这使得许多人开始探索LLMs在GNNs领域的潜力。然而,现有研究主要聚焦于通过LLMs提升节点特征,从而改进GNNs的性能。因此,我们提出一个问题: LLMs强大的理解和推理能力能否同样提升GNNs的鲁棒性? 通过实证结果,我们发现尽管LLMs确实可以在一定程度上提高GNNs的鲁棒性,但在面对拓扑攻击时,GNNs的准确率仍然平均下降了23 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览