文章预览
研究人员发现医疗大模型极容易被“数据投毒”,产生大量危害民众健康或误导医疗专业人士的错误信息。 近年来,医疗行业开始积极采用GPT-4、LLaMA等大语言模型提高诊断效率、改善患者护理,加快新药研发。人们对AI医疗的热情也空前高涨,“十年内所有疾病都将被治愈”、“AI医生水平超过人类医生”等耸人听闻的报道频频登上热搜。 然而,近日发表在《Nature Medicine》上的一项研究却揭示了一个令人不安的事实:医疗AI大模型容易受到“数据投毒”攻击,可能导致AI生成误导性甚至有害的医疗建议,对患者安全构成重大隐患。 从数据中毒到蘑菇中毒,有毒训练数据正在毁掉医疗AI模型 人工智能的核心原则之一是“输入决定输出”(Garbage in, garbage out)。大模型在训练过程中依赖从互联网大规模抓取的数据,这些数据质量参差不齐甚至被故意植
………………………………