文章预览
网络安全研究人员发现,借助大型语言模型(LLMs),可以大规模生成新型恶意的JavaScript代码变体,这些变体将更难被安全防护设备检测。 Palo Alto Networks旗下的Unit 42团队指出:“尽管LLMs难以独立创建恶意软件,但犯罪分子能利用它们重写或混淆现有恶意软件,从而加大检测难度。罪分子可通过提示LLMs执行更自然的转换,使这种恶意软件更难被发现。” 长期来看,通过大量转换,这种方法可能降低恶意软件检测系统的性能,甚至使其误判恶意代码为良性。尽管LLM提供商不断加强安全防护,防止其产生不良输出,但不法分子已开始利用恶意AIGC工具如WormGPT,自动化设计高针对性的网络钓鱼邮件,甚至创造新的恶意软件。 早在2024年10月,OpenAI就披露已封锁20多起企图利用其平台进行非法活动的操作和欺诈网络。 Unit 42表示,他们利用LLM反复重写现有恶
………………………………