文章预览
招新小广告CTF组诚招re、crypto、pwn、misc、合约方向的师傅,长期招新IOT+Car+工控+样本分析多个组招人有意向的师傅请联系邮箱 admin@chamd5.org(带上简历和想加入的小组) 本篇原论文《The Dark Side of Function Calling: Pathways to Jailbreaking Large Language Models》 这篇论文探讨了大型语言模型(LLM)中的函数调用功能的安全性问题,并提出了一个新的“越狱函数”攻击方法。该方法利用了对齐差异、用户胁迫和缺乏严格安全过滤的问题。实验结果表明,在六种最先进的LLM中,包括GPT-4o、Claude-3.5-Sonnet和Gemini-1.5-pro等,这种攻击的成功率平均超过90%。作者分析了为什么函数调用容易受到此类攻击的影响,并提出了防御策略,包括使用防御提示。这些发现强调了增强LLM函数调用能力的安全措施的迫切需要,为AI安全性领域提供了新的风险识别、有效攻击方法设计和实际防御
………………………………