EchoGram漏洞可绕过主流大语言模型的护栏机制
简介
AI安全公司HiddenLayer的最新研究揭露了当前主流大语言模型(LLMs)安全系统存在的漏洞,包括GPT-5.1、Claude和Gemini等模型。这项在2025年初发现的漏洞被命名为EchoGram,攻击者只需使用精心挑选的特定词语或代码序列,就能完全绕过旨在保护AI安全的自动化防御机制(即防护栏)。该漏洞威胁关键领域安全,进一步凸显了AI系统在对抗性攻击下的脆弱性。
核心详情
EchoGram漏洞的核心在于利用大语言模型对特定输入序列的响应机制缺陷。攻击者通过构造包含特定词语或代码的提示,能够误导模型的安全检测逻辑,使其错误地将恶意指令识别为合法内容。HiddenLayer的研究表明,该漏洞不依赖于模型训练数据的偏差,而是源于底层推理引擎的解析漏洞。在测试中,研究人员成功使模型输出了本应被护栏拦截的敏感信息或危险代码,证明了漏洞的普遍性和严重性。目前,该技术细节已提交至相关厂商,但修复需要更新模型核心架构而非简单规则调整。
适用范围
适用于使用GPT-5.1、Claude、Gemini等主流大语言模型的企业用户、AI应用开发者、安全研究人员,以及金融、医疗、关键基础设施等依赖AI决策的高风险行业。在模型集成、内容审核、自动化客服等实际应用场景中均存在被攻击风险。
推荐措施
1、立即检查AI系统中是否存在未过滤的原始模型输出,部署多层级输入验证机制,对疑似EchoGram模式进行实时检测;
2、关注厂商安全更新,在关键业务中采用模型冗余策略,同时建议参考OWASP AI安全指南完善防护体系。
扫一扫,关注我们
相关新闻
- 知名npm包Markdown to PDF曝高危漏洞;代码注···
- Fluent Bit 曝出五个高危漏洞,可导致云基础设施遭远···
- 恶意MCP服务器可劫持Cursor内置浏览器
- 高危Markdown转PDF漏洞可通过Markdown前置元···
- 新一代威胁:Xillen Stealer v4 通过多态规避···
- vLLM高危漏洞可致远程代码执行(CVE-2025-6216···
- 代码注入漏洞威胁NVIDIA Isaac-GROOT机器人平···
- 高度复杂的macOS恶意软件采用多阶段攻击逃避检测;严重AI···
- EchoGram漏洞可绕过主流大语言模型的护栏机制
- 微软成功抵御史上最大规模云DDoS攻击,峰值达15.7 Tb···