OpenAI 近日承认,包括 ChatGPT Atlas 在内的现代 AI 浏览器工具仍易遭受通过隐藏恶意指令发起的攻击。这一问题被称为 “提示注入”,被业界视为 AI 代理系统在根本上难以克服的安全挑战。攻击者可将恶意指令嵌入电子邮件、文档或网页等看似正常的内容中,一旦 AI 代理在处理此类材料时将其纳入任务流程,便可能在无意中执行攻击者预设的操作。

专家普遍认为,要从技术上完全消除这类威胁几乎不可行。AI 代理的设计允许其在浏览器中代表用户执行操作,这一机制本身已极大扩展了潜在的攻击界面。
为应对相关风险,OpenAI 已为 ChatGPT Atlas 浏览器发布更新,通过进一步优化模型训练与增强安全机制,旨在提升代理对第三方隐藏指令的“免疫力”,使其更严格地遵循用户明确下达的指令。

安全专家同时建议用户采取以下措施,以降低使用 AI 代理时的潜在风险:
尽可能限制代理对重要账户的访问权限,若非必要,建议在无需身份验证的模式下运行任务;
在执行涉及财务交易或敏感数据操作前,仔细复核代理请求并予以人工确认;
向代理发出指令时应尽量具体,避免使用如“处理我的所有邮件”这类模糊表述,明确、有限的任务范围更为安全。

应对提示注入被视为一场长期攻防,其过程类似于持续对抗网络欺诈。OpenAI 与行业其他参与者的策略立足于构建多层防御体系、开展持续测试与快速迭代更新。其目标并非彻底“解决”问题,而是通过不断提高攻击者的实施成本与难度,从而将现实威胁控制在可接受的最低水平。
ChatGPT Atlas 开发者:AI 代理的漏洞“无法修复”