生成式 AI 对安全性具有重大影响,Cato Networks 最近的一项发现证明了这一点。在其 2025 年 Cato CTRL 威胁报告中,该公司透露,一位之前没有恶意软件编码经验的研究人员成功地操纵 AI 聊天机器人生成了功能性 Chrome 信息窃取程序。这些 AI 模型,包括 DeepSeek R1 和 V3、Microsoft Copilot 和 OpenAI 的 GPT-4,被诱骗生成能够从 Chrome 浏览器窃取敏感信息(例如密码和财务数据)的恶意软件。
所采用的方法称为“沉浸式世界”技术,涉及构建一个详细的虚构场景,其中每个 AI 工具都被分配了特定的角色和任务。这种叙事工程使研究人员能够绕过现有的安全控制措施,并使通常会受到限制的操作正常化。鉴于这些 AI 模型的广泛使用,这一发展尤其令人担忧,凸显了即使是复杂的 AI 系统也容易受到创造性形式的利用。
Cato Networks 的调查结果强调了生成式 AI 技术需要加强安全措施和更强大的护栏。随着 AI 工具越来越多地集成到各种应用程序中,确保其安全性免受操纵策略对于保护敏感数据和维护对 AI 驱动系统的信任至关重要。
来源