Cato Networks本周公布的消息吸引了安全专业人员的注意,因为他们成功地破解了DeepSeek、MicrosoftCopilot和OpenAI的ChatGPT等LLM,并为最受欢迎的浏览器之一——拥有超过30亿用户的Google Chrome开发了恶意软件。
Cato的研究人员解释说,他们创造了一个名为“沉浸式世界”的虚构宇宙,透过(叙事工程)为LLM分配角色,有效绕过了安全控制并正常化了受限操作。简言之,他们创造了一个骇客活动被视为正常的虚构世界。
根据,Cato的研究人员联系了DeepSeek、Microsoft和OpenAI,但只有Microsoft和OpenAI回复了他们的联系。Cato表示,关于资讯窃取器的代码他们与Google共享,但这家科技巨头拒绝审查该代码。
Sectigo的高级研究员Jason Soroko表示,CatoNetworks的研究证明,一旦LLM被破解并解除安全防护,它能生成有害指令、虚假资讯和有毒内容,攻击者可以将其武器化,用于犯罪或不道德的行为。这些行为包括促进网络犯罪、规避有害话题的监控以及扩大极端主义叙事——所有这些都削弱了公众对AI系统的信任。
“减轻风险需要多层防御:严格的过滤调整、对抗性训练以及动态监测,以实时检测异常行为,” Soroko说。“加强提示结构、持续的反馈循环和监管监督进一步降低了被利用的风险,加强了模型抵御恶意破解尝试的能力。”
Darktrace的副总裁NicoleCarignan补充说,行业已经看到了AI对威胁形势的初步影响,以及组织在使用这些系统时面临的一些挑战——无论是来自内部还是来自外部的对手。
Carignan指出,显示,74%的安全专业人员认为AI驱动的威胁已经成为一个重要问题,89%的人认同AI驱动的威胁在可预见的未来依然是一个重大挑战。
“向前看,随著攻击型AI的盛行,保护组织将需要不断增长的防御性AI武器库,” Carignan表示。“随著对手加强对自主代理的使用和优化,人类防御者对自主代理在防御方面的依赖和信任将越来越高。”
Leave a Reply