如果说2024年是企业还在对生成式AI进行“聊天测试”的一年,那么2025年无疑会被定义为“Agent元年”。
IDC发布的报告显示,2025年是AI Agent(智能代理)规模化落地的爆发期。从金融机构的自动理财顾问到电商的自动供应链调度,AI正在从“对话者”进化为“行动者”。当AI Agent被赋予调用工具、访问系统、读取文档乃至自动执行任务的权限,在研发、客服、运维和办公自动化等场景中逐步进入核心业务流程时,一个不容忽视的问题浮出水面:AI Agent被赋予更多行动能力,企业是否已经为其潜在的安全风险做好准备?
在此背景下,相关安全厂商通过并购等方式,将AI原生安全能力纳入整体产品体系,以应对Agent时代不断扩大的攻击面。
相关机构长期关注AI系统本身的安全问题,包括提示注入、模型交互风险以及工作流中的隐蔽攻击路径。这类能力并非传统网络或终端安全的自然延伸,而是从“如何被使用、如何被误导”这一新维度展开。整合策略的目标,是帮助企业理解新型攻击方式并提供现实的防护基线。
2025年第四季度的真实攻击分析显示,攻击者的目标已从模型输出转向AI Agent的内部逻辑与交互机制。其中,系统提示与内部规则的泄露成为最常见且最具价值的目标之一,一旦被获取,攻击者便能更精准地设计后续攻击路径。
四季度大量攻击并非通过直接注入恶意指令完成,而是采用间接方式,例如:
将隐藏指令嵌入文档、网页或检索内容
借助Agent对外部信息的信任机制触发执行
在不引发明显异常的情况下逐步突破防护
此外,还观察到一种明显上升的趋势:攻击者不急于破坏系统,而是通过反复试探与复杂指令组合,对Agent的安全边界进行探测式攻击。这类行为更加隐蔽、持续,传统防护手段难以及时发现。
这些现象表明,AI Agent的风险并非偶发漏洞,而是源于其自动化与信任假设的结构性特征。
面对会行动的AI,传统的防火墙和孤立的模型安全过滤已显得力不从心。这正促使将AI原生防护能力纳入整体安全架构,构建AI时代的主动安全新防线。
首先,在上线前的测试阶段,可利用业内对抗性测试引擎进行安全评估,以揭示逻辑漏洞和指令弱点。这相当于在应用部署前进行实战考核。上线后,相关的解决方案与运行时保护引擎协同工作,能够实时分析AI的意图与上下文;若出现异常访问核心数据或将代码发送到外部服务器的行为,系统将进行拦截。此外,基于威胁情报平台,数据在使用前需经过清洗与验证,只有无毒的数据才能用于AI应用。
安全是AI进化的必经之路。
到2026年,AI安全将不再是可选项。随着法规对网络安全和AI内容标识等的要求逐步落地,企业在部署Agent时需要兼顾合规与安全。引入AI Agent的初衷是提升运营效率,而非带来高权限的潜在风险。通过合适的安全方案,企业可以将防御重点从被动应对转向主动掌控,从而在AI驱动的未来实现更高效的竞争力。
