随着企业积极导入AI自动化技术,AI 代理人(AI Agents)正逐渐成为组织内的新成员。根据 Anthropic 资讯安全长於今年四月的预测,未来一年内,具备企业凭证的 AI 虚拟员工将正式上线,从辅助工具进化为能自主决策的「数位同事」。Salesforce 也已率先推出 AI「数位工作夥伴」,显示这股趋势正快速成形,预估未来两年内部署量将成长超过三倍。
然而,这场变革并非全然无虞。Palo Alto Networks 产品管理??总裁 Elad Koren 指出,AI 代理人的崛起,正带来一场创新与风险并存的安全挑战。不同於传统自动化脚本,这些 AI 代理人以企业凭证登入系统、具备自主行动与决策能力,能执行高敏感度任务,风险程度可与真实员工相当。一旦遭到操控,其造成的破坏甚至可能远超人类内部人员。
AI 代理人最大的脆弱点在於「缺乏语境与意图理解」。它们容易受到提示注入(Prompt Injection)与对抗性输入(Adversarial Input)等技术攻击,误执恶意指令、外泄资料或被迫滥用系统工具。过去资安领域将人类视为防线中最脆弱的一环,如今 AI 代理人正取而代之,成为更高效率却更难防范的新攻击目标。
面对这一趋势,企业必须重新思考资安架构。当非人类帐号数量已超越人类使用者,传统以「人」为核心的防御思维已不足以因应新局。资安组织 OWASP 近期发布的《Agentic AI 威胁与缓解指南》指出,提示注入、身份伪造与工具滥用已成主要攻击手法;Palo Alto Networks 的 Unit 42 研究亦强调,这些攻击能在短时间内造成大规模资料外泄与系统入侵。
为此,Palo Alto Networks 推出 Prisma AI Runtime Security (AIRS),协助企业全面防护 AI 应用、模型与代理人。该平台具备 AI 模型扫描、AI 安全态势管理、AI 红队测试与运行阶段防护等功能,并可防范提示注入、身份冒用与工具滥用等攻击。
AI 代理人带来的效率革命正加速企业数位转型,但若忽视其潜在风险,这些「AI 员工」恐将成为企业内部最危险的威胁来源。唯有将 AI 纳入现代化资安体系,企业才能在自动化浪潮中安全前行。