每日资讯
进退维谷:当AI安全“矛”与“盾”皆成靶心
进退维谷:当AI安全“矛”与“盾”皆成靶心
在AI技术狂飙突进的浪潮中,一个核心的悖论正日益尖锐地摆在所有科技公司面前:为提升效率与安全而创造的智能工具,其自身正演变成新的、或许更棘手的风险源头。近日接连爆出的两则新闻,恰好从攻防两端,精准勾勒出这场“以AI守护AI”的安全军备竞赛中所蕴含的深刻困境。
AI工具自身:“敞开的家门”与失控的权限
首先是作为“矛”或“工具”的AI自身曝出严重安全隐患。风靡开发者社区的AI智能体工具OpenClaw,近期被曝出一个令人心惊的致命漏洞(CVE-2026-33579)。该漏洞的严重性评分高达9.8分(满分10分)。
其原理简单得令人不安:OpenClaw的设备配对系统未能验证“批准访问请求的人”是否真的拥有“批准该请求”的权限。这意味着,攻击者仅凭最基本的配对权限,就能申请管理员访问并自我批准,从而无声无息地夺取目标的完全控制权。安全研究员形容其为“从内部解锁的大门”。
更严峻的是,研究人员发现约有63%联网的OpenClaw实例在没有任何身份验证的情况下运行,这使得攻击者甚至无需任何初始账户即可长驱直入。值得注意的是,这已是六周内OpenClaw被披露的第六个与权限配对相关的漏洞,暴露出其底层授权设计存在根本性缺陷。
此案例清晰地揭示,那些被赋予高度自主权、旨在代表用户执行复杂任务的AI智能体,一旦其安全基石出现裂缝,所带来的不再是普通的数据泄露,而是系统控制权的彻底沦陷。
AI防御工具:“强武库”的双刃与主动封锁
而在防御端,旨在作为“盾”的AI同样引发了巨大的伦理与安全焦虑。AI公司Anthropic的最新进展提供了一个绝佳的例证。该公司开发了一个名为Claude Mythos Preview的AI模型,其特长是精准识别软件中的安全漏洞,并且已经发现了“数千个高危漏洞,包括每个主流操作系统和网络浏览器中的漏洞”。
这本是网络安全领域的福音。然而,Anthropic在经过内部深思熟虑后,做出了一个看似矛盾却极具象征意义的决定:不向公众发布该模型。
公司的担忧直指核心:如此强大的漏洞挖掘能力,同样可能被恶意行为者用于邪恶目的,从而对经济、公共安全和国家安全造成“严重”后果。Anthropic的CEO坦言,此举是为了让“网络防御者获得一个先发优势”。
因此,该模型目前仅通过“Project Glasswing”项目,提供给包括亚马逊、谷歌、微软等在内的少数关键基础设施公司及40多个相关组织。公司明确表示,在找到安全部署此类模型的方法之前,暂无广泛发布的计划。
“创造即风险”:科技巨头的创新悖论
将这两个事件并列观之,一个清晰的困境图谱浮现出来:
- 进攻面扩大:AI应用(如OpenClaw)的复杂性与高权限特性,创造了前所未有、可导致彻底失守的新型攻击面。
- 防御面自缚:为应对威胁而生的顶级AI安全工具(如Claude Mythos),因其能力过于强大,其本身的存在与扩散就可能急剧打破攻防平衡,迫使创造者不得不主动“锁入保险箱”。
这正是当前科技巨头,尤其是处于AI前沿的领导者们所陷入的“创新悖论”。技术进步在试图解决老问题的同时,无可避免地催生出新的、甚至更棘手的风险。“以AI治AI”的逻辑闭环,非但没有让世界变得更简单安全,反而将攻防博弈推向了更复杂、更自动化的高阶阶段,形成了某种“道高一尺,魔高一丈”的循环加速。
Anthropic的自我限制是一种审慎,也暴露了行业的普遍焦虑:当一项技术的破坏性潜力与其建设性潜力同样巨大甚至更难控制时,商业发布的传统逻辑便面临挑战。这不仅仅是技术问题,更是治理与伦理的难题。
未来,如何在推动AI赋能的同时,系统性构建与其能力相匹配的安全框架与治理规则,将成为所有参与者必须回答的考题。否则,每一次通往更高效率与智能的尝试,都可能为我们开启一扇更危险的“后门”。
来源
- A frightening OpenClaw vulnerability has been discovered - mashable.com,2026/4/8
- Anthropic limits access to AI that finds security flaws, realizing hackers may use it for exactly that - mashable.com,2026/4/8