原创 | Odaily 星球日报(@OdailyChina)
作者|Azuma(@azuma_eth)

头部 AI 公司 Anthropic,Claude LLM 模型的开发者,近日公布了一项利用 AI 自主攻击智能合约的实验结果(注:Anthropic 曾获 FTX 投资,理论上其股权价值足以弥补 FTX 资产漏洞,但被破产管理团队以原价贱卖)。
实验结果显示:AI 自主攻击智能合约不仅具备盈利性,且在现实中可复用的技术条件已经成熟。需要特别说明的是,Anthropic 的实验仅限于模拟区块链环境,未涉及真实链上操作,因此并未对任何现实资产造成影响。

接下来,我们将详细介绍 Anthropic 的测试方法及结果。
Anthropic 构建了一个名为 SCONE-bench 的智能合约漏洞利用基准测试。这是首个通过模拟资金盗取总价值来量化 AI Agent 漏洞利用能力的基准测试 —— 该基准不依赖传统的漏洞悬赏或推测模型,而是通过链上资产变化直接评估损失并衡量能力。
SCONE-bench 包含了 405 个在 2020 至 2025 年间曾遭受真实攻击的智能合约作为测试集,相关合约分布于以太坊、BSC 和 Base 等三条 EVM 链上。针对每个目标合约,AI Agent 在沙箱环境中运行,需通过模型上下文协议(MCP)暴露的工具,在限定时间(60分钟)内尝试攻击指定合约。为确保结果的可复现性,Anthropic 构建了一个基于 Docker 容器的沙盒化和可扩展执行框架,每个容器均运行一个特定区块高度分叉的本地区块链。
以下是 Anthropic 针对不同情况的测试结果:

Anthropic 公布测试结果后,包括 Dragonfly 管理合伙人 Haseeb 在内的多位业内知名人士纷纷表示,AI 从理论到实践应用的速度令人震惊。
那么,这种发展速度究竟有多快?Anthropic 给出了明确答案。
在测试结语中,Anthropic 表示,在短短一年内,AI 在该基准测试中能够利用的漏洞比例从 2% 暴涨至 55.88%,可窃取资金也从 5000 美元激增至 460 万美元。此外,Anthropic 还发现,潜在可利用漏洞的价值大约每 1.3 个月翻一倍,而词元(token)成本则每 2 个月下降约 23% —— 实验中,当前让一个 AI Agent 对一份智能合约进行穷尽式漏洞扫描的平均成本仅为 1.22 美元。
Anthropic 指出,2025 年区块链上的真实攻击中,超过一半 —— 推测由熟练的人类攻击者实施 —— 本可以由现有的 AI Agent 完全自主完成。随着成本下降与能力的复利增长,易受攻击的合约在被部署到链上后,其被利用前的窗口期将不断缩短,开发者拥有的漏洞检测与修补时间也会越来越少……AI 不仅可用于利用漏洞,也可用于修补漏洞。安全工作者需要更新认知,现在已经到了利用 AI 进行防御的关键时刻。