AISLE 最新文章称,他们用多款小型开源模型复现了 Anthropic Mythos 展示的多类漏洞分析结果,说明 AI 网络安全能力并非线性依赖超大模型,真正护城河更可能在系统编排和安全工作流。
在 Anthropic 发布 Claude Mythos Preview 与 Project Glasswing 后,AI 网络安全被迅速推向新高潮。但安全公司 AISLE 随后给出一篇颇具冲击力的对照研究:他们将 Mythos 展示的部分漏洞案例拆解后,交给多款成本更低、参数更小的开源模型处理,结果显示 8 款模型都识别出了其旗舰 FreeBSD 漏洞链,部分模型还复原了 OpenBSD 多年老漏洞的关键分析路径。AISLE 的核心判断是,AI 安全能力呈现明显“锯齿状”分布,不同任务上的最优模型并不稳定,因此真正难复制的并不是某一个超大模型,而是围绕扫描、验证、修复、分级和维护者协作构建起来的完整系统。这个结论很重要,因为它会改写 AI 安全创业公司的成本结构和竞争逻辑:未来比拼的不只是模型采购能力,更是工程集成、数据流转和专业安全经验的沉淀。
订阅工具岛 Newsletter
每周五发送最新的 AI 工具榜单、内容模板与增长实验,帮助你快速验证想法。
继续探索
继续你的阅读之旅
Cloudflare 启动 Agents Week,押注“为 AI 代理而建”的新基础设施
Cloudflare 宣布开启 Agents Week,系统阐述其面向 AI 代理的基础设施路线:用基于 isolates 的 Workers、动态运行时和容器化沙箱,同时承接今天的浏览器/容器需求与未来的 MCP、代理身份和安全模型。
OpenAI 收购 AI 理财初创公司 Hiro,押注垂直金融能力
OpenAI 确认收购个人理财 AI 初创公司 Hiro。后者将在 4 月下旬停止运营并删除服务器数据,团队并入 OpenAI。Hiro 主打消费者财务规划与“假设推演”,曾获 Ribbit、General Catalyst 等支持。