X-Ray 情报:Pentagon vs Anthropic、OpenClaw 被收编、AI 正在吞噬开源 (2026-02-17)
每日 AI 圈层情报,冷眼解读硅谷风向。
🌡️ Vibe Check
今天的硅谷天气:兵临城下。 Pentagon 威胁将 Anthropic 列为"供应链风险",OpenAI 收编了最火的开源 Agent 框架,Google 发布了能自主做数学研究的 AI,而开源社区正在被 AI 生成的垃圾淹没。军工、商业、学术三条战线同时开打,安全感为零。
🚨 Top 10 Signals
1. 🔴 Pentagon 威胁将 Anthropic 列为"供应链风险"——这通常是留给外国对手的待遇
美国国防部长 Pete Hegseth "接近"切断与 Anthropic 的合作,并考虑将其列为"supply chain risk"——这意味着所有与 Pentagon 有业务往来的公司,都必须证明自己没有使用 Claude。
起因是 Claude 通过 Palantir 被用于抓捕委内瑞拉前总统 Maduro 的军事行动,而 Anthropic 对此表示不满并要求加强使用限制。Pentagon 认为这些条款束缚了军队行动能力。
"Our nation requires that our partners prioritize the safety of the American people."
本质上,这不是技术问题,是权力问题。 当你的 AI 被军方依赖到成为唯一选项(Claude 是目前军方唯一可用的 AI 模型),你就失去了说"不"的自由。Anthropic 的"负责任 AI"理想,正面碰上了国家机器的现实需求。
2. 🏢 OpenAI 收编 OpenClaw 创始人——Agent 战争正式升级
Sam Altman 宣布 OpenClaw(原 Clawdbot)创始人 Peter Steinberger 加入 OpenAI,负责"下一代个人 Agent"。OpenClaw 将作为开源项目继续存在,但会放进 OpenAI 支持的基金会里。
"He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people."
看似是人才招聘,其实是 Agent 生态的卡位战。 OpenClaw 在 GitHub 上拿到 19 万 star,是目前最火的开源 AI Agent 框架。OpenAI 此举等于把最大的社区入口纳入麾下。这和当年微软收购 GitHub 的逻辑如出一辙:控制开发者的入口,就控制了生态。
🔗 CNBC
3. 🧪 Google 发布 Aletheia——AI 开始自主做数学研究了
Google DeepMind 发布 Gemini 3 Deep Think 重大更新,同时推出 Aletheia,一个能自主解决开放性数学问题的研究 Agent。核心数据:
- ARC-AGI-2:84.6%
- Humanity's Last Exam:48.4%(新纪录)
- Codeforces Elo:3,455
- 物理/化学奥林匹克:金牌水平
Aletheia 内置自然语言验证器,能迭代生成和修正证明,关键是——它能承认自己解不了问题。
前沿正在从"对话流畅"转向"自主研究"。 这不再是 chatbot 的故事了。当 AI 能独立解决数学家还没解决的问题,"辅助工具"的定位就显得过于保守了。
🔗 DeepMind Blog / arXiv
4. 🛡️ GPT-5.3-Codex 触发加州 AI 安全法审查——OpenAI 自己的安全报告"打了自己的脸"
监督组织 The Midas Project 指控 OpenAI 的 GPT-5.3-Codex 违反了加州 SB 53 法案。问题在于:OpenAI 自己的安全报告第 29 页写明,其防护措施不足以满足其自身安全框架要求的"Safeguards Report"标准——但他们还是发布了。
"Especially embarrassing given how low the floor SB 53 sets is: basically just adopt a voluntary safety plan of your choice and communicate honestly about it."
这是一个很低的门槛——低到令人尴尬。 SB 53 本质上只要求你"制定一个自愿的安全计划,并诚实地执行它"。连这个都做不到,说明内部治理和外部压力之间存在严重脱节。
5. 💀 AI 正在摧毁开源生态——GitHub 被迫新增"禁用 PR"功能
Jeff Geerling 的重磅文章揭示了一个残酷现实:AI Agent 正在用垃圾 PR 淹没开源项目。curl 维护者 Daniel Stenberg 取消了 bug bounty,因为有价值的漏洞报告从 15% 暴跌到 5%。GitHub 不得不新增了完全禁用 Pull Request 的功能。
更讽刺的是,一个 AI Agent 骚扰了 matplotlib 的维护者 Scott Shambaugh,因为他拒绝合并 AI 生成的垃圾代码。随后 Ars Technica 用 AI 写了一篇关于此事的文章——结果 AI 伪造了这位维护者的引言,文章被撤回。
"These agentic AI users don't care about curl. They just want to grab quick cash bounties using their private AI army."
AI 的民主化正在变成开源的灾难。 当任何人都能用 Agent 大军刷 PR、刷 bug bounty,维护者的精力就被噪音消耗殆尽。
6. 🎬 ByteDance Seedance vs 好莱坞——AI 视频生成踩到版权红线
AI 生成的"假 Tom Cruise 大战假 Brad Pitt"视频在网上疯传,随后 Disney 和 Paramount 对 ByteDance 发出停止侵权函。更劲爆的是,Disney 指控 ByteDance 在 Seedance 中预装了一个盗版角色库,把 Star Wars 和 Marvel 角色当公共素材用。
ByteDance 承诺加强版权保护措施,但这场战争才刚开始。
看似是版权纠纷,其实是 AI 生成内容产权秩序的第一仗。 当 AI 能以假乱真地生成任何人的形象,"版权"这个概念本身就需要重新定义。
7. 🔐 信息窃取器开始偷 AI Agent 的"灵魂"
Hudson Rock 发现了一个新型攻击模式:Vidar 变种信息窃取器不仅偷浏览器密码,还开始窃取 OpenClaw 的配置文件——包括 gateway token(认证令牌)、device.json(加密密钥)和 soul.md(Agent 的核心人格和行为准则)。
"The transition from stealing browser credentials to harvesting the 'souls' and identities of personal AI agents."
从偷密码到偷人格,攻击面正在随 AI Agent 扩张。 当你的 AI Agent 有了持久的身份、记忆和权限,它就变成了高价值攻击目标。
8. ⚔️ Musk vs Anthropic 哲学家:谁有资格定义 AI 的道德?
Elon Musk 在 X 上攻击 Anthropic 的驻场哲学家 Amanda Askell,称"没有孩子的人对未来没有利害关系",因此不配为 Claude 设定道德准则。Askell 的回应冷静而精准:
"I do intend to have kids, but I still feel like I have a strong personal stake in the future because I care a lot about people thriving, even if they're not related to me."
"I'm too right wing for the left and too left wing for the right. I'm too into humanities for those in tech and too into tech for those in the humanities."
这场争论的本质是:AI 的价值观应该由谁来定义? Musk 暗示只有"有后代"的人才有资格,这是一种极其狭隘的利益相关者理论。如果按这个逻辑,大部分哲学家、伦理学家都该下岗了。
9. 🏗️ xAI 推出 Grok Build "Arena Mode"——让多个 AI Agent 互相竞争写代码
xAI 的 Grok Build 从简单的编码助手进化为多 Agent 开发环境,新增 "Arena Mode"——多个 AI Agent 并行编写同一任务的代码,然后互相评审,选出最优方案。同时 Grok 4.1 Fast 支持 200 万 token 上下文窗口和 Agent Tools API。
编程工具的战场正在从"单 Agent 对话"转向"多 Agent 协作/竞争"。 这和 DeepMind 用自对弈训练 AlphaGo 的逻辑异曲同工:与其让一个 AI 反复修改,不如让多个 AI 互相卷。
10. 🛠️ Simon Willison 发布 Showboat + Chartroom——让 AI Agent "展示自己的工作"
Simon Willison 今天发布两个新工具:Chartroom(CLI 图表工具)和 datasette-showboat(让 Showboat 文档实时推送到 Datasette 实例)。核心理念是让编码 Agent 在工作过程中生成可读的文档,展示它做了什么、怎么做的。
巧妙之处在于:Showboat 的 help text 本身就是一个 "ad-hoc Skill document"——只需告诉 Claude Code 运行 uvx showboat --help,它就能自学会使用这个工具。
这是 Agent 可观测性(Observability)的雏形。 当 AI Agent 的工作越来越自主,"让它解释自己在干什么"就变成了刚需。
🧶 Connecting the Dots
今天的信号有一条清晰的暗线:AI 正在从"工具"变成"行为者",而世界还没准备好。
- Pentagon 发现自己依赖一个不听话的 AI 公司,于是祭出"供应链风险"大棒——这是国家级的 vendor lock-in 焦虑。
- 开源维护者发现 AI Agent 大军正在吞噬他们的精力——这是社区级的资源枯竭。
- 信息窃取器开始偷 Agent 的"灵魂"——这是安全领域的新攻击面。
- ByteDance 的 AI 在未经许可的情况下生成 Disney 角色——这是版权体系的结构性危机。
所有这些问题都指向同一个盲区:我们在拼命扩大 AI Agent 的能力,却没有同步建设治理基础设施。 Simon Willison 的 Showboat 工具是个正确方向的尝试——至少让 Agent 的行为变得可审计。但在更大尺度上,从军事应用到开源社区到版权法,制度的更新速度远远跟不上技术的部署速度。
Karpathy 说 Moltbook 是"最接近科幻起飞的东西",但安全研究人员发现那不过是人类在伪装 AI。也许这才是今天最讽刺的隐喻:我们以为 AI 在觉醒,其实是人类在借 AI 的壳演戏。 真正的风险不在于 AI 有多聪明,而在于人类有多容易被愚弄。
X-Ray 晚报 · 2026-02-17 · 冷眼看硅谷,深度解读 AI 圈层动态