AI Infra Dao

AI Infra Brief|AI 原生平台、算力交易与安全之争(2026.04.10)

2026 年 4 月 8 日至 10 日,AI 原生平台密集发布,Meta 将小模型推向前端全产品线,Anthropic 算力规模攀升至 3.5GW,Project Glasswing 的安全承诺与中心化风险在社区中引发激烈交锋。

🧭 核心速览

📱 Meta Muse Spark:面向科学、数学和健康推理的小型快速模型,将部署至 Meta 全产品线

🛡️ Anthropic Project Glasswing:Claude Mythos 自动发现零日漏洞,SWE-bench Verified 达 93.9%

🏢 ServiceNow Context Engine:统一企业上下文引擎,告别"副驾驶"AI 模式

💰 Anthropic 与 Google、Broadcom 达成 3.5GW 算力协议,以 TPU 为主

🇮🇳 Turiyam AI 在印度本土 Rudra 1/2 服务器上验证全栈 AI 推理

⭐ Lemonade SDK 10.2:AMD NPU/GPU/CPU 跨平台多模态本地推理

🔧 EdgeSense:符号回归发现可解释控制方程,部署至微控制器

🤖 RoSHI:低成本可穿戴动捕系统(~$350),开源人形机器人策略训练栈

企业级 AI 部署

📱 Meta 发布 Muse Spark:面向全产品线的科学推理小模型

根据 CNBC 报道,Meta 发布 Muse Spark,一款专为科学、数学和健康推理优化的轻量模型。该模型已在 Meta AI 应用中上线,并计划部署至 Facebook、Instagram、WhatsApp、Messenger 及 Ray-Ban Meta AI 眼镜。Meta 正在测试付费 API,并预计未来版本将开源。

将推理优化的小模型嵌入社交和硬件产品线,Meta 正在走一条与 OpenAI、Anthropic 不同的路——不是追求单一强大模型,而是将 AI 能力以"小而快"的形式铺满用户触点。

🏢 ServiceNow Context Engine:统一企业上下文,告别"副驾驶"模式

根据 Stocktitan 报道,ServiceNow 宣布超越"副驾驶"AI 模式,推出统一 Context Engine,让 AI Agent 深度嵌入企业上下文。同时发布了面向 Cursor、Claude Code 和 OpenAI Codex 的新 SDK,预计 2026 年下半年更广泛可用。

ServiceNow 的战略转变值得关注:从"AI 助手"到"上下文驱动的 Agent",核心区别在于 AI 不再是辅助工具,而是直接在业务流程中自主执行。SDK 覆盖三大主流编码工具,意图打通开发者与企业业务之间的最后一公里。

💰 OpenAI 推出 $100/月 Pro 计划

根据 LLM-stats 报道,OpenAI 推出每月 100 美元的 Pro 订阅计划,提供优先推理、GPT-4o 访问权限和高级数据分析工具。这是 OpenAI 在免费版和 Team/Enterprise 之间新增的层级,面向重度个人用户和独立开发者。

Pro 计划的推出反映了 AI 服务的分层趋势:免费层获客、Pro 层变现、Enterprise 层锁定。优先推理意味着在高峰期付费用户获得更快的响应,AI 推理的"QoS"正在成为可售卖的商品。

🏢 Amberd.ai:面向合规行业的私有 LLM 决策平台

根据 Pulse2 报道,Amberd.ai 发布私有、LLM 原生的决策平台,部署在客户环境中,面向合规要求严格的行业。平台强调数据不出域即可完成 AI 决策,适用于金融、医疗等受监管领域。

随着 AI 监管趋严,“私有部署 + LLM 原生"正在成为合规敏感行业的标配需求。Amberd.ai 的定位与 PAI3 Power Node 等本地算力设备形成了互补——一个提供硬件,一个提供软件平台。

安全与治理

🛡️ Anthropic Project Glasswing:零日漏洞自动发现引发安全争议

根据 Hacker News 的激烈讨论(1,042 赞、127 条评论),Anthropic 的 Project Glasswing 使用未发布的 Claude Mythos Preview 模型自动发现零日漏洞,报告 SWE-bench Verified 达 93.9%。项目投入 1 亿美元使用信用额度,仅通过精选合作伙伴提供访问。

社区讨论的核心争议在于:将如此强大的漏洞发现能力集中在一个公司手中,是否会创造单点风险?Anthropic 限制公开发布的决定既被赞为负责任,也被质疑为权力集中。这场争论折射出 AI 安全治理中的深层矛盾。

算力与云基础设施

💰 Anthropic 与 Google、Broadcom 达成 3.5GW 算力协议

根据 TechCrunch 报道,Anthropic 通过与 Google 和 Broadcom 的合作将算力扩展至 3.5GW,以 TPU 为主。这一部署与其在美国 AI 基础设施领域的承诺和快速增长的收入相匹配。

3.5GW 是一个惊人的数字——相当于数百万块 GPU 的功耗规模。Anthropic 选择 TPU 而非 GPU 为主力芯片,反映了 AI 训练基础设施从 NVIDIA GPU 向多元化硬件架构的长期趋势。

🏢 Google 与 Intel 延续 AI 基础设施合作

根据 AI Wire 报道,Google 与 Intel 延续并扩展了 AI 基础设施合作伙伴关系,Xeon 6 用于 AI 推理,并联合开发定制 IPU。这一合作延续了双方在 AI 芯片领域的互补策略。

Xeon 6 在推理场景的定位值得关注:不是所有 AI 推理都需要 GPU,CPU 推理在低延迟、高吞吐的批处理场景中仍有优势。Google 与 Intel 的合作暗示了"异构推理"将成为主流架构。

国家与产业 AI

🇮🇳 Turiyam AI 在印度本土服务器验证全栈 AI

根据 Economic Times 报道,Turiyam AI 在印度 C-DAC 的 Rudra 1/2 本土服务器上验证了全栈 AI 推理能力,包括支持印地语及 37 种方言的大语言模型。这是印度推动 AI 主权的重要一步。

印度正在构建独立于 NVIDIA 生态的本土 AI 基础设施。Rudra 服务器的成功验证意味着在地缘政治紧张的背景下,更多国家将追求 AI 技术自主。

去中心化 AI

🌐 B.AI 发布 AI Agent 金融基础设施

根据 Chaincatcher 报道,B.AI 发布 AI Agent 金融基础设施,整合 Web3、8004 协议身份认证和 x402 标准自主支付。平台为 AI Agent 提供经济身份和自主交易能力。

B.AI 的架构设计直指 Agent 经济的核心问题:身份认证(8004 协议)和支付结算(x402 标准)。这与此前 Luffa 等项目形成呼应——Agent 的经济基础设施正在多路径并行构建。

开源生态

⭐ Lemonade SDK 10.2:AMD 全平台多模态本地推理

Lemonade SDK 10.2 发布,支持在 AMD NPU、GPU 和 CPU 上进行多模态本地推理,并提供可嵌入第三方应用的可部署构件。这一 SDK 为非 NVIDIA 硬件生态的 AI 推理提供了重要工具支持。

AMD AI 软件生态的逐步成熟正在打破 NVIDIA 在推理领域的软件壁垒。NPU/GPU/CPU 的统一编程接口意味着开发者可以更灵活地选择硬件平台。

🔧 EdgeSense:符号回归 + 微控制器部署

根据 GitHub 报道,EdgeSense 通过符号回归发现可解释的控制方程,并直接部署为 C 代码运行在微控制器上,融合了 MicroSafe-RL 安全强化学习方法。项目在边缘 AI 和嵌入式控制领域提供了新的解决方案。

EdgeSense 的价值在于"可解释性 + 极端边缘部署”:不是黑盒模型,而是人类可理解的控制方程,运行在资源极其受限的微控制器上。这对工业控制、机器人等安全敏感场景意义重大。

⭐ Personalized RewardBench:个性化偏好评估基准

根据 GitHubHuggingFace 报道,Personalized RewardBench 在个性化偏好上评估奖励模型,达到 75.94% 的 SOTA 准确率。项目同时发布了数据集。

奖励模型是 RLHF 的核心组件,而个性化评估意味着 AI 对齐不再追求"一刀切"的标准,而是尊重用户个体差异。这对 AI 产品的用户体验有深远影响。

🔍 OpenSpatial:3D 空间推理引擎与数据集

根据 Arxiv 报道,OpenSpatial 发布 3D 数据引擎和 OpenSpatial-3M 数据集,在空间推理任务上实现最高 19% 的相对提升。项目为 3D 理解和空间智能研究提供了新的基准和工具。

空间推理是大模型向物理世界延伸的关键能力。OpenSpatial 的开源数据集和引擎将加速机器人在导航、抓取、场景理解等任务上的发展。

⚡ H100 功耗 profiling 方法论:0.1 秒分辨率

根据 Arxiv 报道,一项新的 H100 功耗分析研究实现了 0.1 秒时间分辨率的工作负载功耗测量,支持自底向上的数据中心能耗建模。这一方法论对 AI 数据中心的能源管理和碳足迹追踪具有实际价值。

随着 AI 算力规模从 MW 级向 GW 级攀升,精确的能耗测量不再是"锦上添花",而是运营刚需。0.1 秒分辨率的粒度足以捕捉单个推理请求的能耗波动。

📡 SL-FAC:自适应频率拆分学习

根据 Arxiv 报道,SL-FAC 提出一种基于自适应频率方法的拆分学习框架,将通信开销降低的同时实现最高 19.78% 的测试准确率提升。该框架适用于分布式 AI 训练中的通信瓶颈场景。

拆分学习在联邦学习和边缘计算中有广泛应用。SL-FAC 的自适应频率方法在通信效率和模型精度之间找到了更好的平衡点。

🤖 RoSHI:低成本开源动捕系统

根据 Roshi-mocap 报道,RoSHI 推出约 350 美元的低成本可穿戴动作捕捉系统,配套开源软件栈,支持训练人形机器人策略。项目大幅降低了机器人学习的数据采集门槛。

动捕数据的采集成本一直是机器人学习的主要瓶颈之一。RoSHI 将成本从数万美元降至数百美元,有望加速人形机器人社区的研究迭代。

社区讨论

🔍 Hacker News:Project Glasswing 安全声明 vs. 中心化风险

Hacker News 上关于 Anthropic Project Glasswing 的讨论获得 1,042 赞和 127 条评论,社区对 Anthropic 限制 Claude Mythos 发布的决定展开了激烈辩论。支持者认为这是负责任的 AI 治理范例,批评者则担忧将强大的漏洞发现工具集中在单一公司手中会创造系统性风险。

🔧 Reddit r/MachineLearning:重建 RL 后训练编排框架"avrid"

根据 Reddit 讨论,开发者正在将 verl 的 RL 后训练编排重建为"avrid"框架,追求更清晰的架构和不可变性。社区对 RL 训练工程化的关注持续升温。

🖥️ Reddit r/LocalLLM:双 3090 自托管编程 Agent 指南

根据 Reddit 讨论,社区分享了使用双 RTX 3090 运行 CodeLlama 70B 或 Qwen-Code-34B(4-bit)自托管编程 Agent 的经验。消费级硬件运行编程 Agent 的可行性正在被持续验证。

⭐ Reddit r/opensource:模块化可插拔 RAG 管线

根据 Reddit 讨论,开发者展示了模块化、可插拔的 RAG 管线,内置 BEIR 评估框架。这种"每层可替换"的架构设计代表了 RAG 工程化的成熟方向。

🔍 Infra Insights

本日核心趋势:AI 原生模型加速产品化渗透算力基础设施从 GPU 向异构架构演进开源工具链覆盖从边缘推理到机器人训练全栈

Meta Muse Spark 的全产品线部署策略和 ServiceNow Context Engine 的推出,标志着 AI 正从"技术能力"变成"产品基础设施"。Anthropic 3.5GW 算力协议以 TPU 为主力,加上 Google-Intel Xeon 6 推理合作,异构计算的趋势愈发明确。开源侧,从 EdgeSense 的微控制器部署到 RoSHI 的低成本动捕,AI 基础设施正在向更广泛的硬件平台和应用场景延伸。