AI Infra Dao

AI Infra Brief|电信级 AI 基础设施与 Agent 工具链(2026.03.03)

2026 年 3 月 3 日,MWC 大会推动电信级 AI 基础设施发展,开发者工具链全面拥抱 Agent,开源生态涌现可验证 ML 框架,端侧推理持续突破。

🧭 核心速览

🏢 华为 SuperPoD 支持单集群 8192 NPU

🌐 软银从运营商转型 AI 基础设施提供商

🔧 GitHub 发布 Agentic Workflows 技术预览

🌐 UfiSpace 推出 1.6T 开源网络交换机

💻 SK Telecom 主权模型目标超万亿参数

⭐ Vera 语言为 LLM 引入 Z3 形式化验证

📱 MLX-Swift 实现 iOS 端侧 Qwen3-TTS 推理

算力与云基础设施

🏢 华为 SuperPoD:8192 NPU 规模,百纳秒级延迟

根据 Huawei 官方新闻 报道,华为在 MWC 发布 SuperPoD 系统,推出 Atlas 950 和 TaiShan 950 两款新设备。Atlas 950 单柜集成 64 个 NPU,可扩展至 8192 个 NPU;TaiShan 950 针对 AI 推理优化,实现百纳秒级延迟和 TB 级带宽。UnifiedBus 互连技术将数千节点连接为一台计算机。

SuperPoD 面向 Agent 时代计算需求,通过软硬协同设计提升大规模 AI 集群的稳定性和效率。

🌐 UfiSpace 推出 1.6T 开源网络方案,支持 GPU 密集集群

根据 Newswire 报道,UfiSpace 在 MWC 发布 AI 优化的 1.6T 开源网络产品组合。S9331-64HO 交换机提供 102.4 Tbps 带宽,用于连接密集 GPU 集群;S9630-32HO 支持线速 MACsec/IPsec 加密,传输距离达 400 公里。

开源网络方案正在成为大规模 AI 集群数据中心的重要选择。

🌐 软银 Telco AI Cloud:从运营商到 AI 基础设施提供商

根据 Eqs-news 报道,软银宣布 Telco AI Cloud 愿景,结合 GPU 云、AI-RAN MEC 平台和 Infrinia AI Cloud OS,核心产品 AITRAS 构建于其全国网络之上的分布式 AI 织网。

软银正从传统电信运营商转型为 AI 基础设施提供商,利用其全国光纤网络优势构建 AI 时代的社会基础设施。

国家与产业 AI

💻 SK Telecom AI Native 战略:主权模型超万亿参数

根据 Bennington Banner 报道,SK Telecom CEO 在 MWC 发布 AI Native 战略,聚焦 1GW 级超大规模 AI 数据中心、集成 AI Agent 以及目标超 1 万亿参数的主权模型。

韩国电信运营商正通过主权模型和超大规模数据中心布局 AI 基础设施。

开发者工具与平台

🔧 GitHub Agentic Workflows:在 Actions 中运行受控 AI 任务

根据 GitHub BlogPostman Blog 报道,GitHub 发布 Agentic Workflows 技术预览,支持在 GitHub Actions 中运行受控 AI 任务,同时推出 runner scale-set 自动扩缩容和 Gemini 3.1 Pro 集成。Postman 发布 AI 原生平台,在 git-native 工作台和实时 API Catalog 之上增加 Agent Mode。

开发者平台全面拥抱 Agent,从 API 测试到 CI/CD 工作流,AI Agent 正在成为标配能力。

开源生态与框架

⭐ Vera:为 LLM 设计的 MIT 许可编程语言

根据 Reddit 讨论,Vera 是一个专为 LLM 设计的 MIT 许可编程语言,支持类型化 De Bruijn 索引、Z3 形式化验证契约以及编译器生成的自然语言修复。Vera 通过形式化方法提升 LLM 生成代码的可靠性。

⭐ TorchLean:Lean 4 框架统一 PyTorch 执行与形式化验证

根据 Reddit 讨论,TorchLean 是基于 Lean 4 的框架,将 PyTorch 执行与形式化验证统一,用于证明神经网络的鲁棒性和控制属性。可验证 ML 正在从学术研究走向工程实践。

💻 Memori Cloud:面向 Agent 的 SQL 原生存储基础设施

根据 National Today 报道,Memori Labs 发布 Memori Cloud,提供 SQL 原生的内存基础设施,定位为降低推理成本、快速部署、LLM 无关的 Agent 存储方案。

Agent 专用基础设施正在崛起,存储层针对 Agent 访问模式进行优化。

模型推理与边缘计算

📱 MLX-Swift 端侧 Qwen3-TTS:5-30 秒语音克隆

根据 Reddit 热门讨论,MLX-Swift 在 iOS/macOS 实现 Qwen3-TTS(1.7B/0.6B)端侧推理,通过 Speaklone 应用支持 5-30 秒语音克隆、基于提示词的语音设计以及嵌入量化以控制 iOS jetsam 4GB 限制。

端侧推理持续突破,云无关的本地 AI 能力正在成为移动设备的新常态。

🔍 Infra Insights

本日核心趋势:电信级 AI 织网Agent 工具链成熟可验证 ML 基础设施

华为 SuperPoD 的 8192 NPU 规模和软银 Telco AI Cloud 的全国网络 AI 织网,标志着电信运营商正成为 AI 基础设施的核心玩家 — 它们拥有数据中心之外的另一张国家级网络。GitHub Agentic Workflows 和 Postman Agent Mode 显示,Agent 已从研究概念进入开发者工具链主流程。

Vera 和 TorchLean 的形式化验证尝试,指向 AI 基础设施的关键演进方向:从概率生成走向可验证、可信任的确定性系统。Qwen3-TTS 端侧推理的落地,则让云无关的本地 AI 能力离用户更近一步。