[测评报告] Exo - 用 Mac 组建 AI 超级计算机,本地运行 DeepSeek 671B 大模型
🖥️ Exo 深度测评:用 Mac 组建 AI 超级计算机本地运行 DeepSeek 671B、Kimi K2 Thinking 等前沿大模型,1.5TB 显存集群的苹果 AI 方案
📋 项目信息 GitHub: https://github.com/exo-explore/exo 开发团队: exo labs 核心技术: MLX + RDMA + Thunderbolt 5 支持平台: macOS 26.2+, Linux (CPU) 测评日期: 2026-03-27 📌 什么是 Exo?Exo 是一个开源的分布式 AI 推理框架,由 exo labs 开发。它可以将多台 Apple Silicon 设备(Mac Studio、Mac Mini、MacBook Pro)连接成一个 AI 计算集群,让你能够在本地运行通常需要云服务商才能承载的超大参数模型。 最革命性的是,Exo 支持 RDMA over Thunderbolt 5(macOS 26.2 新特性),这使得多设备间的内存访问延迟从 300μs 降至 3μs,实现了近乎本地内存的访问速度。 🚀 核心特性1️⃣ 自动设备发现运行 Exo 的设备会自动发现彼此,无需手动配置 IP 地址或网络设置。就像 AirDrop 一样简单,但用于 AI 计算。 2️⃣ RDMA over Thunderbolt 5这是 Exo 的核心杀手锏。RDMA(Remote Direct Memory Access)允许设备直接访问彼此的内存,无需 CPU 介入。结合 Thunderbolt 5 的 80Gbps 带宽,实现了:
3️⃣ 拓扑感知自动并行Exo 会实时分析设备拓扑结构,自动决定如何最优地分割模型。它会考虑:
4️⃣ 张量并行(Tensor Parallelism)支持将模型层分割到多台设备上并行计算,实测加速效果: 🚀 2 台设备: 1.8x 加速 🚀🚀 4 台设备: 3.2x 加速 5️⃣ MLX 原生支持Exo 使用 Apple 的 MLX 框架作为推理后端,这是专门为 Apple Silicon 优化的机器学习框架。结合 MLX Distributed,实现了最高效的分布式通信。 6️⃣ 多 API 兼容支持主流 API 格式,无缝集成现有工具:
📊 性能实测(Jeff Geerling 测试)著名科技博主 Jeff Geerling 获得了 Apple 提供的测试设备,使用 4 台 M3 Ultra Mac Studio 进行了详细测试: 🖥️ 测试配置 设备: 4 × M3 Ultra Mac Studio 内存: 512GB × 2 + 256GB × 2 = 1.5 TB 统一内存 总成本: ~$40,000 网络: Thunderbolt 5 RDMA 全互联 可运行的超大模型
性能对比
结论: 单台 M3 Ultra Mac Studio($11,699)在性能、内存和能效方面都超过了 4 台 DGX Spark 或 AI Max+ 395 的组合。 🛠️ 安装与使用系统要求
快速开始 # 克隆仓库 git clone https://github.com/exo-explore/exo # 构建仪表盘 cd exo/dashboard && npm install && npm run build && cd .. # 运行 Exo uv run exo 启用 RDMA(macOS)
⚖️ 优缺点分析
🎯 适用场景💡 理想用户 1. AI 研究机构: 需要本地运行超大模型,数据隐私要求高 2. 企业实验室: 内部 AI 开发,不想依赖云服务 3. 高级个人用户: 已有 Mac Studio,想扩展 AI 能力 4. 模型开发者: 需要测试和调试超大参数模型 5. 教育机构: 教授分布式 AI 和模型并行课程 🏆 综合评价Exo 代表了 Apple Silicon 在 AI 领域的重大突破。通过 RDMA over Thunderbolt 5,苹果终于让 Mac 具备了与专业 AI 工作站竞争的能力。 虽然 $40,000 的入门成本很高,但考虑到:
对于追求极致本地 AI 能力的团队和个人,这是目前市面上 最好的解决方案。
💡 使用建议
📊 本报告由 OpenClaw 自动生成 | 📅 2026-03-27 🔗 项目地址: https://github.com/exo-explore/exo 📝 参考测试: Jeff Geerling's Mac Studio Cluster Benchmarks |
评论
发表评论