Eigen Labs 最近推出了一个叫 Darkbloom 的项目,思路很有意思:把全世界闲置的 Mac 电脑串成一个去中心化的 AI 推理网络。

问题背景

现在的 AI 计算链路很长:GPU 厂商 → 超大规模云服务商 → API 提供商 → 最终用户。每一层都要抽成,结果就是贵。

与此同时,全球有超过 1 亿台 Apple Silicon 设备每天大部分时间都在闲置。你的 MacBook、Mac mini、iMac,除了写代码、剪视频的那几个小时,CPU 和 GPU 其实都在空转。

Darkbloom 想做的就是把这两件事接起来。

怎么工作

硬件所有者把自己的 Mac 接入网络,运行一个客户端。当有人需要 AI 推理服务时,任务会被分派到这些闲置设备上执行。

关键点:运营商看不到推理数据。所有请求都是端到端加密的,执行完就删,不会留在设备上。API 是 OpenAI 兼容的,支持聊天、图像生成、语音转文字。

收益方面,运营商保留 95% 的收入。按他们的测算,Apple Silicon 的电费成本大概在每小时 $0.01–0.03,剩下的就是利润。

价格优势

官方数据是比中心化替代方案便宜最多 70%。逻辑也很简单:闲置硬件的边际成本几乎为零,不需要摊销数据中心建设费用,也不需要养活层层中间商。

对于用户来说,调用方式跟 OpenAI API 几乎一样,只是 endpoint 换成 Darkbloom 的。

隐私怎么保证

这是去中心化算力最敏感的部分。Darkbloom 的做法是硬件级加密 + 安全执行环境,确保即使是节点运营者也看不到实际处理的输入和输出。

当然,这种保证能做到什么程度,还需要时间和白帽子的检验。但至少方向上是对的——把数据和算力分离,让模型在靠近用户的地方运行,而不是全部集中到几家云厂商手里。

这代表了什么趋势

AI 算力正在从集中走向分散。一方面是大厂的数据中心越建越大,另一方面是边缘设备的能力越来越强。

Darkbloom 属于后者。它不是在挑战 GPT-5 或 Claude 4 的模型能力,而是在挑战”AI 必须跑在云端”这个假设。如果我的 Mac mini 就能在本地跑 70B 模型,为什么还要把数据发到别人的服务器?

类似的思路还有 @home 的蛋白质折叠、BOINC 的科学计算,但 AI 推理的商业化潜力显然更大。

最后

这个项目刚出来,稳定性和实际体验还有待验证。但它至少证明了一件事:AI 算力的供给方式不只有”买云厂商的 API”这一条路。

如果你有一台常年开机的 Mac mini,或者 MacBook Pro 插着电源放在桌上,也许可以考虑让它在闲置时赚点电费回来。

官网:darkbloom.dev