Hyperspace Pods:把家裡的電腦組成私有 AI cluster,免費跑 Qwen、Llama
三個步驟:安裝 CLI、建立 Pod、把邀請連結發給朋友。幾台電腦自動組成 mesh,開始跑模型。
這就是 Hyperspace Pods 的完整上手流程。
它在解決什麼問題
跑本地 AI 模型有一個硬門檻:你需要一台夠強的機器。Qwen 3.5 要跑得順,至少得有 16GB RAM,最好有獨立 GPU。
Pods 的思路是:把門檻從「一台好機器」變成「幾台普通機器加起來」。
一台 MacBook Pro + 一台桌機 + 一台舊 ThinkPad,三台合在一起的記憶體和運算力,往往比任何一台單機都強。
架構:mesh 怎麼形成
底層用的是 libp2p,也就是 IPFS 在用的同一套 P2P 協議。節點加入後自動透過 DHT(分散式哈希表)互相發現,不需要手動設定 IP 或 port forwarding。
推理請求的路由順序:
- 本機有能力 → 直接本機跑
- 本機不夠 → DHT 找最近的空閒節點
- 找不到 → gossip 廣播給整個 mesh
支援的模型與硬體
Pods 目前支援的模型包括 Qwen 3.5、Llama 3 系列、Mistral 等主流開源模型。硬體支援方面:
各硬體推理效能(相對值)
NVIDIA GPU 有完整的 CUDA 加速支援,Apple Silicon 走 Metal/MPS,純 CPU 也能跑,只是速度較慢。
上手流程
# 安裝 CLI
curl -sSL https://hyperspace.computer/install | sh
# 建立新 Pod(成為 host)
hyperspace pod create --name my-cluster
# 加入現有 Pod(其他成員)
hyperspace pod join <invite-link>
# 啟動推理
hyperspace run qwen3.5
整個流程不需要帳號、不需要雲端服務、不需要信用卡。節點之間的通訊是加密的 P2P 連線。
跟其他方案的差別
Hyperspace 不是第一個做 P2P AI 推理的專案,但 Pods 的切入點比較特別:它針對的是小型私有群組,而不是開放的公共網路。
公共版本的 Hyperspace 網路有 200 萬個節點,主打把閒置算力賣出去賺積分。Pods 走的是另一個方向:你只跟你信任的人共享算力,資料不離開你的 mesh。
對個人開發者或小團隊來說,這個定位更實用——不需要擔心把 prompt 送到陌生節點,也不需要信任 Hyperspace 的中央伺服器。
Pods 目前還是早期版本,文件和穩定性都在持續更新中。如果你手邊有幾台閒置的機器,值得試試。