跳到主要內容

Hyperspace Pods:把家裡的電腦組成私有 AI cluster,免費跑 Qwen、Llama

三個步驟:安裝 CLI、建立 Pod、把邀請連結發給朋友。幾台電腦自動組成 mesh,開始跑模型。

這就是 Hyperspace Pods 的完整上手流程。


它在解決什麼問題

跑本地 AI 模型有一個硬門檻:你需要一台夠強的機器。Qwen 3.5 要跑得順,至少得有 16GB RAM,最好有獨立 GPU。

Pods 的思路是:把門檻從「一台好機器」變成「幾台普通機器加起來」。

一台 MacBook Pro + 一台桌機 + 一台舊 ThinkPad,三台合在一起的記憶體和運算力,往往比任何一台單機都強。


架構:mesh 怎麼形成

Loading diagram...

底層用的是 libp2p,也就是 IPFS 在用的同一套 P2P 協議。節點加入後自動透過 DHT(分散式哈希表)互相發現,不需要手動設定 IP 或 port forwarding。

推理請求的路由順序:

  1. 本機有能力 → 直接本機跑
  2. 本機不夠 → DHT 找最近的空閒節點
  3. 找不到 → gossip 廣播給整個 mesh

支援的模型與硬體

Pods 目前支援的模型包括 Qwen 3.5、Llama 3 系列、Mistral 等主流開源模型。硬體支援方面:

各硬體推理效能(相對值)

NVIDIA GPU 有完整的 CUDA 加速支援,Apple Silicon 走 Metal/MPS,純 CPU 也能跑,只是速度較慢。


上手流程

# 安裝 CLI
curl -sSL https://hyperspace.computer/install | sh

# 建立新 Pod(成為 host)
hyperspace pod create --name my-cluster

# 加入現有 Pod(其他成員)
hyperspace pod join <invite-link>

# 啟動推理
hyperspace run qwen3.5

整個流程不需要帳號、不需要雲端服務、不需要信用卡。節點之間的通訊是加密的 P2P 連線。


跟其他方案的差別

Hyperspace 不是第一個做 P2P AI 推理的專案,但 Pods 的切入點比較特別:它針對的是小型私有群組,而不是開放的公共網路。

公共版本的 Hyperspace 網路有 200 萬個節點,主打把閒置算力賣出去賺積分。Pods 走的是另一個方向:你只跟你信任的人共享算力,資料不離開你的 mesh。

對個人開發者或小團隊來說,這個定位更實用——不需要擔心把 prompt 送到陌生節點,也不需要信任 Hyperspace 的中央伺服器。


Pods 目前還是早期版本,文件和穩定性都在持續更新中。如果你手邊有幾台閒置的機器,值得試試。