AI 研究者的時間多數浪費在哪裡?不是想研究問題,而是debug infrastructure——跑不動的 CUDA、配不對的環境、寫了三次還是壞掉的 training loop。Orchestra Research 的想法是:把這些 infrastructure 知識封裝成 AI agent 可以直接用的 skill,讓研究者專注在假設本身。
結果是 87 個生產級 skill,涵蓋 22 個分類,13 萬行文件。
技能涵蓋範圍
| 分類 | 範例技能 |
|---|---|
| 模型架構 | Transformer 變體、MoE、狀態空間 |
| Fine-tuning | Axolotl、LLaMA-Factory、TRL |
| 分散式訓練 | Megatron、DeepSpeed、FSDP |
| 推理部署 | vLLM、TensorRT-LLM、SGLang |
| 可解釋性 | TransformerLens、SAELens |
| 多模態 | VLM、Audio、Vision |
| RAG | Retrieval、chunking、reranking |
| Agent 框架 | LangChain、AutoGen |
這 87 個技能不是樣板 code,而是包含官方文件、GitHub issue 解法、版本歷史、實作範例的完整知識包。
Skill 結構
每個 skill 分三層:
- SKILL.md:50-150 行的快速參考,AI agent 主動 load 這層做決策
- References:300KB+ 深度文件,agent 遇到複雜問題時才拉進 context
- Scripts/Assets:helper code、template、config 範例
這種設計讓 agent 不會一次把所有知識塞進 prompt(會爆),而是按需載入。
Autoresearch:研究工作流的自動化
這是整個專案最野心的部分——Autoresearch orchestration skill。它協調其他 skill 做完整研究循環:
- Inner loop(優化):實驗執行、參數調整、結果評估
- Outer loop(合成):文獻回顧、假設提出、論文撰寫
自動 routing 到特定領域的 skill(例如需要做 distributed training 時 load Megatron skill),研究者主要做的事是提出假設和檢查結果。
技術棧涵蓋
Python / TypeScript / TeX
↓
PyTorch · Transformers · vLLM · DeepSpeed · TRL · Megatron · LangChain
↓
Modal · SkyPilot · Lambda Labs
↓
npm package: @orchestra-research/ai-research-skills
TeX 是為了論文撰寫——整個流程設計成「從實驗想法到 arXiv 投稿」可以一條 pipeline 走完。
支援的 AI Coding Agent
- Claude Code
- Cursor
- Gemini CLI
- 等 8+ 個 agent
意思是你不用鎖定特定 agent——用 Claude Code 可以,換 Cursor 也可以,技能包是通用的。
適合誰用?
| 對象 | 價值 |
|---|---|
| AI 研究者 | 省掉 infrastructure debug 時間 |
| 獨立研究者 | 沒有大團隊 support 時的「外部專家」 |
| 工程師轉研究 | 快速上手不熟悉的研究 workflow |
| 教學用 | 每個 skill 是一份結構化的學習資料 |
結語
87 個 skill、13 萬行文件、6.9k stars——Orchestra Research 做的不是另一個 LangChain,而是把 AI 研究的操作知識系統化地封裝起來。Claude Code 這類 AI coding agent 已經證明「skill 化的知識」可以大幅提升 agent 能力,這個 repo 把這個概念推到 AI 研究自己的領域。
如果你在做 LLM 相關研究或訓練工作,值得把這些 skill 接進你的 agent。省下的 debug 時間會比你想像的多。