跳到主要內容

AI Research Skills:87 個讓 Agent 自主做 AI 研究的技能庫

Orchestra-Research/AI-Research-SKILLs on GitHub

AI 研究者的時間多數浪費在哪裡?不是想研究問題,而是debug infrastructure——跑不動的 CUDA、配不對的環境、寫了三次還是壞掉的 training loop。Orchestra Research 的想法是:把這些 infrastructure 知識封裝成 AI agent 可以直接用的 skill,讓研究者專注在假設本身。

結果是 87 個生產級 skill,涵蓋 22 個分類,13 萬行文件


技能涵蓋範圍

分類範例技能
模型架構Transformer 變體、MoE、狀態空間
Fine-tuningAxolotl、LLaMA-Factory、TRL
分散式訓練Megatron、DeepSpeed、FSDP
推理部署vLLM、TensorRT-LLM、SGLang
可解釋性TransformerLens、SAELens
多模態VLM、Audio、Vision
RAGRetrieval、chunking、reranking
Agent 框架LangChain、AutoGen

這 87 個技能不是樣板 code,而是包含官方文件、GitHub issue 解法、版本歷史、實作範例的完整知識包。


Skill 結構

Loading diagram...

每個 skill 分三層:

  1. SKILL.md:50-150 行的快速參考,AI agent 主動 load 這層做決策
  2. References:300KB+ 深度文件,agent 遇到複雜問題時才拉進 context
  3. Scripts/Assets:helper code、template、config 範例

這種設計讓 agent 不會一次把所有知識塞進 prompt(會爆),而是按需載入。


Autoresearch:研究工作流的自動化

這是整個專案最野心的部分——Autoresearch orchestration skill。它協調其他 skill 做完整研究循環:

  1. Inner loop(優化):實驗執行、參數調整、結果評估
  2. Outer loop(合成):文獻回顧、假設提出、論文撰寫

自動 routing 到特定領域的 skill(例如需要做 distributed training 時 load Megatron skill),研究者主要做的事是提出假設和檢查結果


技術棧涵蓋

Python / TypeScript / TeX
PyTorch · Transformers · vLLM · DeepSpeed · TRL · Megatron · LangChain
Modal · SkyPilot · Lambda Labs
npm package: @orchestra-research/ai-research-skills

TeX 是為了論文撰寫——整個流程設計成「從實驗想法到 arXiv 投稿」可以一條 pipeline 走完。


支援的 AI Coding Agent

  • Claude Code
  • Cursor
  • Gemini CLI
  • 等 8+ 個 agent

意思是你不用鎖定特定 agent——用 Claude Code 可以,換 Cursor 也可以,技能包是通用的。


適合誰用?

對象價值
AI 研究者省掉 infrastructure debug 時間
獨立研究者沒有大團隊 support 時的「外部專家」
工程師轉研究快速上手不熟悉的研究 workflow
教學用每個 skill 是一份結構化的學習資料

結語

87 個 skill、13 萬行文件、6.9k stars——Orchestra Research 做的不是另一個 LangChain,而是把 AI 研究的操作知識系統化地封裝起來。Claude Code 這類 AI coding agent 已經證明「skill 化的知識」可以大幅提升 agent 能力,這個 repo 把這個概念推到 AI 研究自己的領域。

如果你在做 LLM 相關研究或訓練工作,值得把這些 skill 接進你的 agent。省下的 debug 時間會比你想像的多。