跳到主要內容

ChenkinNoob-XL V0.5:12M 訓練集、8-in-1 ControlNet,這才是認真做的動漫圖像模型

能說自己認真做動漫圖像模型的,真的不多。 ChenkinNoob-XL V0.5 是其中之一。12M 訓練資料、自訂訓練流程、配套 8-in-1 ControlNet——不是調參玩具,是衝著實際生產流程去的。


訓練資料:12M 的組成比你想的更用心

市面上大多數動漫 SDXL 模型的訓練資料來源模糊,品質參差。ChenkinNoob-XL V0.5 的資料集公開了組成比例:

ChenkinNoob-XL V0.5 訓練集組成(千張)

  • 9M 動漫圖像:涵蓋角色、場景、表情、服裝等核心動漫視覺語言
  • 2.17M 遊戲概念藝術:這部分是差異化來源——遊戲概念圖對武器設計、場景構圖、光影層次的要求遠高於一般動漫插圖
  • 其他精選資料:包含高品質插畫和跨風格資料,避免模型只會單一日系風格

這個組成回答了一個問題:為什麼 V0.5 在武器、背景、光影上的提升比角色臉部更明顯——因為這正是 2.17M 遊戲概念藝術的貢獻方向。


自訂訓練流程,不是套公版 recipe

V0.5 的另一個值得關注的點是自訂訓練 pipeline。團隊沒有直接沿用 noobai-XL 的訓練設定,而是針對這個資料集的特性重新設計了幾個關鍵環節:

光影建模的強化:遊戲概念藝術資料帶來的副產品。這類資料通常有明確的光源方向和陰影層次,讓模型學到更可控的光影邏輯,而不只是「看起來亮」。

構圖穩定性:V0.5 相比前版在多人構圖、大場景背景上的崩圖率明顯降低。這指向訓練時對構圖標注品質的要求提升。

武器和道具細節:這是動漫模型的傳統難點。手握武器、武器反光、複雜道具結構——2.17M 遊戲概念藝術資料讓模型有足夠的武器視覺語言學習材料。


Chenkin-UniControl-XL:8-in-1 ControlNet 的設計邏輯

這是整個發布裡技術密度最高的部分。

傳統 ControlNet 使用方式是一個控制目標掛一個模型:想控制姿勢用 OpenPose 模型,想控制線稿用 Lineart 模型,兩個目標就要跑兩個模型,效果還會互相干擾。

Chenkin-UniControl-XL 把 8 種控制模式整合進同一個模型,並支援 Fuse mode——多種控制條件可以同時輸入,在一次推理中融合輸出。

Loading diagram...

Fuse mode 的價值在於:你可以同時告訴模型「這個姿勢 + 這個線稿結構 + 這個景深關係」,而不是分開指定再希望三個模型輸出能疊合。對需要精確控制角色和場景關係的生產流程來說,這個能力是真正有用的。


實際適用場景

這個模型的定位不是「好玩的動漫生成器」,而是面向有美術產出需求的使用者:

遊戲獨立開發者:早期概念圖快速迭代,用 Depth + Pose 控制場景和角色位置關係,不用每張圖都靠運氣。

角色設計師:把手繪草圖用 Lineart ControlNet 輸入,保留設計結構,讓模型填充光影和細節。

AI 圖像創作者:Fuse mode 讓複雜構圖控制成為可能,不再是一個 ControlNet 贏另一個 ControlNet 的抽獎遊戲。


怎麼取得

模型在 ModelScope 上開源發布,下載 safetensors 格式,支援所有主流 SDXL 前端(ComfyUI、Automatic1111、Forge)。Chenkin-UniControl-XL 需要單獨下載,作為 ControlNet 模型掛載。

# ComfyUI 目錄結構
models/checkpoints/ChenkinNoob-XL-V0.5.safetensors
models/controlnet/Chenkin-UniControl-XL.safetensors

建議 CFG Scale 設在 5 到 6 之間,動漫模型在高 CFG 下容易顏色過飽和。Steps 25 到 30、Euler a sampler、約 1024x1024 解析度,是目前測試下比較穩定的基準參數。


結語

動漫圖像生成模型的評比標準通常是「臉好不好看」。ChenkinNoob-XL V0.5 瞄準的是一個更難的目標:讓整張圖的光影、構圖、武器、背景都達到可以進遊戲美術流程的水準。12M 資料集和 UniControl-XL 的 Fuse mode 是這個目標最具體的技術投入。

開源意味著你可以直接驗證這些說法是否成立,而不是只看樣圖。