這份簡報提供學習如何製作LoRA 模型的寶貴資訊。在這份簡報中,你將找到以下指導方針:
- 將最大解析度設定為至少 1024×1024,這是SDXL的標準解析度。
- 使用至少 12GB 內存的 GPU 進行 LoRA 模型的訓練。
- 我們強烈建議在 SDXL LoRA 訓練過程中使用
--train_unet_only
選項,以避免因SDXL中的雙文本編碼器而造成無法預料的訓練結果。 - PyTorch 2 比 PyTorch 1 使用的 GPU 內存較少。
此外,簡報還提供了一個使用 Adafactor 優化器的示例配置,該優化器具有固定的學習率,並使用了常數加溫策略。以下是示例配置的代碼片段:
optimizer_type = "adafactor"
optimizer_args = [ "scale_parameter=False", "relative_step=False", "warmup_init=False" ]
lr_scheduler = "constant_with_warmup"
lr_warmup_steps = 100
learning_rate = 4e-7 # 這是SDXL的標準學習率
請點擊這裡查看完整的簡報內容。希望這份簡報能夠幫助你更好地了解如何製作LoRA模型。