相比ChatGLM,LLaMA Factory 的 LoRA 微調提供了 3.7 倍的加速
支持多種模型:LLaMA、LLaVA、Mistral、Mixtral-MoE、Qwen、Yi、Gemma、Baichuan、ChatGLM、Phi
你可選用本地部處或使用 Colab Notbook
項目特色
- 多種模型:LLaMA、LLaVA、Mistral、Mixtral-MoE、Qwen、Yi、Gemma、Baichuan、ChatGLM、Phi 等等。
- 集成方法:(增量)預訓練、(多模態)指令監督微調、獎勵模型訓練、PPO 訓練、DPO 訓練、KTO 訓練和 ORPO 訓練。
- 多種精度:32 比特全參數微調、16 比特凍結微調、16 比特 LoRA 微調和基於 AQLM/AWQ/GPTQ/LLM.int8 的 2/4/8 比特 QLoRA 微調。
- 先進算法:GaLore、BAdam、DoRA、LongLoRA、LLaMA Pro、Mixture-of-Depths、LoRA+、LoftQ 和 Agent 微調。
- 實用技巧:FlashAttention-2、Unsloth、RoPE scaling、NEFTune 和 rsLoRA。
- 實驗監控:LlamaBoard、TensorBoard、Wandb、MLflow 等等。
- 極速推理:基於 vLLM 的 OpenAI 風格 API、瀏覽器界面和命令行接口。