Veni AI
モデル学習

ファインチューニングと転移学習:モデル学習ガイド

LLM のファインチューニング手法、LoRA、QLoRA、PEFT メソッド、企業向け AI モデルのカスタマイズに関する包括的な技術ガイド。

Veni AI Technical Team11 Ocak 20254 dk okuma
ファインチューニングと転移学習:モデル学習ガイド

ファインチューニングと転移学習:モデル学習ガイド

ファインチューニングとは、事前学習済みモデルを特定のタスクやドメイン向けにカスタマイズするプロセスです。適切なファインチューニング戦略を用いることで、エンタープライズ向け AI ソリューションでは最大 40% の性能向上が実現できます。

転移学習の基本

転移学習とは、あるタスクで学習した知識を別のタスクへ移すことです。

転移学習の利点

  1. データ効率: 少ないデータでも良い結果
  2. 時間短縮: 一から学習するよりはるかに高速
  3. コスト削減: 計算リソースが少ない
  4. 性能: 事前学習済みの知識を活用

事前学習 vs ファインチューニング

1Pre-training: 2- Large, general dataset (TBs) 3- Learning general language/task understanding 4- Training takes months 5- Cost in millions of dollars 6 7Fine-tuning: 8- Small, domain-specific dataset (MB-GB) 9- Specific task adaptation 10- Training takes hours-days 11- Cost in thousands of dollars

フル・ファインチューニング

モデルの全パラメータを更新。

利点

  • 最大の適応能力
  • 最も高い性能の可能性

欠点

  • 大きなメモリ要件
  • 破滅的忘却のリスク
  • タスクごとに別モデルのコピーが必要

ハードウェア要件

モデルサイズGPU メモリ (FP32)GPU メモリ (FP16)
7B28 GB14 GB
13B52 GB26 GB
70B280 GB140 GB

パラメータ効率の高いファインチューニング (PEFT)

パラメータの一部のみを更新してファインチューニングを行う手法。

PEFT の利点

  • メモリ効率: 90% 以上の削減
  • 高速: 学習が速い
  • モジュール性: 単一のベースモデルで複数のアダプタを利用可能
  • 破滅的忘却: リスク最小化

LoRA (Low-Rank Adaptation)

最も一般的な PEFT 手法。

LoRA の理論

重み行列を低ランク行列で近似的に更新:

1W' = W + ΔW = W + BA 2 3Where: 4- W: Original weight matrix (d × k) 5- B: Low-rank matrix (d × r) 6- A: Low-rank matrix (r × k) 7- r: Rank (typical: 8-64)

パラメータ削減効果

1Original: d × k parameters 2LoRA: r × (d + k) parameters 3 4Example (d=4096, k=4096, r=16): 5Original: 16.7M parameters 6LoRA: 131K parameters 7Savings: ~127x

LoRA 設定

1from peft import LoraConfig, get_peft_model 2 3config = LoraConfig( 4 r=16, # Rank 5 lora_alpha=32, # Scaling factor 6 target_modules=[ # Which layers to apply 7 "q_proj", 8 "k_proj", 9 "v_proj", 10 "o_proj" 11 ], 12 lora_dropout=0.05, 13 bias="none", 14 task_type="CAUSAL_LM" 15) 16 17model = get_peft_model(base_model, config)

LoRA ハイパーパラメータ

Rank (r):

  • 低 (4-8): 単純なタスク、データが少ない場合
  • 中 (16-32): 一般用途
  • 高 (64-128): 複雑な適応

Alpha:

  • 通常は alpha = 2 × r

Target Modules:

  • Attention 層: q_proj, k_proj, v_proj, o_proj
  • MLP 層: gate_proj, up_proj, down_proj

QLoRA (Quantized LoRA)

LoRA + 4-bit 量子化の組み合わせ。

QLoRA の特徴

  1. 4-bit NormalFloat (NF4): カスタム量子化フォーマット
  2. Double Quantization: 量子化定数も量子化
  3. Paged Optimizers: GPU メモリオーバーフローの管理

QLoRA メモリ比較

方法7B モデル70B モデル
Full FT (FP32)28 GB280 GB
Full FT (FP16)14 GB140 GB
LoRA (FP16)12 GB120 GB
QLoRA (4-bit)6 GB48 GB

QLoRA 実装

1from transformers import BitsAndBytesConfig 2import torch 3 4bnb_config = BitsAndBytesConfig( 5 load_in_4bit=True, 6 bnb_4bit_use_double_quant=True, 7 bnb_4bit_quant_type="nf4", 8 bnb_4bit_compute_dtype=torch.bfloat16 9) 10 11model = AutoModelForCausalLM.from_pretrained( 12 "meta-llama/Llama-2-7b-hf", 13 quantization_config=bnb_config, 14 device_map="auto" 15) 16## その他のPEFT手法 17 18### Prefix Tuning 19 20入力埋め込みに学習可能なプレフィックスを追加します: 21

Input: [PREFIX_1, PREFIX_2, ..., PREFIX_N, token_1, token_2, ...]

1 2### Prompt Tuning 3 4ソフトプロンプトを学習します: 5

[SOFT_PROMPT] + "Actual input text"

1 2### Adapter Layers 3 4Transformer層の間に小さなネットワークを追加します: 5

Attention → Adapter → LayerNorm → FFN → Adapter → LayerNorm

1 2### (IA)³ - Infused Adapter 3 4活性化に学習済みベクトルを乗算します: 5

output = activation × learned_vector

1 2## データ準備 3 4### データ形式 5 6**Instruction形式:** 7```json 8{ 9 "instruction": "Summarize this text", 10 "input": "Long text...", 11 "output": "Summary..." 12}

Chat形式:

1{ 2 "messages": [ 3 {"role": "system", "content": "You are a helpful assistant"}, 4 {"role": "user", "content": "Question..."}, 5 {"role": "assistant", "content": "Answer..."} 6 ] 7}

データ品質

良いデータの特徴:

  • 多様性(多様な例)
  • 一貫性(フォーマットが一貫している)
  • 正確性(ラベルが正確)
  • 十分な量(通常1K〜100K例)

データ拡張

1# Paraphrasing 2augmented_data = paraphrase(original_data) 3 4# Back-translation 5translated = translate(text, "tr") 6back_translated = translate(translated, "en") 7 8# Synonym replacement 9augmented = replace_synonyms(text)

トレーニング戦略

ハイパーパラメータ選択

1training_args = TrainingArguments( 2 learning_rate=2e-4, # Typical for LoRA 3 num_train_epochs=3, 4 per_device_train_batch_size=4, 5 gradient_accumulation_steps=4, 6 warmup_ratio=0.03, 7 lr_scheduler_type="cosine", 8 fp16=True, 9 logging_steps=10, 10 save_strategy="epoch", 11 evaluation_strategy="epoch" 12)

学習率

  • Full fine-tuning: 1e-5 - 5e-5
  • LoRA: 1e-4 - 3e-4
  • QLoRA: 2e-4 - 5e-4

正則化

1# Weight decay 2weight_decay=0.01 3 4# Dropout 5lora_dropout=0.05 6 7# Gradient clipping 8max_grad_norm=1.0

評価と検証

メトリクス

Perplexity:

PPL = exp(average cross-entropy loss) Lower = better

BLEU/ROUGE: テキスト生成品質

タスク固有: Accuracy、F1、カスタムメトリクス

過学習の検出

1Train loss ↓ + Validation loss ↑ = Overfitting 2 3Solutions: 4- Early stopping 5- More dropout 6- Data augmentation 7- Fewer epochs

デプロイ

モデルマージ

LoRAアダプタをベースモデルへ統合します:

merged_model = model.merge_and_unload() merged_model.save_pretrained("merged_model")

マルチアダプタ提供

単一のベースモデルで複数アダプタを使用:

1from peft import PeftModel 2 3base_model = AutoModelForCausalLM.from_pretrained("base") 4model_a = PeftModel.from_pretrained(base_model, "adapter_a") 5model_b = PeftModel.from_pretrained(base_model, "adapter_b")

エンタープライズ向けファインチューニングパイプライン

1┌─────────────┐ ┌─────────────┐ ┌─────────────┐ 2│ Data │────▶│ Training │────▶│ Evaluation │ 3│ Preparation │ │ (LoRA/QLoRA)│ │ & Testing │ 4└─────────────┘ └─────────────┘ └──────┬──────┘ 56 ┌─────────────┐ ┌──────▼──────┐ 7 │ Production │◀────│ Model │ 8 │ Deployment │ │ Registry │ 9 └─────────────┘ └─────────────┘

よくある問題と解決策

1. メモリ不足

解決策: QLoRA、gradient checkpointing、バッチサイズ削減

2. 破滅的忘却

解決策: 学習率を下げる、リプレイバッファ、elastic weight consolidation

3. 過学習

解決策: データ増加、正則化、early stopping

4. 汎化性能の低下

解決策: データ多様性の向上、instruction多様性の向上

Conclusion

ファインチューニングは、事前学習済みモデルをエンタープライズのニーズに適応させる最も効果的な方法です。LoRA や QLoRA のような PEFT 手法を使用することで、限られたリソースでも強力なカスタマイズが可能になります。

Veni AI では、エンタープライズ向けファインチューニングプロジェクトのコンサルティングおよび実装サービスを提供しています。ぜひお気軽にお問い合わせください。

İlgili Makaleler