
さらに詳しく解説
ファインチューニング(Fine-tuning)は、既に学習済みのAIモデルに追加データを学ばせて、特定の用途や業務に最適化する手法です。ゼロから学習するよりはるかに少ないデータと計算量で、専門領域に特化したモデルを作れます。
例えるなら
汎用モデル=「一般教養を身につけた新入社員」
ファインチューニング=「自社の業務マニュアル・過去事例を覚え込ませる研修」
ファインチューニングの種類
| 種類 | 何を更新するか | 特徴 |
|---|---|---|
| フルファインチューニング | 全パラメータ | 高性能だが計算コスト大 |
| LoRA | 一部の小さな追加層のみ | 軽量・高速、品質も実用的 |
| QLoRA | 量子化+LoRA | さらにメモリ効率が良い |
| プロンプトチューニング | 入力側の埋め込みのみ | 最小限の更新 |
現在は LoRA とその派生が主流です。
ファインチューニング vs RAG
「振る舞い・スタイル」を変えたいならファインチューニング、「知識」を足したいならRAG という使い分けが基本です。
効果が出やすいケース
- 自社特有の文体・トーンで応答させたい
- 業界専門用語の意味を正しく扱わせたい
- 出力フォーマット(JSONなど)を厳密に守らせたい
- 特定タスクの精度を最後の数%引き上げたい
