メインコンテンツへスキップ
AI用語集に戻る
AI用語

ファインチューニング

Fine-tuning

解説

既存のAIモデルに特定の業務データなどを追加で学習させ、用途に合わせてカスタマイズする手法。実行には高い計算コストがかかります。

Fine-tuning(ファインチューニング)の図解

さらに詳しく解説

ファインチューニング(Fine-tuning)は、既に学習済みのAIモデルに追加データを学ばせて、特定の用途や業務に最適化する手法です。ゼロから学習するよりはるかに少ないデータと計算量で、専門領域に特化したモデルを作れます。

例えるなら

汎用モデル=「一般教養を身につけた新入社員」

ファインチューニング=「自社の業務マニュアル・過去事例を覚え込ませる研修」

ファインチューニングの種類

種類何を更新するか特徴
フルファインチューニングパラメータ高性能だが計算コスト大
LoRA一部の小さな追加層のみ軽量・高速、品質も実用的
QLoRA量子化+LoRAさらにメモリ効率が良い
プロンプトチューニング入力側の埋め込みのみ最小限の更新

現在は LoRA とその派生が主流です。

ファインチューニング vs RAG

観点ファインチューニングRAG
何を変えるかモデル自体入力に渡す参照情報
知識更新再学習が必要DB更新で即反映
振る舞い変更得意苦手
最新情報対応苦手得意
コスト学習時に大、推論時は変わらず検索コストが乗る

「振る舞い・スタイル」を変えたいならファインチューニング、「知識」を足したいならRAG という使い分けが基本です。

効果が出やすいケース

  • 自社特有の文体・トーンで応答させたい
  • 業界専門用語の意味を正しく扱わせたい
  • 出力フォーマット(JSONなど)を厳密に守らせたい
  • 特定タスクの精度を最後の数%引き上げたい

実務上のポイント

  1. データ品質が命:少量でも高品質なペアデータを用意するほうが効果的
  2. 過学習に注意:訓練データに過剰適合し汎化性能が落ちることがある
  3. 評価セットの分離:必ずファインチューニングに使わないデータで評価
  4. ベースモデル選定オープンソース/商用APIで運用方針が変わる

ファインチューニングは「汎用AIを自社AIに育てる」ための主要な手段で、RAGと並ぶ業務適用の二大手法です。

AI用語集に戻る

この用語をシェア

AIの導入についてご相談ください

「うちの会社でも使えるの?」「何から始めればいい?」
そんな疑問に、30分のオンライン相談でお答えします。

無料相談を予約する