メインコンテンツへスキップ
AI用語集に戻る
AI用語

学習(トレーニング)

Training

解説

AIモデルがデータからパターンや規則性を学び取るプロセスのことです。生成AIの場合、ユーザーが入力した情報が学習データとして使われると、その内容がAIの知識の一部となり、将来的に他のユーザーへの回答に反映される可能性があります。ビジネス利用では、このプロセスに自社データを含めない設定が重要です。

さらに詳しく解説

学習(トレーニング)とは

機械学習における学習/トレーニング(Training)は、データからモデルパラメータ最適化するプロセスです。LLMでは事前学習、ファインチューニング、RLHFなど複数の学習フェーズがあります。

LLMの学習フェーズ

LLM学習の段階:
1. 事前学習(Pre-training)
   └── 大規模テキストで言語モデル学習
   ↓
2. 教師あり微調整(SFT)
   └── 指示-応答ペアで調整
   ↓
3. RLHF/DPO
   └── 人間のフィードバックで最適化

事前学習

項目詳細
データ数TB〜数PBのテキスト
目的トークン予測
計算量数万GPU×数週間
コスト数億〜数十億円

ファインチューニング

ファインチューニングの種類:
├── フルファインチューニング
│   └── 全パラメータを更新
├── LoRA
│   └── 低ランク行列を追加学習
├── QLoRA
│   └── 量子化+LoRA
└── Adapter
    └── 小さな層を追加

学習データの重要性

要素影響
性能の上限を決定
ノイズ、バイアスの影響
多様性汎化性能に影響
最新性知識のカットオフ

学習の課題

よくある課題:
├── 過学習
│   └── 訓練データに過適合
├── 壊滅的忘却
│   └── 新学習で旧知識を忘れる
├── 勾配消失/爆発
│   └── 深いネットワークで発生
└── 分布シフト
    └── 訓練と実環境の差

学習の設定

設定説明典型値
学習率パラメータ更新の大きさ1e-5〜1e-3
バッチサイズ一度に処理するサンプル数32〜512
エポック数データを何回繰り返すか1〜10
ウォームアップ学習率を徐々に上げる0.1

分散学習

大規模学習の手法:
├── データ並列
│   └── データを分割して並列処理
├── モデル並列
│   └── モデルを分割して配置
├── パイプライン並列
│   └── 層ごとに分割
└── ZeRO
    └── 状態を分散保持

学習の監視

指標用途
損失(Loss)学習の進捗
検証損失過学習の検出
勾配ノルム安定性確認
学習率スケジュール確認
AI用語集に戻る

この用語をシェア

AIの導入についてご相談ください

「うちの会社でも使えるの?」「何から始めればいい?」
そんな疑問に、30分のオンライン相談でお答えします。

無料相談を予約する