解説
さらに詳しく解説
学習(トレーニング)とは
機械学習における学習/トレーニング(Training)は、データからモデルのパラメータを最適化するプロセスです。LLMでは事前学習、ファインチューニング、RLHFなど複数の学習フェーズがあります。
LLMの学習フェーズ
LLM学習の段階:
1. 事前学習(Pre-training)
└── 大規模テキストで言語モデル学習
↓
2. 教師あり微調整(SFT)
└── 指示-応答ペアで調整
↓
3. RLHF/DPO
└── 人間のフィードバックで最適化事前学習
| 項目 | 詳細 |
|---|---|
| データ | 数TB〜数PBのテキスト |
| 目的 | 次トークン予測 |
| 計算量 | 数万GPU×数週間 |
| コスト | 数億〜数十億円 |
ファインチューニング
ファインチューニングの種類:
├── フルファインチューニング
│ └── 全パラメータを更新
├── LoRA
│ └── 低ランク行列を追加学習
├── QLoRA
│ └── 量子化+LoRA
└── Adapter
└── 小さな層を追加学習データの重要性
| 要素 | 影響 |
|---|---|
| 量 | 性能の上限を決定 |
| 質 | ノイズ、バイアスの影響 |
| 多様性 | 汎化性能に影響 |
| 最新性 | 知識のカットオフ |
学習の課題
よくある課題:
├── 過学習
│ └── 訓練データに過適合
├── 壊滅的忘却
│ └── 新学習で旧知識を忘れる
├── 勾配消失/爆発
│ └── 深いネットワークで発生
└── 分布シフト
└── 訓練と実環境の差学習の設定
| 設定 | 説明 | 典型値 |
|---|---|---|
| 学習率 | パラメータ更新の大きさ | 1e-5〜1e-3 |
| バッチサイズ | 一度に処理するサンプル数 | 32〜512 |
| エポック数 | データを何回繰り返すか | 1〜10 |
| ウォームアップ | 学習率を徐々に上げる | 0.1 |
分散学習
大規模学習の手法:
├── データ並列
│ └── データを分割して並列処理
├── モデル並列
│ └── モデルを分割して配置
├── パイプライン並列
│ └── 層ごとに分割
└── ZeRO
└── 状態を分散保持学習の監視
| 指標 | 用途 |
|---|---|
| 損失(Loss) | 学習の進捗 |
| 検証損失 | 過学習の検出 |
| 勾配ノルム | 安定性確認 |
| 学習率 | スケジュール確認 |
この用語が登場した記事(14件)
【2026年最新】「AI推進法」が本格始動!中小企業が受ける恩恵と、今すぐやるべき3つのこと
2026年1月より、政府の「AI基本計画」に基づく中小企業支援が本格化しました。法律による規制強化ではなく、安全な活用のための「支援」が中心です。補助金活用やリスク対策など、経営者が知っておくべきポイントをわかりやすく解説します。
「記録が終わらない」悩みから解放!音声入力AIで残業を月15時間減らす現場導入ガイド
介護現場の長時間労働の主因である「記録業務」。音声入力AIを活用して記録時間を劇的に短縮し、残業削減とケアの質向上を実現した成功事例を紹介します。ITが苦手なスタッフでも明日から試せる具体的なツールやプロンプトも公開。
2026年AI本格普及へ。中小企業経営者が知っておくべき「支援」と「責任」
政府は2026年を「AI社会実装の本格普及期」と定め、新たな基本計画を発表しました。中小企業にとっては、手厚い補助金でロボット導入を進める好機である一方、取引先からAI管理体制を問われる時代が到来します。本記事では、経営者が押さえるべき支援策と対応ポイントを解説します。
