メインコンテンツへスキップ
AI用語集に戻る
AI用語

パラメータ

Parameter

解説

パラメータとは、AIの「知能の規模」を示す指標で、学習を通じて蓄積された知識や判断基準の細かさを指します。人間の脳の神経細胞のつながりに例えられ、この数が多いほど高度な思考や実務代行が可能になります。次世代基盤では、膨大なパラメータを高速処理することで、AIが自律的にタスクをこなす「エージェント」への進化を支えます。

さらに詳しく解説

パラメータとは

機械学習におけるパラメータ(Parameter)は、モデル学習によって獲得する内部の値です。ニューラルネットワークの重み(weight)やバイアス(bias)がパラメータに該当します。

パラメータとハイパーパラメータ

項目パラメータハイパーパラメータ
定義学習で獲得事前に設定
重み、バイアス学習率、層数
調整方法自動(学習)手動/探索
数億〜数兆数十〜数百

[LLM](/glossary/llm)のパラメータ規模

モデルパラメータ数備考
GPT-215億2019年
GPT-31,750億2020年
Llama 3.18B-405Bオープン最大級
GPT-4非公開1兆以上と推定
Gemini Ultra非公開超大規模

パラメータ数と性能

スケーリング則(Scaling Laws):
├── パラメータ数増加 → 性能向上
├── 学習データ増加 → 性能向上
├── 計算量増加 → 性能向上
└── ただし収穫逓減が発生

パラメータの構成

Transformerのパラメータ:
├── 埋め込み層
│   └── 語彙数 × 次元数
├── Attention層(各層)
│   ├── Query重み
│   ├── Key重み
│   ├── Value重み
│   └── 出力重み
├── FFN層(各層)
│   ├── 第1全結合層
│   └── 第2全結合層
└── 出力層
    └── 次元数 × 語彙数

パラメータ計算例

7Bモデルの概算:
├── 埋め込み: 50,000 × 4,096 ≈ 200M
├── 32層のAttention/FFN ≈ 6.5B
└── 出力層 ≈ 200M
合計 ≈ 7B(70億)パラメータ

パラメータ効率化技術

技術説明効果
量子化精度を下げるメモリ削減
プルーニング不要パラメータ削除サイズ削減
知識蒸留小型モデルに転写軽量化
LoRA低ランク適応効率的学習

パラメータの保存と配布

形式特徴
PyTorch (.pt)PyTorch標準
SafeTensors安全性重視
GGUFllama.cpp用
ONNX互換性重視

パラメータとメモリ

メモリ必要量([推論](/glossary/inference)時):
├── FP32: パラメータ数 × 4バイト
│   └── 7B × 4 = 28GB
├── FP16: パラメータ数 × 2バイト
│   └── 7B × 2 = 14GB
└── INT8: パラメータ数 × 1バイト
    └── 7B × 1 = 7GB

実務上の考慮点

  1. モデル選択: タスクに適したサイズ選択
  2. ハードウェア: 利用可能なメモリとの整合
  3. 量子化: 精度とリソースのトレードオフ
  4. **ファインチューニング**: 効率的な手法の選択
AI用語集に戻る

この用語をシェア

AIの導入についてご相談ください

「うちの会社でも使えるの?」「何から始めればいい?」
そんな疑問に、30分のオンライン相談でお答えします。

無料相談を予約する