メインコンテンツへスキップ
AI用語集に戻る
AI用語

ビット

Bit

解説

コンピューターが扱うデータの最小単位。4ビットは16通りの値しか表現できない非常に小さなサイズ。

Bit(ビット)の図解

さらに詳しく解説

ビット(bit)は、コンピュータが扱う情報の最小単位で、0または1のいずれかの値を取ります。Binary digitの略称です。AI機械学習の文脈では、データ量・モデルサイズ・量子化などの議論で頻繁に登場します。

基本単位の関係

単位換算
1 ビット (bit)0または1の1桁
1 バイト (Byte)8 ビット
1 KB1,024 バイト
1 MB1,024 KB
1 GB1,024 MB
1 TB1,024 GB

AI/機械学習でのビットの登場場面

数値精度(モデルの重み)

AIモデルパラメータを何ビットで表現するかは、メモリ消費と精度に直結します。

精度ビット数用途
FP3232 ビット学習時の標準精度
FP16 / BF1616 ビット学習・推論の軽量化
INT88 ビット推論の量子化
INT44 ビット軽量化の極端版
1bit / 2bit1〜2 ビット研究レベルの極端な圧縮

精度を下げる(量子化する)と、モデルサイズと計算コストが減る一方、わずかな精度低下が起きることがあります。

モデルサイズの実例

70Bパラメータのモデルを各精度で保持した場合のおおよそのサイズ:

  • FP16: 約140 GB
  • INT8: 約70 GB
  • INT4: 約35 GB

まとめ

ビットはあらゆる情報量・モデル容量・通信速度の基礎単位であり、AI実務でも「何ビット精度で動かすか」という選択は、コスト・速度・品質に直接影響します。

AI用語集に戻る

この用語をシェア

AIの導入についてご相談ください

「うちの会社でも使えるの?」「何から始めればいい?」
そんな疑問に、30分のオンライン相談でお答えします。

無料相談を予約する