解説
コンピューターが扱うデータの最小単位。4ビットは16通りの値しか表現できない非常に小さなサイズ。

さらに詳しく解説
ビット(bit)は、コンピュータが扱う情報の最小単位で、0または1のいずれかの値を取ります。Binary digitの略称です。AI/機械学習の文脈では、データ量・モデルサイズ・量子化などの議論で頻繁に登場します。
基本単位の関係
| 単位 | 換算 |
|---|---|
| 1 ビット (bit) | 0または1の1桁 |
| 1 バイト (Byte) | 8 ビット |
| 1 KB | 1,024 バイト |
| 1 MB | 1,024 KB |
| 1 GB | 1,024 MB |
| 1 TB | 1,024 GB |
AI/機械学習でのビットの登場場面
数値精度(モデルの重み)
AIモデルのパラメータを何ビットで表現するかは、メモリ消費と精度に直結します。
| 精度 | ビット数 | 用途 |
|---|---|---|
| FP32 | 32 ビット | 学習時の標準精度 |
| FP16 / BF16 | 16 ビット | 学習・推論の軽量化 |
| INT8 | 8 ビット | 推論の量子化 |
| INT4 | 4 ビット | 軽量化の極端版 |
| 1bit / 2bit | 1〜2 ビット | 研究レベルの極端な圧縮 |
精度を下げる(量子化する)と、モデルサイズと計算コストが減る一方、わずかな精度低下が起きることがあります。
モデルサイズの実例
70Bパラメータのモデルを各精度で保持した場合のおおよそのサイズ:
- FP16: 約140 GB
- INT8: 約70 GB
- INT4: 約35 GB
まとめ
ビットはあらゆる情報量・モデル容量・通信速度の基礎単位であり、AI実務でも「何ビット精度で動かすか」という選択は、コスト・速度・品質に直接影響します。
