さらに詳しく解説
FLOPsとは
FLOPs(Floating Point Operations)は、コンピュータが実行する浮動小数点演算の回数を表す指標です。AIモデルの学習や推論に必要な計算量を測る基本単位として使われています。
AIにおける重要性
大規模言語モデルの学習には膨大なFLOPsが必要です。GPT-4の学習には推定数兆FLOPsが使われたとされ、モデルの規模拡大に伴い必要計算量は急増しています。
単位
- TFLOPS: 1兆FLOPs/秒(一般的なGPU性能)
- PFLOPS: 1000兆FLOPs/秒(スーパーコンピュータ級)
- EFLOPS: 100京FLOPs/秒(次世代計算基盤)
[推論コスト](/glossary/inference-cost)との関係
モデルのFLOPs数は直接的に推論コストに影響します。モデルの量子化やアーキテクチャの最適化により、同じ性能をより少ないFLOPsで実現する研究が進んでいます。
