さらに詳しく解説
バック・ジェネラライゼーションとは
バック・ジェネラライゼーション(Back-generalization)は、機械学習において、モデルが特定のタスクやデータから学んだ知識を、より一般的な概念や過去のタスクに遡って適用する能力を指します。
通常の汎化との違い
通常の汎化(generalization)は学習データから未見のデータへの適用能力ですが、バック・ジェネラライゼーションは新しい学習が過去の知識の理解を改善する逆方向のプロセスです。
具体例
新しい言語を学ぶことで母国語の文法構造をより深く理解するように、AIモデルが新しいタスクを学習することで以前のタスクのパフォーマンスも向上する現象です。
[大規模言語モデル](/glossary/llm-large-language-model)での意義
継続学習(Continual Learning)の文脈で、新しい知識の獲得が既存知識を劣化させる「壊滅的忘却」の対極にある望ましい特性として研究されています。
