キーワード解説

AIエージェントのコンテキスト保持を支えるKV Cache(アテンションキャッシュ)の最適化

LLMの推論時、過去のトークンのキーとバリューをキャッシュし、計算コストを削減して効率的なコンテキスト保持を実現する技術です。

0 関連記事