キーワード解説

AIコンテキスト蒸留(Context Distillation)による入力トークン量の極小化

大規模言語モデルへの入力コンテキストから、本質的な情報のみを抽出し、冗長な部分を排除することで、入力トークン量を最小限に抑え、推論コストとレイテンシを改善する技術です。

0 関連記事

AIコンテキスト蒸留(Context Distillation)による入力トークン量の極小化とは

親クラスター「トークンあたりの単価削減」の解説より

大規模言語モデルへの入力コンテキストから、本質的な情報のみを抽出し、冗長な部分を排除することで、入力トークン量を最小限に抑え、推論コストとレイテンシを改善する技術です。

このキーワードが属するテーマ

このキーワードに紐付く記事はまだありません