キーワード解説
AIコンテキスト蒸留(Context Distillation)による入力トークン量の極小化
大規模言語モデルへの入力コンテキストから、本質的な情報のみを抽出し、冗長な部分を排除することで、入力トークン量を最小限に抑え、推論コストとレイテンシを改善する技術です。
0 関連記事
AIコンテキスト蒸留(Context Distillation)による入力トークン量の極小化とは
親クラスター「トークンあたりの単価削減」の解説より大規模言語モデルへの入力コンテキストから、本質的な情報のみを抽出し、冗長な部分を排除することで、入力トークン量を最小限に抑え、推論コストとレイテンシを改善する技術です。
このキーワードが属するテーマ
このキーワードに紐付く記事はまだありません