キーワード解説

NVIDIA TensorRT-LLMによるAI推論パイプラインの最適化

TensorRT-LLMは、NVIDIA GPU上でLLMの推論パフォーマンスを最大化するために、モデルのコンパイルと実行を最適化するライブラリです。

0 関連記事