キーワード解説

Flash Attention 2を統合したLoRA微調整によるコンテキスト長の拡張

Flash Attention 2をLoRA微調整に統合し、LLMのコンテキスト長を拡張する技術。より長いテキストを理解・生成できるモデルの構築を可能にします。

0 関連記事