- ファインチューニング
- 事前に学習済みのAIモデルを、特定のタスクやドメインに特化した少量のデータで追加学習させ、性能を最適化する手法です。
- 転移学習
- あるタスクで学習した知識や特徴表現を、別の関連するタスクに転用する機械学習のアプローチです。ファインチューニングはその主要な実践方法の一つです。
- 事前学習済みモデル
- 大規模なデータセット(例:インターネット上のテキスト、画像)を用いて、広範な知識や汎用的な特徴表現をあらかじめ学習させたAIモデルです。
- 過学習
- モデルが学習データに過度に適合し、未知のデータに対しては性能が著しく低下してしまう現象です。汎化性能の低下を招きます。
- LoRA (Low-Rank Adaptation)
- PEFT(Parameter-Efficient Fine-Tuning)の一種で、大規模モデルのファインチューニングにおいて、ごく一部の低ランク行列を追加・更新することで、計算コストとメモリ消費を大幅に削減する手法です。
- PEFT (Parameter-Efficient Fine-Tuning)
- 大規模な事前学習済みモデルのファインチューニングにおいて、更新するパラメータ数を最小限に抑えつつ、高い性能を維持する手法群の総称です。LoRAなどが含まれます。
- アノテーション
- AIの学習データに、モデルが理解できる形式でラベルやタグ、注釈などを付与する作業です。ファインチューニングのデータ品質に直結します。
- ドメイン適応
- ある特定の情報領域(ドメイン)で学習したモデルを、別の関連ドメインのデータに適応させること。ファインチューニングの主要な目的の一つです。
- RAG (Retrieval-Augmented Generation)
- 外部の知識ベースから関連情報を検索(Retrieval)し、その情報を基にテキストを生成(Generation)するAIモデルのアーキテクチャです。最新情報への対応に優れます。
- 指示学習 (Instruction Tuning)
- AIモデルに特定の指示形式(プロンプト)で応答するように学習させるファインチューニングの一種です。ユーザーの意図をより正確に理解し、従う能力を高めます。
- 継続学習 (Continual Learning)
- AIモデルが新しい情報を順次学習しながらも、過去に学習した知識を忘れないようにする学習パラダイムです。データドリフトへの対応に重要です。
- GPUサーバー
- Graphics Processing Unit(GPU)を搭載したサーバーで、AIモデルの学習や推論に必要な大量の並列計算処理を高速に行うために使用されます。
- 推論
- 学習済みのAIモデルに新しいデータ(入力)を与え、そのデータに基づいて予測や判断(出力)を行うプロセスです。
- モデル精度評価
- ファインチューニング後のAIモデルが、特定のタスクにおいてどれだけ正確に機能するかを、様々な指標(例:F1スコア、BLEUスコア)を用いて測定し、分析するプロセスです。
- データ漏洩
- 機密性の高い学習データが、意図せず外部に流出したり、不正にアクセスされたりすること。AI開発における重要なセキュリティリスクです。
- ハイパーパラメータ
- AIモデルの学習プロセスを制御するために、学習前に手動で設定する値(例:学習率、バッチサイズ、エポック数)です。モデルの性能に大きく影響します。
- 過学習の回避策
- ドロップアウト、正則化、早期停止、データ拡張など、モデルが学習データに過度に適合し、汎化性能が低下するのを防ぐための様々な技術や戦略です。