- 生成AI (Generative AI)
- テキスト、画像、音声、動画、3Dモデルなど、新しいデータを自律的に創造する人工知能技術の総称。学習データからパターンを習得し、それに基づいてオリジナルのコンテンツを生み出す。
- プロンプト (Prompt)
- 生成AIに対して、どのようなコンテンツを生成してほしいかを指示する入力テキスト。AIの出力品質を大きく左右する重要な要素であり、その作成には技術と工夫が求められる。
- LLM (Large Language Model)
- 大規模なデータセットで学習された、膨大なパラメータを持つ言語モデル。Transformerアーキテクチャを基盤とし、人間のような自然な文章生成、翻訳、要約、質問応答などが可能。
- ハルシネーション (Hallucination)
- 生成AIが事実に基づかない、あるいは誤った情報を、あたかも真実であるかのように生成してしまう現象。幻覚とも呼ばれ、AIの信頼性における主要な課題の一つ。
- RAG (Retrieval Augmented Generation)
- 外部の知識ベースから関連情報を検索し、それを参照しながらテキストを生成する手法。ハルシネーションの抑制や最新情報の反映に寄与し、LLMの回答精度向上に貢献する。
- Transformer
- 自然言語処理タスクで広く用いられるニューラルネットワークのアーキテクチャ。Attentionメカニズムを特徴とし、LLMや画像生成モデルの基盤技術となっている。
- ファインチューニング (Fine-tuning)
- 事前に学習済みのモデル(プレトレーニングモデル)を、特定のタスクやデータセットに合わせて再学習させるプロセス。モデルの汎用性を維持しつつ、特定の用途での性能を向上させる。
- RLHF (Reinforcement Learning from Human Feedback)
- 人間のフィードバック(評価)を報酬として強化学習を行い、AIモデルの出力が人間の好みや意図に沿うように調整する手法。LLMの応答品質向上に不可欠。
- トークン (Token)
- 生成AIがテキストを処理する際の最小単位。単語や文字の一部、句読点などがトークンとして扱われ、AIの入力・出力の量やコストを測る指標となる。
- マルチモーダル (Multimodal)
- テキスト、画像、音声、動画など、複数の異なる種類の情報を同時に処理・生成できるAI技術。より複雑な現実世界の情報を理解し、創造的なアウトプットを可能にする。
- 量子化 (Quantization)
- AIモデルのパラメータ(重み)のデータ表現を、より少ないビット数に変換する技術。モデルサイズを小さくし、推論速度を向上させ、メモリや計算リソースの消費を削減する。
- 知識蒸留 (Knowledge Distillation)
- 大規模で高性能な「教師モデル」から、より小型で高速な「生徒モデル」に知識を転移させる技術。モデルの軽量化と推論効率の向上を実現する。
- PEFT (Parameter-Efficient Fine-Tuning)
- 大規模な事前学習済みモデルを効率的にファインチューニングするための手法群。LoRAなどが代表的で、少量の追加パラメータのみを学習することで、計算コストとストレージを大幅に削減する。
- MoE (Mixture of Experts)
- 複数の専門家(エキスパート)ネットワークを組み合わせ、入力に応じて最適なエキスパートを選択して推論を行うモデルアーキテクチャ。大規模モデルの効率的な学習と推論を可能にする。
- 世界モデル (World Model)
- AIが環境の内部表現を学習し、未来の状態を予測する能力を持つモデル。エージェントが行動の計画を立てる際や、シミュレーション環境での学習において重要な役割を果たす。
- トークナイザー (Tokenizer)
- テキストをAIが処理できるトークン列に分割するコンポーネント。言語特性やタスクに応じて最適なトークナイザーを選択することが、AIの性能やコストに影響を与える。
- 合成データ (Synthetic Data)
- 実データではなく、AIによって人工的に生成されたデータ。プライバシー保護、データ不足の解消、特定のシナリオのシミュレーションなど、多様な目的で学習データとして活用される。
- 投機的デコーディング (Speculative Decoding)
- LLMの推論速度を向上させる技術。小型のドラフトモデルが候補のトークンシーケンスを生成し、それを大規模モデルが検証・修正することで、効率的なテキスト生成を実現する。