- プロンプト
- AIモデルに対して与える指示や質問のテキスト。AIの出力内容を決定する上で最も重要な要素です。
- プロンプトエンジニアリング
- AIモデルから望む出力を引き出すために、プロンプトを設計・最適化する技術やプロセス全般を指します。
- LLM
- Large Language Model(大規模言語モデル)の略。大量のテキストデータで学習された、人間のような自然言語処理能力を持つAIモデルです。
- Chain-of-Thought (CoT)
- AIに思考の過程を段階的に出力させることで、複雑な推論タスクの精度を高めるプロンプト手法です。
- Few-shot学習
- 少数の具体例(例示)をプロンプトに含めることで、AIに特定のタスクを学習させる手法です。大量のデータが不要です。
- メタプロンプト
- AIに、別のプロンプトを生成・最適化させるための上位のプロンプト。AI自身の能力を活用してプロンプト設計を自動化します。
- ロール設定
- AIに特定の役割やペルソナ(例: 「あなたは経験豊富なマーケターです」)を与えることで、その役割に基づいた回答を促すプロンプト手法です。
- ハルシネーション
- AIが事実に基づかない、誤った情報をあたかも真実のように生成してしまう現象。幻覚とも訳されます。
- トークン
- AIがテキストを処理する際の最小単位。単語や文字の一部、句読点などがトークンとして扱われます。APIコストの計算基準にもなります。
- プロンプト注入
- 悪意のあるユーザーがプロンプトを通じてAIの内部指示を上書きし、意図しない動作をさせたり、機密情報を引き出したりする攻撃です。
- コンテキスト
- プロンプトに含める背景情報や関連データのこと。AIが質問の意図を正確に理解し、適切な回答を生成するために重要です。
- RAG
- Retrieval Augmented Generation(検索拡張生成)の略。外部の知識ベースから関連情報を検索し、それを基にAIが回答を生成する手法です。
- 自己整合性 (Self-Consistency)
- AIが同じ問題に対して複数の異なる思考経路で推論を行い、その多数決や合意形成によって最終的な回答の信頼性を高める手法です。
- ReAct手法
- Reasoning(推論)とActing(行動)を交互に行うことで、AIが外部ツールを活用しながら複雑なタスクを解決する高度なプロンプトフレームワークです。
- マルチモーダルAI
- テキスト、画像、音声など、複数の種類のデータを同時に理解・生成できるAIモデルのことです。
- ABテスト
- 複数のプロンプト(AとB)を比較し、どちらがより優れた性能を発揮するかを定量的に評価する実験手法です。
- 出力形式の制御
- AIの出力をJSON、XML、Markdownなどの特定の形式で生成させるためのプロンプト設計技術です。