- AIエージェント
- 環境を認識し、推論し、行動し、学習する能力を持つ自律的なAIシステム。人間からの詳細な指示なしに目標達成を目指す。
- 自律型AI
- AIエージェントと同義で使われることが多く、自己判断でタスクを計画・実行・修正する能力を持つAIを指す。LangChainやAutoGPTが代表的。
- LangChain
- LLMを基盤としたアプリケーション開発を支援するフレームワーク。プロンプト管理、メモリ、エージェント、外部ツール連携機能などを提供する。
- AutoGPT
- 与えられた目標に対し、自律的にタスクを生成・実行するオープンソースのAIエージェント。インターネットアクセスやファイル操作も可能。
- 思考の連鎖 (CoT)
- Chain of Thoughtの略。LLMが推論過程を段階的に言語化することで、複雑な問題解決能力や論理的思考力を向上させるプロンプト手法。
- RAG
- Retrieval-Augmented Generationの略。LLMが外部データベース(例: ベクトルDB)から関連情報を検索し、その情報に基づいて回答を生成する技術。ハルシネーション抑制に有効。
- ベクトルデータベース
- テキストなどのデータを数値のベクトルとして格納し、類似度に基づいて高速に検索できるデータベース。RAGの実装に不可欠な技術。
- プロンプト連鎖
- 複数のプロンプトを連続して実行し、それぞれの出力が次のプロンプトの入力となるように設計された処理フロー。複雑なタスクを段階的に処理する際に用いられる。
- マルチエージェントシステム
- 複数のAIエージェントが協調して動作し、共通の目標達成を目指すシステム。各エージェントが専門的な役割を担うことで、より大規模な問題解決が可能となる。
- Function Calling
- LLMが外部ツールやAPIの機能を呼び出すための仕組み。LLMがユーザーの意図を理解し、適切なツールを選択・実行することで、AIエージェントの能力を拡張する。
- サンドボックス
- AIエージェントのコード実行を隔離された安全な環境で行うための技術。システムの暴走や悪意のある操作から保護するために利用される。
- LLM
- Large Language Modelの略。大量のテキストデータで学習された、人間のような自然言語を理解・生成できる大規模なAIモデル。
- BabyAGI
- タスクリストに基づいてタスクを生成・実行・優先順位付けするシンプルなAIエージェント。自律型AIの基本概念を示す初期の実装例。
- ハルシネーション
- LLMが事実に基づかない、もっともらしい虚偽の情報を生成する現象。AIエージェントの信頼性を損なう主要な問題の一つ。
- プロンプトインジェクション
- 悪意のあるプロンプトによってAIエージェントの挙動を意図せず制御したり、機密情報を引き出したりする攻撃手法。セキュリティ対策が必須となる。
- LangGraph
- LangChainを基盤とし、エージェントの思考プロセスや状態遷移をグラフ構造で定義・制御するためのライブラリ。マルチエージェント設計に有用。
- セマンティックチャンキング
- テキストを意味的なまとまりで分割する手法。RAGにおいて、より関連性の高い情報を取得し、LLMの応答精度を高めるために用いられる。
- API料金比較
- 異なるLLMプロバイダーのAPI利用料金を比較検討し、コスト効率の良いモデルやサービスを選定すること。AIエージェントの運用コスト最適化に不可欠。
- パーソナル秘書
- AIエージェントが個人のスケジュール管理、情報収集、メール作成などの業務を自律的に代行するシステム。個人の生産性向上に貢献する。
- デバッグ手法
- AIエージェントの予期せぬ挙動やエラーの原因を特定し、修正するための技術やプロセス。LLMの推論過程を可視化するツールなどが活用される。