- Llamaシリーズ
- Metaが開発し、オープンソースとして公開されている大規模言語モデル(LLM)のファミリー。Llama 2、Llama 3、Llama 3.1などが含まれる。
- オープンソース
- ソースコードが一般に公開されており、誰でも自由に利用、改変、配布できるソフトウェアやモデルのこと。Llamaシリーズの大きな特徴。
- LLM (大規模言語モデル)
- 大量のテキストデータで学習された、人間のような言語を理解し生成するAIモデル。Llamaシリーズもこれに該当する。
- GGUF形式
- GPT-Generated Unified Formatの略。Llama.cppプロジェクトで開発された、大規模言語モデルを軽量に保存し、CPUやGPUで効率的に実行するためのファイル形式。
- 量子化
- AIモデルのパラメータ(重み)の精度を低減(例: 32bitから4bitへ)することで、モデルサイズを縮小し、メモリ使用量と推論速度を改善する技術。
- ファインチューニング
- 事前学習済みのAIモデルを、特定のタスクやデータセットに合わせて追加で学習させること。モデルの性能を特定の用途に最適化する。
- RAG (Retrieval-Augmented Generation)
- 外部の知識ベースから関連情報を検索し、それを基にAIモデルが回答を生成する手法。ハルシネーションを抑制し、回答の正確性を高める。
- プロンプト
- AIモデルに対して与える指示や質問のテキスト。プロンプトの質がモデルの生成する回答の質に大きく影響する。
- マルチモーダル
- 複数の異なる形式のデータ(テキスト、画像、音声など)を同時に処理・理解できるAIの能力。Llamaシリーズもこの方向で進化している。
- Ollama
- Llamaなどの大規模言語モデルをローカル環境で簡単に実行・管理するためのツール。CLIやAPIを通じて利用できる。
- Hugging Face
- オープンソースのAIモデルやデータセットを共有・利用できるプラットフォーム。LlamaモデルもHugging Face Hubで利用可能。
- API
- Application Programming Interfaceの略。ソフトウェアの機能やサービスを外部から利用するための接続規約や仕組み。
- エッジデバイス
- PC、スマートフォン、IoTデバイスなど、ネットワークの末端に位置するデバイス。Llamaの軽量化により、これらのデバイスでのAI実行が可能になる。
- GPUメモリ
- Graphics Processing Unit (GPU) がAIモデルの計算処理に用いる専用メモリ。LLMの実行には大量のGPUメモリが必要となる場合がある。
- 学習データセット
- AIモデルの学習に用いられる大量のデータ群。モデルの性能や特性は、学習データセットの質と量に大きく左右される。
- 倫理的AI
- AIシステムの開発・利用において、公平性、透明性、プライバシー保護、安全性といった倫理的原則を遵守すること。
- 推論高速化
- AIモデルが与えられた入力に対して出力を生成する速度を向上させる技術や手法。量子化や専用エンジンの利用などが含まれる。
- LM Studio
- Llama.cppをベースにしたGUIツールで、ローカルPC上で大規模言語モデルを簡単にダウンロード、実行、チャットできる環境を提供する。
- LlamaIndex
- LLMアプリケーション開発のためのデータフレームワーク。外部データをLLMに接続し、RAGシステム構築を容易にする。
- ハルシネーション
- AIモデルが事実に基づかない、あるいは誤った情報をあたかも真実のように生成してしまう現象。