- GPU (Graphics Processing Unit)
- 並列計算に特化したプロセッサで、主にグラフィック処理に用いられてきましたが、AIのディープラーニング学習においてその能力が活用されています。NVIDIAが主要なベンダーです。
- NPU (Neural Processing Unit)
- AIのニューラルネットワーク処理に特化して設計されたプロセッサです。GPUよりも電力効率が高く、AIの推論処理やオンデバイスAIの実行に適しています。
- ASIC (Application Specific Integrated Circuit)
- 特定の用途やアルゴリズムに特化して設計された集積回路です。AI分野では、特定のAIワークロードに対して最高の性能と電力効率を実現するためにカスタムASICが開発されます。
- HBM (High Bandwidth Memory)
- GPUなどのプロセッサと物理的に近くに配置され、非常に高いデータ転送速度を実現する積層型メモリです。AIモデルの学習・推論におけるメモリボトルネックを解消します。
- エッジAI
- クラウドではなく、スマートフォンやIoTデバイスなどの「エッジ」デバイス上でAI処理を実行する技術です。低遅延、プライバシー保護、通信コスト削減などのメリットがあります。
- オンデバイスAI
- AI処理をデバイスそのもの(AIスマホ、AI PCなど)に搭載されたチップ(NPUなど)で行うAIです。クラウド接続なしでAI機能を利用できます。
- ローカルLLM (Large Language Model)
- クラウドサービスを介さず、ユーザーのデバイス(AI PCなど)上で直接実行される大規模言語モデルです。プライバシー保護やオフラインでの利用が可能です。
- Copilot+ PC
- Microsoftが提唱する次世代のAI PC規格で、40 TOPS以上のNPU性能を必須とし、ローカルAI機能(Copilotなど)を高速かつ効率的に実行できます。
- Snapdragon
- Qualcommが開発するモバイルデバイス向けSoC(System-on-a-Chip)のブランドです。高性能なCPU、GPUに加え、NPUを統合し、AIスマホの進化を牽引しています。
- TSMC (Taiwan Semiconductor Manufacturing Company)
- 世界最大の半導体ファウンドリ(受託製造)企業です。最先端の製造技術でNVIDIAやAppleなどのAI半導体を生産し、AIハードウェアエコシステムを支えています。
- 液冷システム
- 高性能なAIハードウェア(GPUなど)から発生する大量の熱を、液体(水や誘電性液体)を用いて効率的に冷却するシステムです。データセンターのPUE改善に貢献します。
- 推論用チップ
- 学習済みのAIモデルを使って、実際にデータから予測や判断を行う「推論」処理に特化した半導体です。低消費電力と高速処理が求められます。
- メモリ帯域幅
- プロセッサとメモリ間で1秒間に転送できるデータ量を示す指標です。AI処理では大量のデータアクセスが発生するため、メモリ帯域幅が大きいほど処理が高速化します。
- TPU (Tensor Processing Unit)
- Googleが開発したAI(特にTensorFlowフレームワーク)に特化したASICです。データセンターやエッジデバイスで、AIワークロードの高速化と効率化に貢献しています。
- 自動運転チップ
- 自動運転車に搭載され、センサーデータ(カメラ、レーダー、LiDARなど)をリアルタイムで処理し、周囲の状況認識や運転判断を行うためのAI専用半導体です。
- TOPS (Tera Operations Per Second)
- AIプロセッサの性能を示す単位で、1秒間に1兆回の演算(Operations)ができることを意味します。NPUの処理能力を示す際によく用いられます。
- ワットパフォーマンス
- 消費電力あたりの性能を示す指標です。AIハードウェアでは、特にエッジデバイスやデータセンターの運用コストを評価する上で重要な指標となります。
- 量子化 (Quantization)
- AIモデルのパラメータや計算精度を、より低いビット数(例: 32bitから8bit)に変換する技術です。モデルサイズを縮小し、エッジAIチップでの高速・低消費電力化に貢献します。
- VRAM (Video Random Access Memory)
- GPUに搭載される専用の高速メモリです。AIモデルの学習時、特に大規模モデルでは、このVRAM容量が不足するとモデルを読み込めない、あるいは処理速度が低下する原因となります。
- PUE (Power Usage Effectiveness)
- データセンターのエネルギー効率を示す指標です。データセンター全体の消費電力をIT機器の消費電力で割った値で、1.0に近いほど効率が良いとされます。AIサーバーの液冷システム導入などで改善が図られます。