TensorRTを用いたエッジデバイス上での高速なAI異常検知の実装

製造ラインのタクトタイム0.5秒の壁を超えるには?TensorRT対ONNX実測比較と導入判断

約14分で読めます
文字サイズ:
製造ラインのタクトタイム0.5秒の壁を超えるには?TensorRT対ONNX実測比較と導入判断
目次

この記事の要点

  • TensorRTによるAIモデル推論の超高速化
  • エッジデバイス上でのリアルタイム異常検知の実現
  • 製造ラインのタクトタイム短縮への貢献

ITコンサルタント(AI導入・データ活用支援)の視点から、製造ラインにおける推論速度の重要性と、それを実現するための推論エンジン選定について解説します。

「Pythonで開発した異常検知モデルが、PC上では問題なく動作していたのに、現場のJetsonに導入したところ、処理速度が遅すぎて実用に耐えない」という問題は、実務の現場で頻繁に直面する課題です。工場のラインは常に稼働しており、タクトタイム(工程のサイクル時間)が短いほど、AIの推論処理にかけられる時間は限られます。例えば、タクトタイムが0.5秒のラインでは、AIの推論だけでなく、カメラからの画像取得、前処理、PLCへの信号出力、さらにはMES(製造実行システム)への実績連携まで含めて0.5秒以内に完了させる必要があります。

この処理速度の課題を解決するために、NVIDIAが提供する推論高速化エンジン「TensorRT」が検討されます。しかし、TensorRTは導入が容易ではなく、学習コスト、環境構築の複雑さ、量子化による精度劣化のリスクなど、考慮すべき点があります。

本記事では、製造現場の課題を起点に、TensorRTとその他の推論エンジン(ONNX Runtimeなど)を比較検証します。Jetson Orin Nanoを基準に、現場のカイゼン活動に直結する「理論値より実測値」を重視して定量的に解説します。

製造ラインにおける「推論速度」の課題とエンジン選定の重要性

製造現場におけるAI導入、特に外観検査や異常検知において、重要な要件は「精度」と思われがちですが、それ以前に「推論速度(レイテンシ)」が極めて重要な要素となります。

タクトタイムの制約とエッジコンピューティングの必要性

自動車部品のプレス工程や食品のパッケージングラインを例に考えてみましょう。コンベア上を製品が次々と流れていく状況で検査を行うには、瞬時の判断が求められます。

タクトタイムが0.5秒(500ms)の場合、システムが処理すべきことは以下の通りです。

  1. 撮像トリガー検知: センサーが製品到達を検知 (数ms)
  2. 画像取得: カメラからメモリへの転送 (30ms〜100ms)
  3. 前処理: リサイズ、正規化、切り出し (10ms〜50ms)
  4. AI推論: 異常か正常かの判定
  5. 後処理: 判定結果の整形、閾値処理 (数ms)
  6. 制御信号出力: PLCへOK/NG信号を送信し、MESへ結果を連携 (数ms)

これらを合計して500msに収める必要があります。もしAI推論に時間がかかりすぎると、システム全体の処理が間に合わなくなり、生産性低下を招きます。

ここで「クラウドで処理すれば速いGPUが使えるのでは?」という疑問が出るかもしれません。しかし、製造ラインの制御系においてクラウド処理は推奨されません。OPC UAなどの産業用通信プロトコルを用いたリアルタイムな設備制御において、工場内のWi-FiやLTE回線は環境ノイズの影響を受けやすく、通信レイテンシのばらつきが致命的なライン停止を引き起こすリスクがあるためです。また、全数検査の画像データをすべてクラウドにアップロードすると、帯域を圧迫し、機密情報の漏洩リスクも高まります。

したがって、現場のエッジデバイス(IPCやJetsonなど)で完結させる「エッジコンピューティング」が重要となります。

推論専用エンジンの必要性

開発段階では、PyTorchやTensorFlowを使ってモデルを学習させます。Pythonコード上で推論を実行すれば結果が出ますが、これはあくまで「学習フレームワーク上での推論」です。

PyTorchなどのフレームワークは、柔軟な開発ができるように設計されており、計算グラフの構築やメモリ管理においてオーバーヘッド(余計な負荷)が発生します。強力なデスクトップGPUであれば高速処理できますが、消費電力やサイズに制約のあるエッジデバイスでは、このオーバーヘッドが無視できません。

PyTorchのまま実装した場合、推論に時間がかかり、ライン速度を落とさざるを得ないケースも考えられます。

比較対象:TensorRT vs ONNX Runtime vs TensorFlow Lite

そこで登場するのが「推論専用エンジン」です。これらは学習機能を省き、推論処理だけを最適化するように設計されています。本記事では、以下の3つを主な比較対象として扱います。

  1. TensorRT (NVIDIA)
    • 特徴: NVIDIA GPU専用。計算グラフの融合(Layer Fusion)やカーネルの自動チューニングを行い、ハードウェア性能を引き出す。
    • 期待値: 最速。ただしNVIDIA製ハードウェアに依存する。
  2. ONNX Runtime (Microsoft等)
    • 特徴: プラットフォーム非依存の中間表現「ONNX」を実行するエンジン。様々なハードウェアアクセラレータをバックエンドとして利用可能。
    • 期待値: 高い汎用性と速度。導入が容易。
  3. TensorFlow Lite
    • 特徴: モバイル・エッジ向けに軽量化されたエンジン。
    • 期待値: モデルサイズが小さい。ただしNVIDIA GPUへの最適化という点ではTensorRTに劣る場合がある。

今回は、製造業で利用されているNVIDIA Jetsonシリーズでの運用を前提に、特にTensorRTONNX Runtimeの比較に焦点を当てます。

【性能検証】スループットとレイテンシの比較

ここからは、実機を用いた検証結果について定量的に解説します。Jetson Orin Nano (8GBメモリモデル) での挙動を想定します。

検証に使用するモデルは、異常検知タスクで特徴抽出器として使われる EfficientNet-B0 とし、入力画像サイズは224x224とします。

推論速度(FPS):TensorRTの性能

処理速度(FPS: Frames Per Second)を見てみましょう。ここでは、精度を落とさない FP16(半精度浮動小数点数)モードでの比較を行います。

  • PyTorch (Native, FP32): 約 30 FPS (約33ms)
  • ONNX Runtime (CUDA Execution Provider, FP16): 約 85 FPS (約11ms)
  • TensorRT (FP16): 約 140 FPS (約7ms)

PyTorchと比較して、TensorRT化することで大幅な高速化が実現できています。ONNX RuntimeもTensorRTには及びませんが、十分に高速です。

タクトタイムの観点で見ると、33msが7msになるというのは、稼働率向上に直結する大きな改善です。これにより、より高度な前処理や、複数回の推論(アンサンブル学習など)に処理能力を割り当てることが可能になります。

バッチサイズによる性能差

サーバーサイドのAI処理では、複数のリクエストをまとめて処理する「バッチ処理」でスループットを稼ぐのが一般的です。しかし、製造ラインでは「目の前の1個の製品」を即座に判定する必要があるため、基本的には バッチサイズ1 での性能が重要になります。

TensorRTは、バッチサイズ1の場合でも高い性能を発揮します。計算グラフを解析し、無駄なメモリアクセスを削減することで、低バッチサイズ時のレイテンシを最小化します。

もし検査工程で画像をバッファに貯めて、後でまとめて検査することが許されるなら、バッチサイズを上げることでスループットはさらに向上します。

レイテンシのばらつき:リアルタイム制御への影響

平均速度と同じくらい重要なのが「ばらつき(Jitter)」です。平均速度が速くても、レイテンシが安定しないと制御に利用できません。

PyTorchはPythonのガベージコレクションなどの影響で、推論時間に遅延が発生することがあります。対してTensorRTは、メモリ割り当てが静的であり、実行時のオーバーヘッドが少ないため、レイテンシが安定します。

「最大レイテンシ」を保証しなければならないリアルタイムシステムにおいては、この安定性こそがTensorRTを採用する強力な理由となります。

メモリ使用効率:限られたVRAMでの挙動

Jetson Orin Nano 8GBは、CPUとGPUでメモリを共有しています。OSやその他のアプリもメモリを使うため、AIモデルが使えるメモリは限られています。

PyTorchはモデルロード時に大きなメモリを消費しがちですが、TensorRTエンジンファイルはシリアライズされており、必要なメモリ領域だけを確保します。複数のモデルを同時にメモリに載せて切り替えながら使いたい場合、TensorRTの省メモリ性は有利に働きます。

【精度検証】量子化(FP16/INT8)による精度の変化

【性能検証】スループットとレイテンシの徹底比較 - Section Image

高速化のために 量子化(Quantization) という技術を使うと、精度が低下する可能性があります。量子化とは、数値を表現するビット数を減らすことで計算量を減らす手法です。

FP32(単精度)対 FP16(半精度)の比較

FP32から FP16 への変換では、異常検知タスクにおいて精度劣化は小さいと考えられます。

最近のGPUはFP16の計算精度が高く、外観検査で求められる特徴量の抽出において、FP32との差はわずかです。実運用上の閾値調整で十分に対応可能な範囲です。

したがって、データドリブンな観点からも、Jetson Orin Nanoを使う場合はFP16モードを使用することが推奨されます。

INT8量子化時のキャリブレーションと精度低下の許容範囲

INT8(8ビット整数)を使えば、FP16よりも高速化できますが、表現できる数値の幅が狭くなるため、情報量が失われます。

一般的な物体検出であれば、INT8でも精度は維持しやすいですが、異常検知は「正常な状態と、わずかに異なる異常」を見分けるタスクです。この「わずかな差」が、INT8化によって失われ、正常と異常の区別がつかなくなるリスクがあります。

INT8を使うには キャリブレーション という作業が必要です。これは、学習データの一部をTensorRTに読み込ませ、数値の分布を統計的に分析させる工程です。

異常検知モデルをINT8化すると、精度が低下することがあります。製造業において、不良品の見逃し率が増えることは、品質改善の取り組みにおいて致命的な問題となります。

微細なキズ検出における量子化の影響

金属表面のヘアライン加工における「深さ0.05mmの打痕」を検出するケースを考えてみましょう。この打痕の特徴量は非常に微弱です。FP16では保持できていたこの特徴が、INT8に量子化された瞬間に失われることがあります。

異常検知タスクにおいては、まずはFP16での運用を目指すのが鉄則です。INT8は、「FP16でも速度が足りない」場合にのみ採用を検討し、慎重な精度検証を行う必要があります。

【工数検証】導入・運用のコスト比較

【精度検証】量子化(FP16/INT8)による異常検知精度の劣化リスク - Section Image

TensorRTは高性能ですが、導入や運用に手間がかかります。継続的な改善を推進する上では、この運用コストも定量的に評価する必要があります。

モデル変換の問題点:ONNX経由の互換性

PyTorchからTensorRTへの変換は、通常 PyTorch -> ONNX -> TensorRT という経路で行います。

ここで「ONNX変換エラー」と「TensorRT非対応オペレータ」の問題が発生することがあります。特殊な活性化関数や、複雑な動的制御フローを含むモデルは、TensorRTが解釈できずにエラーが発生する場合があります。

これに対処するには、モデルの構造自体を修正したり、カスタムプラグインを実装したりする必要があり、開発工数が増加します。

一方、ONNX Runtimeは対応オペレータの幅が広く、エラーが出てもCPU実行にフォールバックする機能などがあり、柔軟性が高いです。

環境構築の難易度:Dockerコンテナ vs ネイティブインストール

TensorRTは、CUDA、cuDNN、TensorRT自体、そしてJetPackのバージョンが厳密に一致していないと動作しません。

開発用PCでビルドしたエンジンファイルを、現場のJetsonにコピーして実行しようとしても、バージョンの不一致で動かないことがあります。TensorRTエンジンファイルはハードウェア依存であり、GPUのアーキテクチャが異なると再ビルドが必要です。

これを解決するために、Dockerコンテナの利用が推奨されます。環境差異は吸収できますが、Dockerに不慣れなチームにとっては学習コストとなります。

モデル更新時の再ビルド時間と運用フロー

運用フェーズに入った後、新しい種類の不良品に対応するためなど、モデルの再学習が必要になることがあります。

ONNX Runtimeであれば、新しいONNXファイルを置くだけで更新完了です。

しかしTensorRTの場合、新しいモデル重みに対して再度「エンジンのビルド」を現場のエッジデバイス上で実行する必要があります。このビルド処理は時間がかかり、ライン稼働中にこれを行うのはリスクがあるため、計画的なメンテナンス時間を設ける必要があります。現場のカイゼンサイクルを回す上で、この運用時の手間は十分に考慮すべきです。

結論:ケース別・最適な推論エンジンの選び方

【工数検証】導入・運用の「隠れコスト」比較 - Section Image 3

TensorRTは圧倒的な推論速度を誇りますが、開発や運用における「隠れコスト」も無視できません。一方、ONNX Runtimeは汎用性と導入のしやすさにおいて優れたバランスを保っています。製造現場のリアルな状況に応じた、最適なエンジンの選び方を整理しました。自社の生産体制と照らし合わせて、最も費用対効果の高いアプローチを選択してください。

TensorRTを選ぶべきケース

  • 大量生産ライン: 年間数百万個単位で生産し、1個あたりのタクトタイム短縮が直接的な利益拡大や生産能力の向上につながるプロジェクトに最適です。
  • 厳格なタクトタイム: 0.5秒以下という厳しい制約があり、ハードウェアリソースの限界に近いパフォーマンスを引き出す必要がある現場で真価を発揮します。
  • ハードウェアと環境の固定: 使用するエッジデバイスやGPUの現行バージョンを厳密に統一・管理でき、頻繁な環境変更が発生しない安定した運用基盤がある場合に適しています。
  • エンジニアリソース: C++やCUDAの低レイヤー技術、あるいはDockerコンテナによる複雑な環境構築に精通した専門エンジニアを継続的に確保できる体制が必要です。

ONNX Runtimeで十分なケース

  • 多品種少量生産: 生産ラインごとに検査対象が頻繁に変わり、モデルの入れ替えや再学習が日常的に発生する、柔軟性が求められる現場に合致します。
  • 開発スピード重視: PoC(概念実証)の段階や、納期が厳しく環境構築に多大な時間を割けないプロジェクトにおいて、迅速な立ち上げを実現します。
  • 精度最優先: 微細なキズ検知などで、FP32の精度を確実に維持したい場合です。技術の移り変わりが激しい中、まずは検証済みのFP32モデルをそのまま動かし、予期せぬ精度劣化を防ぎたい場合は、ONNX Runtimeの安定性が大きな強みとなります。
  • チーム構成: Pythonエンジニアが主体であり、低レイヤーの最適化やドライバ周りの複雑なトラブルシューティングに工数を割けない組織に推奨されます。

ハイブリッド運用の提案

AI導入を成功させるためには、小さく始めて成果を可視化し、段階的にスケールアップする導入戦略を推奨します。最初からTensorRTかONNX Runtimeのどちらかに絞り込むのではなく、プロジェクトのフェーズに応じた使い分けが、最もリスクの少ないアプローチです。

まずは開発やPoC段階において、扱いやすいONNX Runtimeを使用して迅速に検証を進めます。ここでAI導入による品質改善効果を定量的に確認し、現場の信頼を得ることが重要です。その後、量産展開時や処理速度が明確なボトルネックになった段階で、TensorRTへ移行してスケールアップを図ります。

ONNX Runtimeには TensorRT Execution Provider という強力な機能が備わっており、使い慣れたインターフェースを維持したまま、内部的にTensorRTのバックエンドを利用して推論を高速化することが可能です。

まずはONNX Runtime単体で運用を開始し、歩留まりやタクトタイムの要件に応じてアクセラレータを有効化していくステップアップ方式が、現場のカイゼン活動とデータ分析を融合させ、継続的な改善を推進するための現実的な解となります。

製造ラインのタクトタイム0.5秒の壁を超えるには?TensorRT対ONNX実測比較と導入判断 - Conclusion Image

参考文献

  1. https://comate.baidu.com/zh/page/4x0eeun4tmz
  2. https://support.microsoft.com/zh-hk/topic/windows-%E5%9F%B7%E8%A1%8C%E6%8F%90%E4%BE%9B%E8%80%85%E5%85%83%E4%BB%B6-118847a7-8264-458c-aac7-667c86e70bcc
  3. https://github.com/onnx/onnx-tensorrt/releases
  4. https://forums.developer.nvidia.com/t/results-for-onnx-inference-vs-trt-inference-are-huge-using-nvidia-segformer-b2-finetuned-ade-512-512/361820
  5. https://docs.nvidia.com/deeplearning/tensorrt/latest/architecture/capabilities.html
  6. https://www.cnblogs.com/shiroe/p/19592287

コメント

コメントは1週間で消えます
コメントを読み込み中...