既存PLC(プログラマブルロジックコントローラ)とエッジAIの連携による生産自動化

【実装仕様書】レガシーPLCをAI化する「後付けAPI」設計:Modbus/TCPとPythonをつなぐ架け橋

約11分で読めます
文字サイズ:
【実装仕様書】レガシーPLCをAI化する「後付けAPI」設計:Modbus/TCPとPythonをつなぐ架け橋
目次

この記事の要点

  • 既存PLC資産を最大限に活用し、大規模な設備投資なしでAI化を実現
  • リアルタイムなデータ解析と予測により、生産効率と品質を向上
  • ラダープログラムの変更を最小限に抑え、システム改修リスクを低減

長年の開発現場で培った知見から言えるのは、AI導入プロジェクトにおいて最も高い壁として立ちはだかるのは常に「レガシー設備との接続」だということです。

最新のGPUサーバーや洗練された深層学習モデルを用意しても、現場で20年以上稼働しているPLC(プログラマブルロジックコントローラ)からデータを吸い上げ、推論結果を戻す手段がなければ、それはビジネス価値を生まないただの「実験」で終わってしまいます。重要なのは、仮説を即座に形にして検証することです。

「ラダーロジックはブラックボックス化していて触れない」
「OT(運用技術)チームが外部接続を許可してくれない」
「PythonエンジニアがModbusプロトコルを理解するのに時間がかかる」

こうした課題に対し、アジャイルかつスピーディーな解決策として「PLCをラップするAPI層の構築」が考えられます。PLCをあたかもWebサーバーのように見立て、標準的なREST APIを通じて対話する。これにより、AIエンジニアは使い慣れたPythonとHTTPリクエストで現場の制御が可能になり、高速なプロトタイピングが実現します。

本記事は、単なる概念論ではありません。実際の開発現場で導入が進められている「PLC連携API」の設計仕様書(リファレンス)です。理論だけでなく「実際にどう動くか」を重視し、この仕様通りに実装すれば、工場のレガシー設備はAIレディな状態へと進化し、ビジネスへの最短距離を描くことができるでしょう。

1. PLC連携API アーキテクチャ概要

まず、本仕様書が前提とするシステム構成を定義しましょう。核心となるのは、PLCとAIサーバーの間に配置する「エッジゲートウェイ(API変換層)」です。

エッジゲートウェイの役割

直接AIサーバーからPLCへModbus通信を行うことも技術的には可能ですが、実運用を考慮すると推奨しません。通信プロトコルの差異、接続数制限、そしてセキュリティ境界の観点から、中間層(ミドルウェア)を設けるのがベストプラクティスです。

このAPI変換層は以下の責務を負います:

  1. プロトコル変換: Modbus/TCP、MCプロトコル、EtherNet/IPなどのFA独自プロトコルを、汎用的なHTTP/JSONに変換します。
  2. 接続管理: PLCへのコネクションをプールし、AI側からの多重アクセスによる負荷増大を防ぎます。
  3. データ整形: ビッグエンディアン/リトルエンディアンの差異や、バイナリデータの数値化を吸収します。

データフロー図:PLCレジスタとJSONのマッピング

AIエンジニアが意識すべきは「Dレジスタの何番地か」といったハードウェアの仕様ではなく、「どのセンサーの値か」というビジネスロジックです。API層でこのマッピングを解決することで、開発スピードは飛躍的に向上します。

  • 物理層: PLC (IP: 192.168.1.10) <--> [Modbus/TCP] <--> エッジゲートウェイ
  • 論理層: エッジゲートウェイ (http://localhost:8080) <--> [REST API] <--> AI推論エンジン (Python)

通信プロトコルの抽象化

本仕様では、下位レイヤーが三菱電機製(MCプロトコル)であれ、キーエンス製であれ、オムロン製(FINS)であれ、AI側からは統一されたインターフェースとして見えるように設計します。これにより、AIモデルの比較や研究も容易になります。

AIモデルが「推論開始トリガー」を検知するためにポーリングを行う場合でも、PLCへの直接負荷はゲートウェイがキャッシュすることで最小限に抑えられます。これにより、既存の制御サイクル(スキャンタイム)への影響を小さくすることが可能です。

2. 認証とセキュリティ仕様

1. PLC連携API アーキテクチャ概要 - Section Image

工場内の閉域網(イントラネット)であっても、制御機器へのアクセスに認証を設けないのは経営リスクの観点からも高すぎます。一方で、OAuth 2.0のような複雑なフローは、マシン間通信(M2M)にはオーバースペックであり、レイテンシの原因にもなります。技術の本質を見極め、適切なバランスを取ることが重要です。

ここでは、シンプルかつ堅牢なAPIキー方式を採用します。

APIキーによる簡易認証

すべてのHTTPリクエストには、ヘッダーに X-PLC-Auth-Token を含める必要があります。

GET /api/v1/devices/plc-01/registers HTTP/1.1
Host: 192.168.1.200
X-PLC-Auth-Token: sk_live_8f9a2b3c4d5e...

権限分離(Read-Only / Read-Write)

最も重要なのが、トークンによる権限分離です。データ収集のみを行うAIモデル(学習用)と、実際に制御信号を送るAIモデル(推論・制御用)では、付与するトークンを分けるべきです。

  • Read-Only Token: GET リクエストのみ許可。万が一漏洩しても、設備の誤動作は引き起こしません。
  • Read-Write Token: POST, PUT リクエストを許可。厳重に管理された推論サーバーにのみ配置します。

閉域網での運用前提

このAPIは、インターネットからの直接アクセスを想定していません。VPNまたは物理的に隔離されたOTネットワーク内での利用を前提とします。もしクラウド上のAIと連携する場合は、このAPIサーバー自体をDMZに置くのではなく、MQTT等でクラウドへプッシュする別プロセスを介在させるアーキテクチャを推奨します。

3. データ取得(Read)エンドポイント仕様

AI推論に必要な「現在の設備状態」を取得するためのAPIです。画像データ(カメラ)とは別に、温度、圧力、コンベア速度などの数値データを時系列で取得する際に使用します。

GET /api/v1/devices/{device_id}/registers

指定したデバイスのレジスタ値を読み取ります。

リクエストパラメータ:

パラメータ名 必須 説明
address Yes 読み出し開始アドレス(例: D1000, W200
count No 読み出すワード数(デフォルト: 1)。最大100程度を推奨。
type No データ型指定(int16, uint16, float32, string)。指定なき場合は uint16

レスポンス形式:型変換済みJSONデータ

PLCの生データは単なるビットの羅列ですが、API側で意味のある数値に変換して返します。これにより、Python側で struct.unpack などのバイナリ操作をする手間を省き、AIエージェント開発に集中できる環境を整えます。

{
  "device_id": "plc-line-01",
  "timestamp": "2023-10-27T10:30:05.123Z",
  "data": {
    "D1000": 254,       // コンベア速度 (int)
    "D1001": 1205,      // モーター回転数 (int)
    "D1002": 23.5       // 温度 (float変換済み)
  },
  "meta": {
    "scan_time_ms": 5
  }
}

一括読み出し(Block Read)による通信負荷軽減

Modbus通信において、1レジスタずつ読み出すのは非効率です。count=50 のようにまとめて取得し、ネットワーク往復回数を減らすのが定石です。API内部では、Modbusの Read Holding Registers (Function Code 03) を発行し、取得したバイト列を適切にスライスしてJSONにマッピングします。

4. 推論結果フィードバック(Write)エンドポイント仕様

3. データ取得(Read)エンドポイント仕様 - Section Image

AIが「不良品」と判断した際、排出ゲートを動かすための信号をPLCへ送るAPIです。ここは安全設計の要となります。

POST /api/v1/devices/{device_id}/commands

特定のレジスタやコイルに値を書き込みます。

リクエストボディ:

{
  "target": "D2000",
  "value": 1,
  "data_type": "bit",
  "safety_lock": "enabled" 
}

OK/NG判定フラグの書き込み

AIの判定結果は、通常「判定完了フラグ(ビット)」と「判定結果データ(ワード)」のセットで書き込みます。

  1. 判定結果書き込み: 例 D20011 (NG) を書き込む。
  2. 完了フラグON: 例 M100ON にする。

PLC側のラダープログラムは、M100 がONになった瞬間、D2001 の値を読み取って排出動作を行います。この順序性を保証するため、API内部ではトランザクション的に処理を行うか、あるいは1回のリクエストで複数アドレスへの書き込みをサポートする必要があります。

制御介入時の安全インターロック

AIからの書き込みは、PLC側で「AI制御モード」がONになっている時のみ受け付ける仕様にすべきです。APIサーバーは書き込み前に、PLCのステータスレジスタ(例: D9000)を確認し、メンテナンス中や手動モード中の場合は 403 Forbidden を返して書き込みを拒否します。これが最重要のフェイルセーフです。

また、ウォッチドッグタイマー(ハートビート)の実装も不可欠です。AIサーバーは定期的に特定のレジスタ(例: D9999)をインクリメントし続けます。PLC側は、この値が一定時間変化しなければ「AIサーバーダウン」と判断し、自動運転を停止するか、AIバイパスモードへ移行するロジックを組んでください。

5. エラーハンドリングとステータスコード

5. エラーハンドリングとステータスコード - Section Image 3

OT環境では、ケーブルの断線やノイズによる通信失敗が日常的に発生します。APIはこれらを適切に分類し、クライアント(AIアプリ)に伝える必要があります。

HTTPステータスコードとPLCエラーコードの対応

HTTP Code 意味 想定される原因と対処
200 OK 正常 書き込み/読み出し成功。
400 Bad Request 不正な要求 存在しないアドレス指定、型不一致。リクエスト内容を見直す。
403 Forbidden 禁止 認証エラー、またはPLCが「メンテナンスモード」で書き込み拒否。
408 Request Timeout タイムアウト PLCからの応答なし。ネットワーク負荷やPLCダウンの可能性。
409 Conflict 競合 他のプロセスが書き込み中。排他制御エラー。
503 Service Unavailable 接続不可 エッジゲートウェイとPLC間のリンクダウン。物理配線を確認。

再試行(リトライ)戦略

AIアプリケーション側では、503408 エラーを受け取った際、即座に例外を投げるのではなく、指数バックオフ(Exponential Backoff)を用いたリトライを行うべきです。ただし、制御のリアルタイム性が求められる場合(例:コンベア上のワークが通り過ぎてしまう場合)は、リトライを諦めて「判定不能(Unknown)」として安全側に倒す(例:一律排出する、またはラインを止める)判断ロジックが必要です。

6. Python SDK実装例

最後に、このAPI仕様をPythonから利用するためのSDK(クライアントコード)の例を示します。GitHub Copilotなどのツールを活用しながら、これをベースに plc_client.py として保存すれば、すぐにプロトタイプ開発を始められます。まずは動かしてみましょう。

import requests
import time
from typing import Optional, Dict, Any

class PLCClient:
    def __init__(self, base_url: str, api_key: str, device_id: str):
        self.base_url = base_url
        self.device_id = device_id
        self.headers = {
            "X-PLC-Auth-Token": api_key,
            "Content-Type": "application/json"
        }
        self.session = requests.Session()

    def read_register(self, address: str, count: int = 1) -> Optional[Dict[str, Any]]:
        """
        レジスタから値を読み出す
        """
        endpoint = f"{self.base_url}/api/v1/devices/{self.device_id}/registers"
        params = {"address": address, "count": count}
        
        try:
            response = self.session.get(endpoint, headers=self.headers, params=params, timeout=2.0)
            response.raise_for_status()
            return response.json().get("data")
        except requests.exceptions.Timeout:
            print(f"[Error] PLC Connection Timeout: {address}")
            # ここにフェイルセーフ処理(デフォルト値返却など)を記述
            return None
        except requests.exceptions.RequestException as e:
            print(f"[Error] API Request Failed: {e}")
            return None

    def write_command(self, target: str, value: Any) -> bool:
        """
        推論結果等を書き込む
        """
        endpoint = f"{self.base_url}/api/v1/devices/{self.device_id}/commands"
        payload = {"target": target, "value": value}
        
        try:
            response = self.session.post(endpoint, headers=self.headers, json=payload, timeout=1.0)
            response.raise_for_status()
            return True
        except Exception as e:
            print(f"[Critical] Failed to write command to {target}: {e}")
            return False

# --- 使用例 ---
if __name__ == "__main__":
    # 初期化
    client = PLCClient(base_url="http://192.168.1.50:8080", api_key="sk_test_12345", device_id="line-A")
    
    # 1. センサー値取得(トリガー待ち)
    sensor_data = client.read_register("D1000", count=1)
    
    if sensor_data and sensor_data.get("D1000") == 1:
        print("Trigger detected! Running AI inference...")
        
        # 2. AI推論(仮想)
        import random
        is_defect = random.choice([True, False])
        
        # 3. 結果書き戻し
        if is_defect:
            print("Defect detected. Sending NG signal.")
            client.write_command("D2000", 1) # NG信号
        else:
            print("Product OK.")
            client.write_command("D2000", 0) # OK信号

推論パイプラインへの組み込み

このクラスはステートレスに設計されているため、AIモデルの推論ループの中に容易に組み込めます。

PyTorchやTensorFlowといった主要なフレームワークでは、モデルのバージョンアップや実行環境の変更が頻繁に行われます。例えば、AIモデルの実行環境として広く利用されるDocker Engineがv29.1(2026年2月時点)へアップデートされ、一部のレガシー機能が廃止されるようなインフラ側の環境変化が起きることも珍しくありません。このような場合、CI/CDパイプライン(GitHub Actionsのランナー等)において、廃止された機能に依存するワークフローの設定を見直し、新しい仕様へ移行する対応が求められます。

しかし、このSDKはHTTPベースの疎結合な設計を採用しているため、コンテナ環境やインフラ側の設定変更が発生しても、PLC連携のコアロジックや通信インターフェース自体には影響を与えにくいのが特徴です。AI側の環境依存を切り離すことで、システム全体の保守性を高く保つことができます。

また、requests.Session() を使用することでTCPコネクション(Keep-Alive)を再利用し、API呼び出しのオーバーヘッドを最小限に抑えています。より高いスループットが求められる場合は、aiohttp などを用いた非同期処理への置き換えも検討してください。

まとめ:自前実装か、プラットフォームか

ここまで解説したAPI仕様は、レガシーPLCと最新AIをつなぐための「理想的な青写真」です。しかし、これをゼロからスクラッチで開発し、工場の24時間365日の稼働に耐えうる堅牢性を確保するには、相応のエンジニアリングリソースが必要です。

特に、Modbusプロトコルの細かい挙動(タイムアウト処理、バイナリ変換のエンディアン問題など)や、セキュリティの実装は、一見簡単そうでいて多くの落とし穴があります。まずはプロトタイプを作成して仮説検証を行い、技術の本質を見極めながら、自社のビジネスに最適なアプローチを選択していくことが成功への最短距離となるでしょう。皆さんの現場では、どのような課題に直面していますか?ぜひ、実践を通じて得られた知見を共有し合いましょう。

【実装仕様書】レガシーPLCをAI化する「後付けAPI」設計:Modbus/TCPとPythonをつなぐ架け橋 - Conclusion Image

コメント

コメントは1週間で消えます
コメントを読み込み中...