GPT-4oのマルチモーダル機能を活用した高度な画像解析システム

非定型帳票をChatGPTで構造化データへ変換:Pydanticを用いた堅牢な画像解析システム実装術

この記事は急速に進化する技術について解説しています。最新情報は公式ドキュメントをご確認ください。

約19分で読めます
文字サイズ:
非定型帳票をChatGPTで構造化データへ変換:Pydanticを用いた堅牢な画像解析システム実装術
目次

この記事の要点

  • GPT-4oのマルチモーダル機能による高度な画像認識
  • 非定型帳票や手書き文字の高精度なデジタル化
  • 画像からの情報抽出と構造化データへの変換

現場のDXを推進する中で、「この手書きのメモ、なんとかシステムに取り込めないか?」「取引先ごとにフォーマットが違う請求書、OCRの設定だけで日が暮れる……」といった「紙とデータの壁」に直面することは珍しくありません。従来のOCR(光学文字認識)技術は、定型的な活字には強いものの、レイアウトが崩れたり、手書き文字が混ざったりした瞬間に精度が低下する傾向がありました。また、帳票ごとに厳密な座標定義を行う手間も大きな課題です。

しかし、ChatGPTをはじめとするVLM(Vision Language Model)の進化により、この状況は劇的に変わりつつあります。最新の動向として、OpenAIのGPT-5.2(InstantおよびThinking)のような主力モデルは、GPT-4oなどの旧モデル(利用率低下により順次廃止・移行対象)と比較して、長い文脈の理解や画像の空間的把握、そして構造化データの出力精度が飛躍的に向上しています。さらに、GLM-OCRのようなドキュメント理解に特化したVLMも登場し、複雑なレイアウトや手書き文字をも高精度に解析できるようになりました。現代のマルチモーダルAIは、画像を単なる「ピクセルの集合」としてではなく、文脈を持った「意味のある情報」として深く理解する段階に到達しています。

本記事では、単に画像をAIに投げて「すごいですね」で終わる実験ではなく、業務システムに組み込むことを前提とした、堅牢な画像解析パイプラインの構築を目指します。具体的には、GPT-5.2などの最新VLMの能力を引き出し、非定型な帳票画像からPydanticを用いて型安全なJSONデータを抽出する実装プロセスを、コード付きで詳解します。

コスト計算やエラーハンドリング、そして旧モデルからの移行を視野に入れた実務で直面する課題にも踏み込んでいきます。最新のマルチモーダルAIの知見を実際の業務フローへ適用するための具体的なアプローチを提示しますので、ぜひシステム構築の参考にしてください。

本チュートリアルのゴールと技術選定の背景

なぜ今、専用OCRではなくLLMなのか

これまで、帳票処理といえば「AI-OCR」などの専用ソリューションが主流でした。これらは特定のタスク(例:定型的なレシートの読み取り)には特化していますが、汎用性に欠けるという課題があります。新しい種類のドキュメントに対応するには、多くの場合、再学習やテンプレート定義の追加が必要です。

一方、最新のマルチモーダルLLMのアプローチは根本的に異なります。画像と言語を統合的に理解するこれらのモデルは、従来技術の限界を突破する可能性を秘めています。

  1. ゼロショット解析能力: 事前のテンプレート定義なしに、初めて見るレイアウトの文書でも「これは請求書で、ここに合計金額がある」と文脈から判断できます。
  2. 推論と補完: 文字がかすれていても、「ご請求金額」という文脈から隣の数字が金額であると推論したり、手書きの癖字を前後の文脈から正しく読み取ったりすることが可能です。
  3. 構造化能力: 単なるテキストデータではなく、最初から指定したJSONスキーマに合わせてデータを出力できます。

システム構築において現在最も留意すべきなのが、モデルの世代交代です。2026年2月13日をもって、GPT-4oやGPT-4.1といったレガシーモデルは提供終了となりました。現在、OpenAIのモデルラインナップにおける業務標準は GPT-5.2 です。GPT-5.2は100万トークン級のコンテキストウィンドウを持ち、画像やPDFなどのマルチモーダル処理と高度な推論(thinking/instantの自動ルーティング)を兼ね備えています。長文や複雑なレイアウトの安定処理に極めて優れており、本記事で取り扱う非定型帳票の解析にまさに最適な選択肢と言えます。

作成するシステムの全体像:非定型帳票からJSONへ

今回構築するのは、以下のようなフローを持つPythonアプリケーションです。

  1. 入力: 手書き文字やノイズを含む非定型な帳票画像(請求書、納品書、手書きメモなど)。
  2. 処理: OpenAI APIを通じて GPT-5.2 に画像を送信し、視覚情報と言語情報を統合して解析。
  3. 検証: Pydanticモデルを使用して、出力データが期待する型(日付、数値、特定の文字列など)に適合しているかバリデーション。
  4. 出力: 業務システムで即利用可能なクリーンなJSONデータ。

技術スタック:OpenAI API, Pydantic, Python

本チュートリアルでは、以下の技術スタックを使用します。コーディング特化のタスクであればエージェント型の GPT-5.3-Codex の利用も効果的ですが、今回は汎用的な帳票の視覚解析を目的とするため、標準モデルを採用します。

  • Python 3.10+: 型ヒント機能をフル活用するため。
  • OpenAI SDK(最新版): beta.chat.completions.parse 機能(Structured Outputs)を使用するため。
  • Pydantic v2: データバリデーションとスキーマ定義のデファクトスタンダード。

特に Structured Outputs(構造化出力) は、業務システムへの組み込みにおいて不可欠な機能です。かつての「JSONモード」ではスキーマに従わない出力が稀に発生するという課題がありましたが、Structured Outputsを使用することで、モデルの出力が指定したJSONスキーマに厳密に準拠することが保証されます。この機能はGPT-5.2でも標準サポートされており、信頼性の高いデータパイプライン構築の要となります。

環境構築とAPIアクセスの基本

まずは開発環境を整えます。基本的なライブラリのインストールから始めますが、マルチモーダルAIを実務で活用する上で最も重要なのは「画像の前処理」と「コスト管理」の考え方です。

必要なライブラリのインストールとAPIキー管理

以下のコマンドで必要なパッケージをインストールします。

pip install openai pydantic python-dotenv

APIキーはコードに直接埋め込まず、必ず環境変数として管理してください。.env ファイルを作成し、以下のように記述します。

OPENAI_API_KEY=sk-proj-xxxxxxxx...

Pythonコード側での読み込みは以下の通りです。最新のOpenAIライブラリ仕様に基づき、クライアントインスタンスを生成します。

import os
from dotenv import load_dotenv
from openai import OpenAI

# 環境変数の読み込み
load_dotenv()

client = OpenAI(
    api_key=os.environ.get("OPENAI_API_KEY"),
)

画像の前処理(リサイズ、エンコード)のベストプラクティス

OpenAIのVision機能を利用して画像を送信するには、画像のURLを指定するか、Base64エンコードされた文字列を送信するかの2通りの方法があります。ローカルファイルを扱う業務システムやセキュリティ要件の厳しい環境では、後者のBase64方式が一般的です。

以下は、画像を読み込んでBase64文字列に変換するヘルパー関数です。

import base64

def encode_image(image_path: str) -> str:
    """
    ローカル画像を読み込み、Base64文字列にエンコードする
    """
    with open(image_path, "rb") as image_file:
        return base64.b64encode(image_file.read()).decode('utf-8')

注意点: 画像サイズが大きすぎると、アップロードに時間がかかるだけでなく、API側で自動的にリサイズされ、細かい文字がつぶれてしまう可能性があります。100万トークン級のコンテキストと高度なマルチモーダル処理(画像・音声・PDF)を備えた最新のGPT-5.2であっても、長辺が2048ピクセルを超える場合は、送信前にローカルで適切にリサイズしておくことを推奨します。これにより、処理速度の向上とトークン消費の最適化が期待できます。

コスト管理:トークン数と画像解像度の関係

導入検討時によく課題となるのが「画像の解析コスト」です。2026年2月13日にGPT-4oなどのレガシーモデルが廃止され、現在はGPT-5.2が業務標準モデルとして提供されています。GPT-5.2における画像入力コストは、主に画像サイズと詳細度(detailパラメータ)によって算出されます。

  • Low detail: 画像全体を縮小して概要だけを見るモード。固定の低トークン数で済みますが、細かい文字認識には向きません。
  • High detail: 画像を512px四方のタイルに分割して詳細に解析するモード。タイル数に応じたトークン数が加算されます。

帳票読み取りの場合、小さな文字や複雑なレイアウトを正確に読み取る必要があるため、基本的には detail: "high" を選択することになります。例えば、A4サイズの書類を高解像度で処理する場合、複数のタイルに分割され、それに応じたコストが発生します。

従来のOCRソリューションと比較して、GPT-5.2のような最新のLLMベースのアプローチは柔軟性が高く、高度な推論による精度向上も図られているため、コスト面でも競争力を持つケースが増えています。ただし、大量の非定型帳票を処理するシステムを構築する際は、必ず公式サイトで最新のAPI単価を確認し、事前の試算を行うことが重要です。また、システム開発時のコーディングタスクには、エージェント型コーディングモデルであるGPT-5.3-Codexを活用するなど、用途に応じたモデルの使い分けも開発効率を高めるポイントになります。

Part 1: 基本実装 - 画像からテキスト情報を引き出す

環境構築とAPIアクセスの基本 - Section Image

まずは、OpenAIの最新マルチモーダルモデルが画像をどのように「見ている」のかを確認するために、シンプルなテキスト抽出を試します。2026年2月時点で標準モデルとなっているGPT-5.2は、100万トークン級のコンテキストウィンドウを備え、画像やPDFなどのマルチモーダル処理において極めて高い安定性を発揮します。

シンプルな画像解説プロンプトの作成

ここでは、画像内の文字をすべて書き起こすプロンプトを作成します。最新のAPIではテキストと画像を組み合わせた入力が標準化されており、直感的な実装が可能です。なお、かつて広く使われたGPT-4oなどのレガシーモデルはChatGPT上では提供終了(APIは継続)となっており、現在新たにシステムを構築する際は、業務標準モデルであるGPT-5.2を指定するのがベストプラクティスです。

from openai import OpenAI
import base64

client = OpenAI()

# 画像をbase64エンコードする関数
def encode_image(image_path):
    with open(image_path, "rb") as image_file:
        return base64.b64encode(image_file.read()).decode('utf-8')

image_path = "path/to/your/receipt.jpg" # テスト用画像のパス
base64_image = encode_image(image_path)

response = client.chat.completions.create(
    model="gpt-5.2", # 汎用タスクおよびマルチモーダル処理に最適なGPT-5.2を指定
    messages=[
        {
            "role": "system",
            "content": "あなたは熟練したデータ入力オペレーターです。提供された画像の内容を正確に読み取り、マークダウン形式で出力してください。"
        },
        {
            "role": "user",
            "content": [
                {
                    "type": "text",
                    "text": "この画像に書かれている文字をすべて書き起こしてください。表形式の部分はマークダウンの表にしてください。"
                },
                {
                    "type": "image_url",
                    "image_url": {
                        "url": f"data:image/jpeg;base64,{base64_image}",
                        "detail": "high"  # 細かい文字認識にはhigh設定が推奨されます
                    }
                }
            ]
        }
    ],
    max_tokens=1000
)

print(response.choices[0].message.content)

レスポンスの検証とハルシネーションの確認

このコードを実行すると、高精度に文字が起こされます。GPT-5.2は高度な推論能力(thinkingプロセスとinstant処理の自動ルーティング)を備えており、以前のバージョンと比較して長文の安定処理やレイアウト認識の精度が飛躍的に向上しています。実務で導入する際は以下の点に注目して検証を行ってください。

  • レイアウトの再現: 表組みや箇条書きが、指示通りマークダウンで構造化されているか。
  • ノイズへの耐性: 撮影時の影、紙のシワ、傾きなどがあっても内容を正確に読み取れているか。

一方で、どれほど高性能な最新モデルであっても「ハルシネーション(幻覚)」のリスクはゼロではありません。特に、解像度が低く判読不能な箇所を、前後の文脈から「もっともらしい単語」で無理に埋めてしまうケースがあります。これを防ぐには、システムプロンプトに「読み取れない文字は推測せず『[不明]』と記述すること」といった明確な制約(グラウンディング)を加えるのが有効な対策となります。

日本語手書き文字の認識精度テスト

手元のメモ用紙に文章を書き、それをスマートフォンで撮影してテストしてみてください。従来のOCRエンジンでは認識が難しかった「崩れた手書き日本語」も、GPT-5.2のような最新のマルチモーダルモデルなら、前後の文脈を深く推論しながら正確に読み取ることが可能です。

単に文字の形状をピクセル単位で認識するだけでなく、文章全体の意味を理解して欠落部分を補完するこの「文脈力」こそが、LLMベースの画像解析システムにおける最大の強みと言えます。

Part 2: 応用実装 - Pydanticによる型安全な構造化データ抽出

ここからが本記事のハイライトです。テキストとして書き起こすだけでは、システム連携はできません。データベースに格納できる「構造化データ(JSON)」として抽出します。

出力スキーマの定義(Structured Outputs)

OpenAIの機能 Structured Outputs を使うために、Pydanticでデータモデルを定義します。ここでは「領収書」を例にします。

from pydantic import BaseModel, Field
from typing import List, Optional

# 明細行の定義
class LineItem(BaseModel):
    item_name: str = Field(..., description="商品名またはサービス名")
    quantity: int = Field(..., description="数量")
    unit_price: int = Field(..., description="単価(円)")
    line_total: int = Field(..., description="行の合計金額(円)")

# 領収書全体の定義
class Receipt(BaseModel):
    store_name: str = Field(..., description="店舗名")
    transaction_date: str = Field(..., description="取引日時 (YYYY-MM-DD形式)")
    items: List[LineItem] = Field(..., description="購入品目のリスト")
    total_amount: int = Field(..., description="合計金額(税込)")
    tax_amount: Optional[int] = Field(None, description="消費税額")
    payment_method: str = Field(..., description="支払い方法(現金, クレジットカード, 電子マネーなど)")

Fielddescription は非常に重要です。これがLLMへの指示書(プロンプト)の一部として機能します。例えば YYYY-MM-DD形式 と指定することで、画像に「令和5年10月1日」と書かれていても、AIが自動的に西暦変換して出力してくれます。

非定型フォーマットを正規化するプロンプトエンジニアリング

次に、このスキーマを使ってAPIを呼び出します。client.beta.chat.completions.parse メソッドを使用することで、定義したスキーマに厳密に従った出力を得ることができます。

ここで指定するモデル選びも重要です。2026年2月時点で、画像解析を伴う業務の汎用タスクには最新の標準モデルである GPT-5.2 の利用が推奨されます。GPT-4oなどのレガシーモデルは廃止されているため、既存システムからの移行時はGPT-5.2でプロンプトを再テストするとよいでしょう。

def analyze_receipt(image_base64: str) -> Receipt:
    response = client.beta.chat.completions.parse(
        model="gpt-5.2", # 2026年2月時点の最新標準モデル(画像・PDFマルチモーダル対応)
        messages=[
            {
                "role": "system",
                "content": "あなたは経理処理を自動化するAIアシスタントです。提供された領収書画像を解析し、構造化データを抽出してください。日付は必ず西暦に変換してください。"
            },
            {
                "role": "user",
                "content": [
                    {
                        "type": "text",
                        "text": "この領収書の情報を抽出してください。"
                    },
                    {
                        "type": "image_url",
                        "image_url": {
                            "url": f"data:image/jpeg;base64,{image_base64}",
                            "detail": "high"
                        }
                    }
                ]
            }
        ],
        response_format=Receipt, # ここでPydanticモデルを渡す
    )
    
    # パース済みのPydanticオブジェクトが返ってくる
    return response.choices[0].message.parsed

# 実行
try:
    receipt_data = analyze_receipt(base64_image)
    print(f"店舗名: {receipt_data.store_name}")
    print(f"合計金額: {receipt_data.total_amount}円")
    print(receipt_data.model_dump_json(indent=2))
except Exception as e:
    print(f"解析エラー: {e}")

このコードの利点は、receipt_data が既にPythonのオブジェクト(Receipt インスタンス)になっていることです。receipt_data.total_amount は文字列ではなく整数型(int)であることが保証されています。これにより、後続の処理で int() 変換によるエラーなどを心配する必要がなくなります。GPT-5.2の高度な推論能力により、複雑なレイアウトの帳票でも、指定した型にピタリとはまる安定した長文処理が実現します。

ゆらぎ(日付、金額表記)の統一処理

画像内の表記ゆらぎを吸収できるのもLLMの強みです。GPT-5.2は100万トークン級のコンテキストウィンドウと優れた文脈理解能力を備えており、以下のような変換を自動的に行います。

  • 日付: 「2023.10.1」「Oct 1, 2023」「R5.10.1」 → すべて 2023-10-01 に統一。
  • 金額: 「¥1,000」「1000円」「1,000-」 → すべて 1000 (int) に統一。
  • 会社名: 「(株)ABC」「株式会社ABC」 → プロンプト指示で正式名称に統一可能。

これらを従来のOCRと正規表現で実装しようとすると無限のパターンに対応する必要がありますが、最新のマルチモーダルモデルならPydanticの型定義と簡単な指示だけで堅牢なデータ抽出が実現できます。特に最新モデルでは、Instant処理とThinking処理の自動ルーティングが向上しているため、解析精度と応答速度のバランスも最適化されています。

Part 3: 実運用に向けた最適化とエラーハンドリング

Part 2: 応用実装 - Pydanticによる型安全な構造化データ抽出 - Section Image

プロトタイプが動いたら、次は本番環境で安定稼働させるための仕組みを考えます。システム開発の現場では、デモレベルから実運用へ移行する際に最も苦労するのは、予期せぬ入力データへの対応とコスト管理です。

2026年2月にGPT-4oなどのレガシーモデルが廃止され、100万トークン級のコンテキストと高度なマルチモーダル処理を備えたGPT-5.2が標準モデルとなった現在、コスト面から見た「既存OCRを使うべきケース」と「GPT-5.2を使うべきケース」の境界線を明確にすることが一層重要になっています。

読み取り不能・不明瞭画像のハンドリング

GPT-5.2のような最新モデルは推論能力が飛躍的に向上していますが、真っ暗な画像や極端なピンボケ画像、あるいは対象物が写っていない画像からは情報を抽出できません。この場合、AIはハルシネーション(幻覚)によって存在しない文字を出力しようとするか、空のデータを返すか、あるいはAPIエラーになる可能性があります。

対策として、Pydanticモデルにデータそのものではなく、メタデータとして「信頼度スコア」や「エラーフラグ」を含める設計をお勧めします。

class ReceiptAnalysisResult(BaseModel):
    receipt: Optional[Receipt] = None
    is_readable: bool = Field(..., description="画像から文字が読み取れた場合はTrue")
    confidence_score: int = Field(..., description="読み取りの確信度(0-100)")
    error_reason: Optional[str] = Field(None, description="読み取れなかった場合の理由")

このようにラップすることで、アプリケーション側で「読み取り失敗」をシステムエラーではなく正常系としてハンドリングし、ユーザーに再撮影を促すフローを構築できます。これはUX(ユーザー体験)の観点からも非常に重要です。

大量処理時のレート制限対策と並列処理

OpenAI APIなどのLLMプロバイダーには、レート制限(RPM: Requests Per Minute / TPM: Tokens Per Minute)が設けられています。特にGPT-5.2は長文の安定処理に優れていますが、過去の領収書データを一括でバッチ処理する場合などは、トークン消費量と並列数を適切に制御する必要があります。

Pythonの tenacity ライブラリを使用すると、堅牢なリトライ処理を簡潔に実装できます。

from tenacity import retry, stop_after_attempt, wait_exponential, retry_if_exception_type
import openai

@retry(
    stop=stop_after_attempt(3),
    wait=wait_exponential(multiplier=1, min=4, max=10),
    retry=retry_if_exception_type(openai.RateLimitError)
)
def analyze_receipt_with_retry(image_base64: str):
    return analyze_receipt(image_base64)

この実装により、一時的なAPIエラーやレート制限(429 Too Many Requests)が発生した際に、指数関数的なバックオフ(待機時間を徐々に延ばす)を行いながら自動で再試行してくれます。これにより、APIのスパイクを防ぎながら処理を完遂させることが可能です。

専用OCRサービス(AWS/Google)との使い分け基準

最後に、技術選定の指針を示します。すべての画像処理をGPT-5.2のようなVLM(視覚言語モデル)で行うのが正解とは限りません。AWSやGoogle Cloudが提供する専用OCRサービスは、依然として強力な選択肢です。

それぞれの特性を理解し、適材適所で使い分けることが重要です。

比較項目 AWS Textract / Google Cloud Vision OpenAI GPT-5.2 (マルチモーダル機能)
得意なデータ 定型帳票、活字、大量の標準的なドキュメント 非定型、手書き、複雑なレイアウト、文脈理解が必要なもの
出力形式 座標付きの生テキスト、Key-Valueペア 指定したスキーマの構造化データ (JSON)
精度 文字認識(OCR)そのものは非常に高速かつ高精度 文字認識 + 高度な推論による補正が可能
コスト 一般的に安価(画像枚数ベースの従量課金) トークン課金のため、高解像度画像や出力が多いと高くなる傾向
速度 高速(数百ミリ秒〜数秒) 推論に数秒〜10秒程度かかる場合がある(thinking/instant自動ルーティングに依存)

推奨するハイブリッド構成:

実務においては、以下のようなパイプラインを組むケースが一般的です。

  1. 第1段階(専用OCR): まずはAWS Textractなどで安価に高速処理を試みる。
  2. 第2段階(VLMへのフォールバック): 信頼度スコアが低い場合や、フォーマットが未知で抽出に失敗した場合のみ、GPT-5.2に回す。

この構成により、処理コストを抑えつつ、非定型帳票への対応力というVLMの強みを活かすことができます。コストと精度のバランスを見極めながら、最適なアーキテクチャを選択してください。

まとめと次のステップ

領収書全体の定義 - Section Image 3

本記事では、OpenAIの最新マルチモーダルモデルを活用し、非定型な画像データから構造化されたJSONを取り出す手法を解説しました。GPT-5.2をはじめとする最新のAI技術は、単なるテキスト処理を超え、視覚情報の高度な理解と構造化を可能にしています。

実装したシステムの振り返り

今回構築したシステムのポイントは以下の3点です。

  1. マルチモーダル機能の活用: 画像やPDFを直接モデルに理解させることで、従来のOCRで必要だった厳密な座標定義の制約から解放されました。GPT-5.2のような最新モデルでは、日本語の手書き文字や複雑なレイアウトの認識精度も飛躍的に向上しています。
  2. Pydanticによる型安全: Structured Outputs を使い、後工程で扱いやすいJSONデータを生成しました。これにより、システム連携時のデータ品質が確実なものとなります。
  3. 実用性の担保: エラーハンドリングやコスト構造を理解し、ビジネス適用への道筋をつけました。100万トークン級のコンテキストウィンドウを活かせば、複数ページにわたる大量の帳票を一括処理するアプローチも視野に入ります。

RAGシステムやエージェントへの統合

抽出したJSONデータは、単にデータベースへ保存するだけでなく、さらなる高度な活用が可能です。

  • RAG(検索拡張生成)への応用: 抽出データをベクトル化し、社内のナレッジベースとして活用できます。例えば、過去の手書き日報をすべてデジタル化し、「先月の特定顧客におけるトラブル対応の内容は?」と自然言語で検索できるようにするなど、社内に眠る非構造化データを価値ある知識へと変換できます。
  • AIエージェントとの連携: 最新のGPTsカスタマイズやエージェント機能と組み合わせることで、抽出したデータを基に会計ソフトへの自動入力や承認ワークフローの起票までを自律的に行うシステム構築も現実的です。複雑な推論タスクにおいても、GPT-5.2の高度なルーティング機能が長文の安定処理を支えます。

社内導入に向けた評価チェックリスト

導入を検討する際は、以下の観点でPoC(概念実証)を行うことをお勧めします。

  • 精度検証: 自社特有の帳票で十分な認識精度が出るかを確認します。特に手書き文字や特殊フォントが混在するケースでは、最新の高度推論モデルを用いた実証が有効です。
  • セキュリティとコンプライアンス: エンタープライズ向け環境を利用し、機密データのプライバシー要件を満たせるかを慎重に評価します。
  • コスト対効果: 処理枚数とAPIコスト、そして削減できる人件費のバランスは適正かを検討します。GPT-4oなどのレガシーモデルが段階的に廃止され、GPT-5.2へ統合されたことで、コストパフォーマンスと処理の安定性がさらに向上しています。

こうした課題に対し、現在のマルチモーダルAIは推論速度の向上やコストの最適化が進んでおり、以前よりも導入のハードルは格段に下がっています。まずは手元の1枚の画像から、業務プロセスの変革に着手してみてはいかがでしょうか。

非定型帳票をChatGPTで構造化データへ変換:Pydanticを用いた堅牢な画像解析システム実装術 - Conclusion Image

コメント

コメントは1週間で消えます
コメントを読み込み中...