基盤モデルの関数呼び出し(Function Calling)におけるJSON抽出精度の各社比較

LLMのFunction Calling精度を自前で測る:各社モデル比較ベンチマーク構築チュートリアル

この記事は急速に進化する技術について解説しています。最新情報は公式ドキュメントをご確認ください。

約14分で読めます
文字サイズ:
LLMのFunction Calling精度を自前で測る:各社モデル比較ベンチマーク構築チュートリアル
目次

この記事の要点

  • Function CallingにおけるJSON抽出精度の重要性
  • 各社LLMのJSON抽出エラーやハルシネーションの問題
  • 自社データに最適なモデルを選定するためのベンチマーク構築

LLMのFunction Calling精度を定量評価するテスト基盤の構築

「GPT-5.2は安定性が高い」「Geminiはコンテキストが長い」「Claude 3.5 Sonnetはコード生成に強い」など、AIモデルの進化は非常にスピーディです。公式リリースノートによると、OpenAIは2026年2月13日をもってChatGPTのWebインターフェースおよびモバイルアプリからGPT-4o、GPT-4.1、o4-miniなどの旧モデルを完全に廃止しました。現在、標準モデルは応答速度や推論能力が向上したGPT-5.2ファミリー(Instant、Thinking、Auto、Proの4モード)へと完全に一本化されています。API経由のシステム組み込み用途では一部の旧モデルが引き続き利用可能ですが、新規開発や今後の安定運用を見据えると、公式に推奨されているGPT-5.2への移行準備が不可欠です。しかし、実際に新しいモデルをシステムに組み込むと、「期待通りのJSON形式で返ってこない」「指定した特定フィールドが無視される」といった問題に直面するケースは珍しくありません。

APIドキュメントに記載された仕様や、公開されている一般的なベンチマークスコアは、あくまで「標準的な条件下」での数値に過ぎません。扱うデータ構造の複雑さ、特有のドメイン知識、システムが許容できるレイテンシにおいて、どのモデルが最適解となるかは、実際の環境で計測しない限り正確な判断を下すことは困難です。特に、GPT-4oから後継であるGPT-5.2のような主力モデルへ移行する場面では、既存のプロンプトやデータ構造が新しい推論エンジンでも正しく機能するかを検証するプロセスが欠かせません。Webインターフェース上での利用が新モデルへ統合された現在、API利用時にも旧モデルへの依存から脱却し、最新モデルの特性に合わせたチューニングを行う必要があります。

本記事では、複数のLLMにおけるFunction Calling(関数呼び出し・構造化データ抽出)の精度を、ローカル環境で定量的に比較評価するためのテスト基盤構築手順を解説します。開発者自身が評価基準を設け、継続的にモデルを評価・選定するための実践的なアプローチを提供します。このような独自の評価基盤を整えることで、将来的な旧モデルの廃止や新バージョンの登場時にも代替モデルへの移行リスクを最小限に抑え、客観的なデータに基づいた迅速な技術選定が実現します。

このチュートリアルのゴール:モデル選定の「感覚値」を排除する

システム開発では再現性と定量性が重要視されますが、LLMの組み込みにおいては「なんとなく精度が良い」といった感覚的な評価でモデルが選定されるケースが見受けられます。本記事ではこの曖昧さを排除し、以下の具体的な指標に基づいて意思決定できる状態を目指します。

  • 構文エラー率: JSONとしてパースできない不正な形式で出力された割合
  • スキーマ準拠率: Pydanticなどで定義した型制約(必須項目、データ型、Enum定義など)を満たした割合
  • 幻覚(ハルシネーション)発生率: 定義していないフィールドを不当に生成した割合
  • コスト対効果: 1件の成功レスポンスを得るために消費したトークンコストと処理時間

なぜ公開ベンチマークは自社ユースケースに当てはまらないのか

公開されているリーダーボードは基礎能力の測定には有用ですが、特定のビジネスロジックにおけるFunction Callingの精度までを保証するものではありません。「深くネストされたJSON構造」や「日本語特有の曖昧な表現からの情報抽出」など、実務に特化した比較データは常に不足しています。

例えば、住所情報の正規化タスクで「東京都港区」と入力された際、「都道府県」と「市区町村」に正しく分割するモデルもあれば、「1-1-1」のような存在しない番地を補完してしまうモデルもあります。こうした挙動の差異は汎用的なベンチマークでは見落とされがちであり、実際のデータを用いた検証プロセスが求められます。実環境でのパフォーマンスを正確に把握しなければ、本番稼働後に予期せぬエラーに直面するリスクが高まります。

構築する評価パイプラインの全体像

今回構築するパイプラインは、以下の流れで動作します。

  1. Input: テストケース(非構造化テキストと期待される抽出スキーマのセット)の準備
  2. Process: 統一インターフェース経由で各プロバイダーのAPI(OpenAI、Anthropic、Googleなど)へリクエストを送信
  3. Validate: レスポンスをPydanticモデルで検証し、エラーの詳細を記録
  4. Output: モデルごとの成功率、エラー傾向、処理コストをCSVレポートとして出力

最終的には、コマンド一つで複数モデルを一斉にテストし、以下のような比較表を自動生成する仕組みを構築します。

Model Success Rate Avg Latency Cost Efficiency Common Error
GPT-5.2 99.1% 1.1s Medium None
GPT-4o 98.5% 1.2s High None
Claude 3.5 Sonnet 97.2% 1.5s Medium Enum Mismatch
Gemini 2.0 Pro 96.5% 0.9s Low Missing Field

※上記のモデル名や数値は例示です。実際の検証では最新モデルや安定版を指定して評価します。

最新の標準モデルであるGPT-5.2と、APIで継続利用可能なGPT-4oを並行して評価し、対象タスクにおけるコストと精度のバランスを見極める必要があります。Web上のチャットインターフェースで体感した性能がAPI経由のシステム連携にそのまま当てはまるとは限らないため、独自のベンチマークを構築し定点観測する仕組みが重要です。この評価基盤により、「なぜこのAPIモデルを選定したのか」を客観的な数値データで論理的に説明できるようになります。

環境構築:マルチモデル対応の基盤を整える

Pythonを使用し、LLMのオーケストレーションにはLangChainを採用します。各プロバイダーで異なるAPI仕様(OpenAIのtools、Anthropicのtools、Googleのfunctionsなど)を抽象化し、統一的なインターフェースで扱うためです。

必要なライブラリのインストール

以下のコマンドで必要なパッケージをインストールします。

pip install langchain langchain-openai langchain-anthropic langchain-google-genai pydantic pandas python-dotenv
  • langchain-*: 各プロバイダー向けのラッパーライブラリ
  • pydantic: データ構造定義とバリデーションの中核
  • pandas: 結果の集計と分析用
  • python-dotenv: 環境変数の管理

APIキーの安全な管理

プロジェクトルートに .env ファイルを作成し、各プロバイダーのAPIキーを設定します。誤ってバージョン管理システムにコミットしないよう、.gitignore に追加してください。

OPENAI_API_KEY=sk-...
ANTHROPIC_API_KEY=sk-ant-...
GOOGLE_API_KEY=AIza...

共通インターフェースの設計思想

「モデルを差し替えても同じコードでテストできる」ことが重要です。厳密な検証を行うため、少し低レイヤーな「ツール定義(Function definition)」を共通化して各モデルに渡すアプローチを取ります。これにより、モデルが「ツールをどう解釈しているか」の違いを明確に比較できます。

Part 1: 「意地悪な」テストケースデータの作成

環境構築:マルチモデル対応の基盤を整える - Section Image

ベンチマークの品質はデータセットの品質に依存します。単純なタスクでは現代のLLMはどれも高い精度を出すため、有意な差がつきません。モデルの実力を正確に測るには、実務で起こりうる不完全なデータや複雑な構造(いわゆる意地悪なテストケース)を用意する必要があります。

Pydanticによる複雑なネスト構造スキーマの定義

Eコマースサイトの注文情報をメール本文から抽出するシナリオを想定し、以下の複雑な条件を含めます。

  1. 深いネスト: 注文情報の中に商品リストがあり、商品の中に詳細スペックが含まれる。
  2. Enum制約: 配送方法は指定された選択肢以外を認めない。
  3. Optionalフィールド: 存在しない情報は null として扱う。
  4. リスト構造: 複数の商品を正しく配列として認識できるか。
from typing import List, Optional
from pydantic import BaseModel, Field, ValidationError
from enum import Enum

# 配送方法の定義(Enum制約)
class DeliveryMethod(str, Enum):
    STANDARD = "standard"
    EXPRESS = "express"
    DRONE = "drone"

# 商品詳細スペック
class ProductSpec(BaseModel):
    color: Optional[str] = Field(None, description="商品の色")
    size: Optional[str] = Field(None, description="商品のサイズ")
    weight_grams: Optional[int] = Field(None, description="重量(グラム単位)")

# 商品情報
class OrderItem(BaseModel):
    product_name: str = Field(..., description="商品名")
    quantity: int = Field(..., description="注文数量")
    unit_price: int = Field(..., description="単価")
    specs: Optional[ProductSpec] = Field(None, description="商品の仕様詳細")

# 注文全体(ルートモデル)
class OrderExtraction(BaseModel):
    order_id: Optional[str] = Field(None, description="注文ID")
    customer_name: str = Field(..., description="顧客氏名")
    items: List[OrderItem] = Field(..., description="注文商品リスト")
    delivery_method: DeliveryMethod = Field(..., description="配送方法")
    shipping_address: str = Field(..., description="配送先住所")
    notes: Optional[str] = Field(None, description="備考")

このスキーマはモデルに対する「罠」を含んでいます。例えば weight_grams は整数(int)を要求しますが、テキストに「2.5kg」と記載されている場合、モデルはそれを「2500」に変換する推論能力が求められます。

エッジケースの準備

次に、このスキーマに入力するためのテストデータを用意します。

  1. 理想的なケース: 情報がすべて揃っており、明確に記述されている。
  2. 欠損ケース: 必須項目(例:配送方法)が記載されていない。
  3. ノイズ混入ケース: 注文とは無関係な挨拶や宣伝文句が含まれている。
  4. 曖昧ケース: 「いつものやつでお願い」といったコンテキストに依存する表現。
test_cases = [
    {
        "id": "case_001",
        "text": "注文お願いします。佐藤です。赤いTシャツ(Lサイズ)を2枚と、青いスニーカーを1足。配送はいつものドローン便で。住所は東京都港区...",
        "difficulty": "medium"
    },
    {
        "id": "case_002",
        "text": "先日の件ですが、キャンセルで。あ、やっぱり注文します。水1ケース。急ぎで。",
        "difficulty": "hard" # 商品名が曖昧、配送方法が「急ぎ」という抽象表現
    }
]

Part 2: 統一実行エンジンの実装

データセットと評価用スキーマの準備後、処理の中核となるエンジンを構築します。LangChainの with_structured_output メソッドを活用し、プロバイダーごとのAPI仕様の差異を吸収して単一のインターフェースで複数モデルを統一的に扱います。

Strategyパターンを用いたAPI呼び出しの抽象化

複数のLLMを公平に比較検証するため、指定したモデル名に応じて動的に適切なインスタンスを返すファクトリー関数を実装します。API経由でのGPT-4o利用は継続されているため、最新のGPT-5.2との精度差を計測することはシステム移行の検討において有益です。

検証環境の構築で最も配慮すべき点は、Temperatureを 0 に固定することです。出力結果のランダムな揺らぎを排除し、決定論的な振る舞いを強制することで、再現性の高い客観的なスコアを取得できます。

from langchain_openai import ChatOpenAI
from langchain_anthropic import ChatAnthropic
from langchain_google_genai import ChatGoogleGenerativeAI
import os

def get_model(model_name: str):
    """
    モデル名に基づいて適切なLangChainのChatモデルインスタンスを返します。
    すべてのモデルでtemperature=0を設定し、決定論的な出力を促します。
    """
    # 実際の実装では、環境変数からAPIキーが読み込まれていることを前提とします
    if "gpt" in model_name:
        # OpenAIモデル(例: gpt-4o, gpt-3.5-turboなど)
        return ChatOpenAI(model=model_name, temperature=0)
    
    elif "claude" in model_name:
        # Anthropicモデル(例: claude-3-5-sonnet-20240620など)
        return ChatAnthropic(model=model_name, temperature=0)
    
    elif "gemini" in model_name:
        # Google Geminiモデル
        return ChatGoogleGenerativeAI(model=model_name, temperature=0)
    
    else:
        raise ValueError(f"未対応のモデルです: {model_name}")

統一実行ループの実装

Pydanticモデルを各言語モデルにバインドし、テストケースを順次実行するループ処理を実装します。実行中にエラーが発生してもプロセスを中断させず、エラー詳細を記録して次の処理へ継続させる堅牢なエラーハンドリングが重要です。レートリミットへの到達やJSON出力の失敗といったエラー事象自体が、モデルの安定性を測る価値あるデータポイントとなります。

import time
from typing import List, Dict, Any

def run_benchmark(model_names: List[str], test_cases: List[Dict], schema) -> List[Dict]:
    results = []
    
    for model_name in model_names:
        print(f"Testing model: {model_name}...")
        try:
            llm = get_model(model_name)
            
            # LangChainの標準メソッドで構造化出力を強制
            # これにより、各社の独自API(Tools/Functions)の差異が吸収されます
            structured_llm = llm.with_structured_output(schema)
            
            for case in test_cases:
                start_time = time.time()
                result_data = None
                error_message = None
                success = False
                
                try:
                    # 推論実行
                    result_data = structured_llm.invoke(case["text"])
                    success = True
                except Exception as e:
                    # 実行時エラーやパースエラーを捕捉
                    error_message = str(e)
                
                end_time = time.time()
                
                # 結果を記録
                results.append({
                    "model": model_name,
                    "case_id": case["id"],
                    "latency": end_time - start_time,
                    "success": success,
                    "output": result_data,
                    "error": error_message
                })
                
        except Exception as e:
            print(f"モデル {model_name} の初期化または実行中に致命的なエラーが発生しました: {e}")
            
    return results

この実装の中核である with_structured_output メソッドにより、各プロバイダーに最適なAPIリクエスト形式へ自動変換されます。開発者はAPI仕様の差異吸収から解放され、純粋な抽出精度の比較検証に集中できます。

補足:レートリミットへの配慮

提示したコードは同期処理で1件ずつ実行するため、APIのレートリミットに抵触しにくい安全な構成です。大量のテストケースを一括処理する環境へ拡張する場合は、asyncio を活用した非同期処理やリトライロジック(指数バックオフなど)の実装が前提となります。

Part 3: 自動評価ロジックとスコアリングの実装

Part 2: 統一実行エンジンの実装 - Section Image

実行結果が得られたら内容を評価します。「エラーが発生したか」だけでなく「どのような種類のエラーか」を分類することが重要です。

エラーの分類学

Function Callingにおける失敗は、大きく以下の3つに分類できます。

  1. JSON Decode Error: モデルが有効なJSONを返さなかったケース。括弧の閉じ忘れや余計な説明文が含まれる場合など。
  2. Validation Error: JSONとしては正しいがスキーマに違反しているケース。数値フィールドに文字列が入る、必須項目が欠けるなど。
  3. Hallucination (幻覚): スキーマに存在しないフィールドを不当に生成、または入力テキストにない情報を捏造しているケース。

評価関数の実装

特に注意すべきは「幻覚」の検知です。Pydanticはデフォルトで「余分なフィールド」を無視することがあるため、設定で extra='forbid' にしておくと、予期しないフィールドの追加をエラーとして検知できます。

# 評価ロジックの拡張例
def analyze_error(error_msg):
    if error_msg is None:
        return "None"
    if "json" in error_msg.lower():
        return "JSON Syntax Error"
    if "validation error" in error_msg.lower():
        if "missing" in error_msg.lower():
            return "Missing Required Field"
        if "type" in error_msg.lower():
            return "Type Mismatch"
    return "Other Error"

# 結果リストに対して適用
for res in results:
    res["error_type"] = analyze_error(res["error"])

さらに高度な検証として、「正解データ(Ground Truth)」との比較も組み込むべきです。テストケースに「期待されるJSON」を用意し、モデル出力と比較することで「形式は正しいが中身が間違っている」ケースを検出できます。これには DeepDiff などのライブラリが役立ちます。

from deepdiff import DeepDiff

# 正解データとの比較(簡易版)
if success and "expected_output" in case:
    diff = DeepDiff(case["expected_output"], result_data.dict(), ignore_order=True)
    res["accuracy_score"] = 1.0 if not diff else 0.0
    res["diff_details"] = str(diff)

検証結果の可視化と各社モデルの傾向分析

ベンチマークを実行しデータが集まったら、Pandasを使ってデータを集計し、インサイトを導き出します。

Pandasによる集計

import pandas as pd

df = pd.DataFrame(results)

# モデルごとの成功率と平均レイテンシ
summary = df.groupby("model").agg({
    "success": "mean",
    "latency": "mean",
    "error_type": lambda x: x.value_counts().index[0] if len(x.value_counts()) > 0 else "None"
})

print(summary)

モデル別傾向の考察(例)

評価パイプラインを実行することで、各モデルの特性や傾向が明確になります。

  • OpenAI (GPT-5.2): 最新モデルとして高い推論能力とスキーマ準拠率を示します。複雑なマルチステップのFunction Callingにおいても文脈を正確に維持し、エラー率が極めて低くなっています。ただし、最新モデルゆえのレイテンシのばらつきやコスト面を考慮し、ユースケースに応じたGPT-4oとの使い分けが推奨されます。
  • OpenAI (GPT-4o): スキーマ準拠率が高く、複雑なネスト構造でも破綻は稀です。strict=True オプション(Structured Outputs)使用時の信頼性は非常に高く、API経由での利用において引き続き中核的な選択肢となります。推論精度とAPIコストのバランスを見極めた活用が求められます。
  • Anthropic (Claude 3.5 Sonnet): 記述力が高く、曖昧な入力からの推論に強い傾向があります。ただし、JSON内にコメントを含めようとするなど人間味のあるエラーを出すケースがあり、システムプロンプトで出力フォーマットを厳密に指定する対策が有効です。
  • Google (Gemini 1.5 Pro): 処理速度とコンテキストウィンドウの広さが特徴ですが、Function CallingではEnum制約を無視して類似の言葉(standard ではなく normal など)を出力するケースが見られます。出力のパース処理にはフォールバックの仕組みを推奨します。

特性を把握すれば「住所抽出には厳格なGPT-5.2やGPT-4o、商品レコメンド理由生成には表現力豊かなClaude 3.5 Sonnet」といった適材適所のアーキテクチャを設計できます。定期的にベンチマークを実行する仕組みがあれば、モデルアップデートによる挙動変化もいち早く検知でき、継続的な計測が安定したAIシステム運用への近道となります。

完成と次のステップ:本番運用に向けた最適化

評価ロジックの拡張例 - Section Image 3

独自のベンチマーク環境は完成しましたが、実運用に向けてシステムをより堅牢にするためのステップを解説します。

エラー発生時のフォールバック戦略

本番環境では失敗した場合の保険として「カスケード(連鎖)処理」という設計パターンが有効です。

  1. まずは高速かつ安価なモデル(例:GPT-4o mini や Gemini 1.5 Flash)でデータ抽出を試みる。
  2. バリデーションエラーが発生した場合、そのエラーメッセージを含めて高性能なモデル(Claude 3.5 Sonnet、GPT-4o、最新のGPT-5.2など)にリトライさせる。

API経由でのGPT-4o利用は継続されているため、実績のある既存モデルと最新モデルを柔軟に組み合わせることが可能です。この構成により、システム全体の平均コストを抑えつつ最終的な成功率を大幅に引き上げられます。構築した検証ツールを活用すれば、どのモデルを一次受けにするのが最も費用対効果が高いか正確にシミュレーションできます。

CI/CDパイプラインへの組み込み

プロンプトやデータスキーマの変更時にベンチマークを自動実行する仕組み(CI/CD)を整えることを推奨します。GitHub Actions等を利用し、プルリクエスト作成時に回帰テストとして精度を自動計測するフローを構築します。

これにより、プロンプト修正による予期せぬ精度低下を未然に防げます。APIモデルのバージョンアップや将来的な非推奨化の際にも、新モデルへの移行テストが容易になり、外部要因の変化に迅速に対応できるシステムが実現します。

終わりに:銀の弾丸はない

AIモデルにはそれぞれ固有の強みと課題が存在します。単一の「最強モデル」を探すのではなく、扱うデータの性質とビジネス要件にとって「最適なモデル」を見極める視点が求められます。そのためには外部の評判や一般的なベンチマーク結果を鵜呑みにせず、対象となるプロジェクト環境における継続的な検証が欠かせません。

本記事で解説したアプローチが、論理的でデータドリブンなAI開発を進める上で実践的な手助けとなれば幸いです。

LLMのFunction Calling精度を自前で測る:各社モデル比較ベンチマーク構築チュートリアル - Conclusion Image

コメント

コメントは1週間で消えます
コメントを読み込み中...