AirtableとAIを組み合わせた非構造化データからの情報抽出アプリ

【実録】Airtable×AIで顧客の声を構造化!月500件の分析を自動化した泥臭い開発記録

この記事は急速に進化する技術について解説しています。最新情報は公式ドキュメントをご確認ください。

約14分で読めます
文字サイズ:
【実録】Airtable×AIで顧客の声を構造化!月500件の分析を自動化した泥臭い開発記録
目次

この記事の要点

  • AirtableとAIで非構造化データを自動で構造化
  • 顧客の声を効率的に分析しビジネスインサイトを獲得
  • ノーコード・ローコードでAIアプリを自作可能

はじめに

「顧客の声(VoC)を聞け」

シリコンバレーのスタートアップでも、日本の老舗企業でも、この格言は等しく真理として語られます。しかし、実際に集まった膨大なテキストデータを前にして、途方に暮れた経験はないでしょうか?

アンケートの自由記述欄、問い合わせメール、営業日報の備考欄。これらはすべて「非構造化データ」と呼ばれる、そのままでは集計も分析もできない情報の塊です。多くの企業、特にIT専任者がいない中小規模のチームでは、これらをExcelに貼り付け、担当者が一つひとつ目視で読み込み、「クレーム」「要望」「感謝」といったタグを手動で付けるという、気の遠くなるような作業を行っているケースは珍しくありません。

あるいは、「いつか分析しよう」とフォルダの奥底に塩漬けにされているケースも多く見られます。IBMの調査によると、企業が保有するデータの80%は非構造化データであり、その多くが活用されていない「ダークデータ」になっていると言われています。

長年の開発現場で培った知見から言えるのは、「テキストデータの構造化こそ、AIが最も輝く領域の一つであり、かつ最もスモールスタートしやすい分野である」ということです。技術の本質を見抜き、ビジネスへの最短距離を描くためには、まず動くプロトタイプを作り、仮説を即座に検証することが重要です。

本記事では、高額なテキストマイニングツールを使わず、AirtableOpenAI API、そしてiPaaSのMakeを組み合わせて、非構造化データの分析を自動化する実践的なアプローチをご紹介します。

これは単なる理想論ではありません。プロンプトの調整、AIのハルシネーション(もっともらしい嘘)の制御、そして現場への定着に向けた泥臭いノウハウの共有です。さらに現在、OpenAI APIの環境は大きく変化しています。公式情報によると、2026年2月にはGPT-4oなどのレガシーモデルが順次廃止され、100万トークン級のコンテキスト処理や高度な推論を備えたGPT-5.2が新たな標準モデルへと移行しました。テキスト分析のパイプラインを構築・移行する際は、こうした最新のGPT-5.2を適切に選定し、プロンプトを再テストしていくことが安定稼働の鍵となります。

もしあなたが、予算やリソースの制約の中で、それでもデータを武器に戦いたいと考えているなら、この実践ガイドはきっとあなたの背中を押すはずです。さあ、一緒に最新技術の可能性を探求してみませんか?

1. プロジェクト背景:埋もれていた「宝の山」と手入力の限界

2. ツール選定の岐路:なぜ専用SaaSではなく「Airtable×AI」だったのか - Section Image 3

月間500件のフリーコメント分析が形骸化していた実態

多くのB2B SaaS企業では、顧客満足度向上を掲げ、サービス利用後に詳細なNPS(Net Promoter Score)アンケートを実施しています。回答率が高い場合、毎月数百件規模の回答が集まることも珍しくありません。その中には、選択式の回答だけでなく、熱量の高い「自由記述(フリーコメント)」が多数含まれています。

初期段階では、マーケティングチームの担当者がこれら全てのコメントに目を通し、スプレッドシート上で「機能要望」「UI改善」「価格」「サポート評価」といったカテゴリタグを手動で付与する運用が一般的です。さらに、コメントのポジティブ・ネガティブ判定も行い、重要度の高いものはSlackで開発チームに共有するというフローを回しています。

しかし、事業が成長するにつれ、この手動での運用は限界を迎えます。

月末になると、丸2日かけてひたすらコメントを読み、タグを付ける作業に追われることになります。後半は集中力が切れて判定精度が落ちてしまうという課題は、多くの現場で報告されています。

結果として何が起きるでしょうか。

  1. データの鮮度低下: 集計が終わる頃にはデータは古いものになり、リアルタイムな改善アクションが打てない。
  2. 分析の形骸化: 「集計すること」自体が目的化し、そこからインサイトを抽出する時間が取れない。
  3. 属人化の弊害: 担当者の主観でタグ付けされるため、担当が変わるとデータの連続性が失われる。

まさに「宝の山」を持ち腐れにしている状態です。特に深刻なのは、ネガティブなフィードバックへの対応遅れでしょう。解約リスクの兆候が含まれているコメントが、集計作業の遅れによって長期間放置されるケースも少なくありません。

エンジニアリソースゼロという制約条件

通常、こうした非構造化データの処理課題に対しては、自然言語処理(NLP)技術を活用したアプローチが検討されます。

昨今の技術トレンド、特に大規模言語モデル(LLM)の進化は目覚ましいものがあります。AIモデルの世代交代も急速に進んでおり、例えばOpenAIのAPIでは、利用率の低下したGPT-4oやGPT-4.1といったレガシーモデルが廃止され、より高度な推論能力と長い文脈理解を備えたGPT-5.2(InstantおよびThinking)が新たな標準モデルへと移行しています。

またAnthropic社のClaudeにおいても、前モデルのSonnet 4.5から最新版のClaude Sonnet 4.6へと進化を遂げています。100万トークンという広大なコンテキストウィンドウを備え、タスクの複雑度に応じて思考の深さを自動で調整する「Adaptive Thinking」機能が実装されるなど、長文の推論能力が劇的に向上しました。

こうした最新モデルの登場により、単なるテキスト処理を超えた高度な推論能力文脈理解が容易に利用できるようになりました。従来のキーワードマッチングでは検知が難しかった「皮肉」や「遠回しな不満」といった微妙なニュアンスも、人間と同等、あるいはそれ以上の精度で読み取ることが可能です。技術的には、タグ付け作業を自動化するための土壌は完全に整っていると言えます。

しかし、多くの組織には大きな制約があります。

「社内にエンジニアリソースがない」という問題です。

いくら最新のAIモデルが優秀でも、それを業務フローに組み込むには、旧モデルからの移行作業、API連携、プロンプトエンジニアリング、そしてエラーハンドリングといった技術的な実装が不可欠です。自社プロダクトの開発チームは機能追加やバグ修正で手一杯であり、バックログは常に満杯。社内業務効率化のためのツール開発に割くリソースは確保しづらいのが実情です。

したがって、解決策は高度なエンジニアリングを必要とせず、「非エンジニアであるマーケティングチーム自身が運用・保守できるもの(NoCode/LowCode)」である必要があります。

目指したのは「誰もが直感的に使える」データベース

ここで目指すべきは、単にタグ付けを自動化することだけではありません。営業、CS、プロダクト開発、経営陣、誰もがアクセスでき、直感的に「今、顧客は何を求めているか」を把握できるデータベースの構築です。

ExcelやGoogleスプレッドシートは手軽ですが、データ量が増えると動作が重くなり、リレーショナルなデータ管理(顧客情報とアンケート回答の紐付けなど)には不向きです。そこで有力な選択肢となるのが、クラウド型のリレーショナルデータベースでありながら、スプレッドシートのような操作感を持つAirtableです。

Airtableは、単なる表計算ソフトではありません。API連携の容易さ、豊富なビュー機能(カンバン、カレンダー、ギャラリーなど)、そして何より「Interface Designer」による簡易アプリ化機能が強力です。

「Airtableを母艦とし、そこにAIという頭脳を組み込む」。このアプローチが、非エンジニア主導で非構造化データを活用する強力な出発点となります。

2. ツール選定の岐路:なぜ専用SaaSではなく「Airtable×AI」だったのか

ツール選定の岐路:なぜ専用SaaSではなく「Airtable×AI」だったのか - Section Image

テキストマイニングツールとの比較検討

当初の検討段階では、市場にある既存のテキストマイニングツールや、アンケート分析に特化したSaaSの導入も選択肢に挙がるでしょう。これらは機能が豊富で、導入すればすぐに綺麗なグラフやワードクラウドが表示される利点があります。

しかし、比較検討を進める中で、一般的にいくつかの構造的な課題が浮き彫りになります。

  1. コスト構造: 有力なツールの多くは高額な月額固定費がかかります。予算が限られた部門での導入においては、費用対効果の説明が難しいケースが少なくありません。
  2. ロジックのブラックボックス化: どのようなアルゴリズムで分類されているかが不透明な場合が多く、自社特有の細かいニュアンス(業界用語や社内用語)に対応させるためのチューニングが困難です。
  3. データのサイロ化: そのツールの中で分析が完結してしまい、CRMや他の業務データとの連携に追加コストや開発工数が発生します。

決定打となった「柔軟性」と「コストパフォーマンス」

対して、AirtableとOpenAI APIを組み合わせるアプローチはどうでしょうか。データ分析パイプラインの構築において、API経由で大規模言語モデル(LLM)を活用することは、いまや業界標準と言えます。

特にOpenAIのAPI環境は急速に進化しています。複数の公式情報(2026年2月時点)によれば、GPT-4oなどのレガシーモデルが段階的に廃止され、100万トークン級のコンテキストウィンドウや高度な推論能力を備えたGPT-5.2が新たな標準モデルとして位置づけられています。

比較項目 専用SaaSツール Airtable + OpenAI API (DIY)
初期費用 高(導入支援費などが発生する場合あり) 低(ツール契約料のみ)
月額コスト 固定費(高額になりがち) 変動費(API従量課金 + Airtable利用料)
カスタマイズ性 低(プリセット機能に依存) 高(プロンプトで自在に制御)
データ連携 API連携オプションが必要な場合も 標準で柔軟に連携可能
構築難易度 低(ログインすれば使える) 中〜高(設定・プロンプト設計が必要)

圧倒的なコストパフォーマンスに加え、最大の決め手となるのは「プロンプトによる柔軟性」です。

例えば、「『高い』という言葉が入っていても、それが『品質が高い』なのか『価格が高い』なのかを文脈で判断してほしい」といった要望や、「自社独自の製品コードが含まれていたら、それを正確に抽出してほしい」といったニーズに対し、専用ツールでは設定が複雑、あるいは不可能な場合があります。

しかし、大規模言語モデルであれば、自然言語での指示(プロンプト)で細かな調整が可能です。特にGPT-5.2のような最新世代のモデルでは、推論能力や文脈理解力が大幅に強化されており、以前のモデルでは難しかった複雑なニュアンスの判定も高精度に行えます。これは、変化の激しいビジネス環境において非常に強力な武器になります。

重要な注意点: OpenAI APIのモデルライフサイクルには注意が必要です。GPT-4oやGPT-4.1などの旧モデルはすでに廃止対象となっており、APIを利用する際はGPT-5.2などの最新の現行モデルを指定する必要があります。実装の際は必ず公式ドキュメントで最新のモデルIDと移行スケジュールを確認してください。

NoCodeツールとしてのAirtableの優位性

Airtableを選定する理由は、単なるデータベースとしての機能だけではありません。Airtableには「Automation」という機能があり、レコードが作成されたり更新されたりしたタイミングで特定のアクション(スクリプトの実行やメール送信など)をトリガーできます。

また、APIが非常に使いやすく、Make(旧Integromat)やZapierといったiPaaSとの親和性が抜群に高いのも特徴です。「データが入ってきたらAIに投げて、結果を戻す」というパイプラインを構築する上で、Airtableは最適なハブとして機能します。

このようなデータ分析基盤を構築するケースでは、以下の構成でシステムを組むことが推奨されます。

  • データベース: Airtable (有料プラン推奨)
  • AIモデル: OpenAI API (GPT-5.2などの最新標準モデル)
  • 連携ツール: Make (有料プラン推奨)

この構成を採用することで、ランニングコストを最小限に抑えつつ、組織のニーズに完全にフィットした分析基盤を構築することが可能になります。

3. 実装の舞台裏:AIに「空気を読ませる」ための試行錯誤

実装の舞台裏:AIに「空気を読ませる」ための試行錯誤 - Section Image

ここからは、一般的な実装プロセスにおける技術的な詳細と、多くのプロジェクトが直面する壁について解説します。ここが最も泥臭く、かつエンジニアリングの面白さが詰まった部分と言えるでしょう。

API連携のハードルをどう越えたか(Makeの活用)

まず、データの流れ(パイプライン)の構築から始めます。プログラミングコードをゼロから書く代わりに、iPaaSの「Make」を使用するアプローチが効果的です。Makeは視覚的にデータの流れを確認でき、デバッグもしやすいため、運用保守の観点でも最適です。

一般的なシナリオ構成は以下の通りです。

  1. Trigger (Airtable): 「Watch Records」モジュールを使用し、新しいアンケート回答が登録されたことを検知します。
  2. Action (OpenAI): 「Create a completion」モジュールを使用。Airtableから取得した「自由記述テキスト」をプロンプトに埋め込んで送信します。ここで指定するAPIモデルとしては、最新の業務標準モデルであるGPT-5.2の利用が推奨されます。GPT-4o等のレガシーモデルが順次廃止・自動移行される中、GPT-5.2は100万トークン級のコンテキストウィンドウを持ち、長文の安定処理や高度な推論(thinking機能の自動ルーティング)に優れているため、複雑な顧客の声を読み解くタスクに非常に適しています。
  3. Action (JSON Parser): OpenAIからのレスポンスを解析します。
  4. Update (Airtable): 「Update a Record」モジュールを使用。解析結果(タグ、要約、センチメントなど)を元のレコードに書き戻します。

このフロー自体は、Makeを使えばドラッグ&ドロップで数時間で構築可能です。しかし、多くのケースで本当の課題となるのは「AIに何を、どう依頼するか」という点です。

抽出精度を60%から95%に上げたプロンプト改善ログ

例えば、初期のテスト段階では、以下のようなシンプルなプロンプトを使用しがちです。

「以下のテキストを分析し、カテゴリ(機能要望、不具合、その他)と感情(ポジティブ、ネガティブ、中立)を出力してください。」

しかし、これでは期待する結果を得ることは困難です。「機能要望」と「不具合」の境界が曖昧だったり、皮肉交じりのネガティブな意見を「ポジティブ」と判定してしまうなど、精度が60%程度にとどまるケースも珍しくなく、これでは実務には適用できません。

そこで有効なのが、「Few-Shotプロンプティング」「思考の連鎖(Chain of Thought)」の導入です。特にChatGPTのような高度な推論モデルを使用する場合、プロンプトの設計次第で精度が飛躍的に向上します。

具体的には、プロンプトに以下のような要素を追加します。

  1. 定義の明確化: 各カテゴリの定義を厳密に記述します。
    • 悪い例: 「機能要望」
    • 良い例: 「機能要望:ユーザーが現在のシステムにはない新しい機能や、既存機能の変更を求めている場合。単なる使いにくさの指摘は含まない」
  2. 事例(Few-Shot)の提示: 過去のデータから、人間が正しく判定した事例を3〜5パターン提示します。
    • 入力: 「画面が真っ白になって動かない」 -> 出力: 不具合
    • 入力: 「もっと画面が明るいと嬉しい」 -> 出力: 機能要望
  3. 出力形式の固定: 必ずJSON形式で出力させ、Make側でのパースエラーを防ぎます。

特に効果的なのは、OpenAI APIの呼び出し時に response_format: { type: "json_object" } を指定することです。これにより、AIの出力が確実にJSON構造となり、システム間の連携エラーを大幅に削減することができます。

【実録】Airtable×AIで顧客の声を構造化!月500件の分析を自動化した泥臭い開発記録 - Conclusion Image

コメント

コメントは1週間で消えます
コメントを読み込み中...