RAG(検索拡張生成)ソースとして社内WikiをMicrosoft Copilotに組み込む技術的手順

Copilot導入の成否は「測定」で決まる:社内Wiki連携時のRAG精度評価とROI算出の実践手法

約23分で読めます
文字サイズ:
Copilot導入の成否は「測定」で決まる:社内Wiki連携時のRAG精度評価とROI算出の実践手法
目次

この記事の要点

  • RAG(検索拡張生成)によるMicrosoft Copilotの回答精度向上
  • 社内知識資産の効率的な活用と情報探索時間の短縮
  • 導入後のRAG精度評価とROI測定の実践的なアプローチ

「ついに社内WikiとCopilotがつながりました!これで全社員がAIを活用できます!」

情報システム部門の定例会議で、若手エンジニアが目を輝かせて報告するシーン。多くの企業でこのような光景が見られます。技術的な接続検証(PoC)が完了し、SharePointやConfluence、あるいは自社独自のナレッジベースがCopilotから参照できるようになった瞬間です。

しかし、残念ながらその「歓喜」は、わずか数ヶ月後に「困惑」へと変わることが少なくありません。

「思ったより使われていない」
「回答が微妙だという声が現場から上がっているが、具体的に何が悪いのかわからない」
「経営層から『で、いくらコスト削減できたの?』と聞かれて言葉に詰まった」

チャットボットやボイスボットといった顧客対応自動化の定石から考えると、Copilotのような社内向けAIアシスタントの導入でも、全く同じ「落とし穴」が存在します。顧客体験(従業員体験)と業務効率の両立を目指す上で、これは避けて通れない課題です。

それは、システムを「つなぐこと」に全力を注ぎすぎて、KPI設計をはじめとする「測ること」を設計していないという点です。

社内WikiをRAG(検索拡張生成)のソースとしてCopilotに組み込む技術は、あくまで手段に過ぎません。重要なのは、その連携が「正しく機能しているか(精度)」、そして「業務に貢献しているか(成果)」を定量的なデータで語れる状態にしておくことです。

また、AIツールの進化は非常に速く、特定のレガシーモデルの提供が終了し、新たな標準モデルへと移行するケースも珍しくありません。だからこそ、特定の機能やモデルに過度に依存するのではなく、システム全体のパフォーマンスを継続的に測定する仕組みが不可欠になります。例えば、最新の環境ではCopilotの使用状況メトリクスAPIを活用し、開発チームのプルリクエストの処理速度やマージ時間の変化を定量的に追跡するといったアプローチも可能になっています。

単なるツールの接続手順ではなく、接続後の「運用と評価」に焦点を当てる必要があります。RAGシステムの評価を「システム」「精度」「ビジネス」の3層に分解し、それをエコシステムの中でどう実装・測定するか。経営層に胸を張ってROI(投資対効果)を説明し、全社展開への切符を勝ち取るための具体的な評価フレームワークが求められます。

さらに、現場での活用を促進するには、効果的なプロンプトのベストプラクティスを浸透させることも重要です。単に長文の指示を出すのではなく、IDE内でのCopilot ChatによるAI対話や、@workspace コマンドを使用して特定のコードベースやドキュメント群を的確に参照させるなど、ツール固有の機能を適切に使い分けることで、より精度の高い回答を引き出せます。

AI導入の最前線は、技術とビジネスの交差点にあります。エンジニアの視点とビジネスの視点を融合させ、真に成果を生み出すAI活用のアプローチを探求することが、プロジェクト成功の鍵を握っています。

なぜ「つながった」だけでは失敗なのか:RAG導入における測定の重要性

「とりあえず導入してみて、様子を見ましょう」

AIプロジェクトにおいて、これは極めて危険な考え方です。特にGitHub Copilotのような進化の速い開発支援AIの場合、この傾向は顕著に表れます。現在の開発支援AIは、複数のAIモデルを選択できるのが当たり前になりました。

ここで注意すべきは、背後で動くモデルの劇的な世代交代です。例えば、OpenAIのモデルはGPT-4oなどの旧モデルが廃止され、より高度な推論能力と長い文脈理解を持つGPT-5.2へと移行しました。同様にAnthropicのモデルも、自律的なPC操作や100万トークンという膨大なコンテキストに対応したClaude Sonnet 4.6が標準モデル化されています。これらに加え、複数ファイルをまたいで自律的にコードを修正するAgent Modeまで搭載されています。

選択肢と機能が増えたことでインターフェースは便利になった反面、エンジニアが「どのモデルで」「どのドキュメントを参照し」「どのようなロジックで」コードを生成したのかが、従来の開発プロセス以上にブラックボックス化しやすい状況にあります。

「回答してくれた」≠「業務に役立った」の罠

RAG(Retrieval-Augmented Generation)の仕組みを活用し、社内の技術ドキュメントや仕様書をCopilotに連携させれば(例えば@workspaceコマンドなどで)、AIは何かしらのコードや回答を生成します。しかし、実務の現場における一般的な傾向として、「もっともらしいコードが生成されたこと」と「仕様を満たす実装ができたこと」は決してイコールではありません。

例えば、エンジニアが「認証機能のエラーハンドリング」について実装を依頼したとします。Copilotがリポジトリ内の「非推奨になった古い設計書」を参照してコードを作成した場合、構文としては正しく動作しても、システム全体のアーキテクチャとしては誤った実装になります。

さらに、使用するモデルによってドキュメントの解釈や生成されるコードの特性が大きく異なります。ChatGPTは長い文脈の理解やツール実行に優れています。一方、Claudeはタスクの複雑度に応じて思考の深さを自動調整する「Adaptive Thinking」機能や、コンテキスト上限で自動的に要約を行う「Compaction」機能を備えており、長大な社内Wikiを読み込ませた際の挙動が変わってきます。

特にGPT-4oなどの旧モデルから最新モデルへの移行期には、これまで機能していたプロンプトやRAGの精度が突然変わるリスクが存在します。これを放置すれば、レビューでの手戻りが増大し、現場は「AIを使うと逆に時間がかかる」と判断して、静かに利用をやめてしまうでしょう。

測定指標を持たない組織は、この「静かなるユーザー離れ」に気づけません。ログを見ずに「アクティブ率が下がっているな、飽きられたのかな?」と推測している間に、プロジェクトは失敗へと向かいます。

ブラックボックス化するAIの挙動を可視化する

従来のナレッジ共有システムであれば、「検索ヒット数」や「ドキュメント閲覧数」で一定の評価ができました。しかし、生成AI、特にAgent Modeのような機能は、ドキュメントの中身を自ら読み込み、自律的に複数のファイルを修正します。最新モデルの高度な推論能力が相手となれば、エンジニアは元ドキュメントを直接開かないことも多々あります。

つまり、「ドキュメントが開かれなかった」ことが、「役に立たなかった」のか「AIが完璧に理解して実装してくれたので見る必要がなかった」のかを区別する必要が出てくるのです。

これを可視化するためには、単なる利用回数だけでなく、対話のログ、参照されたコンテキストの適切さ(Relevance)、そして生成コードの採用率(Acceptance Rate)やその後の修正量(Churn)を組み合わせた複合的な測定基盤が不可欠です。モデルの移行に伴う精度の変化も、この基盤があればいち早く検知できます。

経営層が求めるのは「技術的成功」ではなく「ビジネスインパクト」

導入検討段階において対峙する経営層や決裁権者は、技術的な仕組みやAIモデルの細かなパラメータには興味がありません。彼らが知りたいのは以下の3点に集約されます。

  1. 投資対効果(ROI): ライセンス費用や最新モデルのAPIコストに見合う開発生産性の向上があるか?
  2. リスク管理: ハルシネーション(幻覚)や古い仕様の参照によってバグが混入しないか?旧モデル廃止時の業務影響はコントロールできているか?
  3. スケーラビリティ: 一部の熟練エンジニアだけでなく、チーム全体で効果が出るのか?

これらに答えるためには、「なんとなく便利そうです」という定性的な感想では不十分です。「GPT-5.2やClaude Sonnet 4.6といった最新モデルへ移行し、適切なドキュメントを参照させた結果、仕様確認にかかる時間が平均40%削減され、スプリントごとのベロシティが向上しました」「タスクに応じてAdaptive Thinkingを活用したことで、コード合格率は92%を維持しています」といった定量的なデータが必要です。

測定なき導入は、羅針盤なしで航海に出るようなものです。まずは、何を測るべきかという「指標の地図」を描くところから始めます。

Copilot×社内Wiki連携を評価する「3層の成功指標」フレームワーク

では、具体的に何を指標とすべきでしょうか。Copilotと社内Wikiを連携させたシステムを適切に評価するためには、指標を以下の3つのレイヤー(層)に分けて管理するアプローチが非常に有効です。このように構造化することで、問題が発生した際に「システム基盤に課題があるのか」「参照しているデータが不適切なのか」「ユーザーの使い方が間違っているのか」を的確に切り分けることができます。

Layer 1: システム健全性指標(Technical Health)

すべての土台となるのは、システムがユーザーにとって快適に利用できる状態にあるかを示す指標です。いくらAIの回答が優れていても、生成に数十秒もかかってしまっては、業務のスピードを落とす原因になりかねません。

  • 平均応答時間(Latency): ユーザーがプロンプトを送信してから、最終的な回答の生成が完了するまでの時間を指します。RAGの仕組み上、社内データベースへの検索処理が挟まるため、通常のAIチャットよりも時間がかかる傾向にあります。それでも、ユーザーがストレスを感じない範囲(目安として5〜10秒以内)に収まっているかを継続的に監視する必要があります。
  • インデックス鮮度(Index Freshness): 社内Wikiのドキュメントが更新されてから、Copilotがその最新情報を参照可能になるまでのタイムラグです。Graph Connectorsなどの外部接続ツールを使用している場合、情報の反映はクロールのスケジュール設定に依存します。業務上重要なルール変更などが即座に反映されているかどうかは、情報の信頼性を担保する上で欠かせない品質指標となります。
  • システムエラー率: API連携の失敗や、タイムアウトの発生頻度です。これらの技術的なエラーはユーザーの信頼を大きく損なうため、早期に検知して対処する仕組みが求められます。

Layer 2: RAG精度指標(Retrieval & Generation Quality)

ここがRAG(検索拡張生成)評価の核心部分にあたります。アカデミックな分野では様々な自然言語処理の評価指標が存在しますが、実際のビジネス環境では、より実用的な観点から以下の指標を重視します。

  • 検索適合率(Retrieval Precision): ユーザーの質問に対して、システムが「正しいドキュメント」を正確に抽出できているかを測ります。例えば、「最新の就業規則」について聞かれているのに、過去の古いバージョンや無関係な議事録を参照していないかを確認します。検索の精度が低ければ、どれほどAIモデルが優秀でも正しい回答は生成できません。
  • グラウンディングスコア(Grounding / Faithfulness): 生成された回答が、検索して取得したドキュメントの内容にしっかりと基づいているかを評価します。ドキュメントに書かれていない情報をAIが勝手に補完したり、捏造したりしていないか(ハルシネーションの有無)を厳しくチェックするための重要な指標です。
  • ソース参照率(Citation Rate): 回答内に、根拠となる社内ドキュメントへの引用元リンク(リファレンス)が適切に含まれている割合です。社内の機密情報や業務ルールを扱う場合、情報の正確性をユーザー自身が確認できるよう、根拠の提示は必須の要件となります。

Layer 3: ビジネスインパクト指標(Business Impact)

最終的なゴールである「実際の業務への貢献度」を定量的に測る指標です。プロジェクトの投資対効果(ROI)を算出し、経営層やステークホルダーへ報告する際には、主にこのレイヤーのデータを使用します。近年では、利用状況メトリクスをAPI経由で取得し、より高度な分析を行うアプローチも普及しつつあります。

  • タスク完了時間(Time to Resolution): 特定の業務プロセス(例:各種申請書の作成、システム仕様の確認、過去の事例調査など)にかかる時間が、Copilot導入前後でどのように短縮されたかを測定します。業務効率化の直接的な効果を示す指標となります。
  • チケット削減率(Deflection Rate): 社内のヘルプデスクや情報システム部門へ寄せられる問い合わせ件数の減少率です。社内Wiki連携が正しく機能し、精度の高い回答が得られていれば、従業員の自己解決率が向上し、サポート部門へのエスカレーションは確実に軽減されます。
  • ユーザー定着率(Retention Rate): 初回利用の後、翌週や翌月も継続してシステムを利用しているアクティブユーザーの割合を示します。「物珍しさで一度使って終わり」になっていないかを測り、社内にツールが定着しているかを判断するバロメーターとなります。

この3層構造を常に意識することで、「ユーザーの定着率が低い(Layer 3の課題)」という事象に対して、「原因はシステムのレスポンスが遅いからか(Layer 1の課題)? それとも検索された回答が的外れだからか(Layer 2の課題)?」といった、根本原因にアプローチする深掘り分析が可能になります。

【技術実装】Microsoft 365環境でのデータ収集と可視化手法

なぜ「つながった」だけでは失敗なのか:RAG導入における測定の重要性 - Section Image

フレームワークの設計が完了したら、次はそれをシステム上にどう実装するかという課題に向き合います。Microsoftのエコシステムには強力な分析ツールが標準で用意されていますが、デフォルトの機能だけで取得できるデータと、より深い洞察を得るためにカスタマイズが必要なデータが存在します。顧客体験の向上と業務効率化を両立させるためには、この両者を適切に組み合わせたデータ収集基盤の構築が不可欠です。

Microsoft Copilot Dashboardの読み解き方と限界

Microsoft 365管理センター(Viva Insights)を通じて提供される「Microsoft Copilot Dashboard」は、利用定着に向けた最初の一歩として非常に有用なツールです。

  • 取得できるデータ: アクティブユーザーの推移、Copilotを使用したアプリケーション(Teams、Word、Excelなど)の割合、要約・コンテンツ作成・検索といったアクション別の利用状況を定量的に把握できます。
  • 限界と課題: このダッシュボードだけでは「ユーザーが具体的にどのようなプロンプトを入力したか」や「生成された回答の正確性」までは把握できません。企業のプライバシーとセキュリティ保護の観点から、データは匿名化された集計値として扱われるため、個別のRAG(検索拡張生成)の精度検証や、特定業務におけるROIをミクロな視点で測定するには不向きです。

したがって、RAGの精度を深く追いかけ、実務に即した改善サイクルを回すには、Copilot Studioなどを活用したカスタムアプローチを組み合わせる必要があります。

Graph Connectors利用時のインデックス品質の監視

社内Wiki(ConfluenceやServiceNowなどのナレッジベース)をMicrosoft Graph Connectors経由で接続している場合、データの鮮度と検索性がRAGの回答品質を直撃します。ここで重要になるのが、Microsoft 365管理センターの「検索とインテリジェンス」セクションの活用です。

  • インデックス作成ステータスの監視: 対象のドキュメントやアイテムが正常にインデックスされているか、クロール時にエラーが発生していないかを定期的に確認します。インデックス漏れは、そのままAIの「回答不能」に直結します。
  • 検索クエリの分析とギャップの特定: ユーザーがどのようなキーワードで検索を行っているか、そして検索結果が0件だったクエリ(No Result)は何かを詳細に把握できます。検索失敗のログは「社内Wikiに不足している暗黙知」や「表記揺れによる検索漏れ」を特定するための宝の山であり、ナレッジマネジメントを改善する直接的な手がかりとなります。

カスタムテレメトリの実装:Copilot Studioでのログ出力設定

より高度な分析とパーソナライズされた改善を行う場合、Copilot Studioを用いて独自のCopilot(AIエージェント)を構築し、そこでの対話ログをAzure Application Insightsに送信するアーキテクチャが推奨されます。

  1. Copilot Studioでのトピックと変数の設計: 独自の業務特化型ボットを作成する際、トピックごとに適切な変数を設定し、ユーザーの意図分類(Intent)やコンテキストを構造化して記録します。
  2. Azure Monitorとのシームレスな連携: Copilot Studioの管理設定から、Application Insightsへの接続を有効化します。これにより、ボットの発話内容、ユーザーの入力テキスト、処理のレイテンシ、バックエンドで発生した例外エラーなどの詳細なテレメトリデータがAzure環境に安全に蓄積されます。
  3. カスタムクエリ(KQL)によるデータ抽出: Azure Monitor Logsの環境でKusto Query Language (KQL) を駆使し、「RAG構築時に参照された社内ドキュメントのURL」や「セッションごとの解決率」を抽出・集計します。これにより、どのナレッジが最も業務に貢献しているかを可視化できます。

ユーザーフィードバック(Good/Bad)の収集フロー構築

AIの精度を数値化し、継続的な改善につなげる上で最も確実かつ強力なのが、現場のユーザーからの直接的な評価データです。Copilotの回答直後に「この回答は役に立ちましたか?」というGood/Badボタン(Thumbs up/down)を設置することは、システム設計における必須要件と言えます。

  • フィードバックUIの実装ポイント: 単にボタンを配置するだけでなく、Bad評価が選択された場合には、「情報が不正確」「データが古い」「質問の意図と関係ない」などの具体的な理由をプルダウンで選択させるか、フリーテキストでコメントを入力させる動線を設計します。ユーザーの負担を最小限に抑えつつ、質の高いフィードバックを得る工夫が求められます。
  • 教師データとしての継続的な活用: この「Bad評価と具体的な理由が紐づいた対話ログ」こそが、AIのプロンプトエンジニアリングや検索アルゴリズムのチューニングにおける貴重な教師データとなります。定期的にログを見直し、なぜAIが誤答したのか(検索の失敗か、要約の失敗か)を分析するサイクルを回すことで、システムは確実に成長していきます。

指標が「警告」を示した時の技術的改善アクション

Copilot×社内Wiki連携を評価する「3層の成功指標」フレームワーク - Section Image

測定を開始すると、必ず「数値が悪い」部分が見つかります。その時、闇雲にプロンプトを調整するのではなく、原因に応じた適切な技術的処置を行う必要があります。多くのプロジェクトで観察される、よくあるパターンと具体的な対策を解説します。

「参照なし(No Citation)」が多い場合:インデックス設定と権限の見直し

ユーザーが質問しているのに、Copilotが「社内情報が見つかりませんでした」と答える、あるいは一般論(Web検索結果)しか返さないケースです。

  • 原因1:権限設定(ACL)の不一致
    Copilotは「そのユーザーがアクセス権を持つファイル」しか検索しません。Wiki側の権限設定が厳しすぎて、一般社員が該当のドキュメントを閲覧できない状態になっていないか確認が必要です。セキュリティと情報共有のバランスを見直す良い機会となります。
  • 原因2:セマンティックインデックスの未反映
    Graph Connectorsやナレッジベース連携の検索スキーマ(Schema)設定を見直します。特に「Content」プロパティが検索可能(Searchable)かつクエリ可能(Queryable)になっているか確認します。インデックスの更新頻度やクロールの状態も併せてチェックすると効果的です。

「回答不正確(Hallucination)」が多い場合:Wiki側の構造化とメタデータ付与

参照はしているが、回答が間違っているケースです。これはAI自体の問題というより、データソースであるWikiの品質問題(Garbage In, Garbage Out)に起因することが大半を占めます。

  • 対策:Wikiの構造化
    長文のベタ書きドキュメントはAIが文脈を混乱する原因になります。見出し(H1, H2)を適切に使い、論理構造を明確にすることが求められます。また、「Q&A形式」のページを作成するのも有効な手段です。AIにとって「問い」と「答え」がペアになっているデータは非常に扱いやすく、回答精度の向上に直結します。
  • メタデータの活用
    Graph Connectorsや外部連携ツールを使用する場合、最終更新日、作成者、タグなどのメタデータを確実にインデックスさせます。これにより、Copilotが複数の情報源から「最新かつ最も信頼できる情報」を優先して選ぶ際の判断材料が大幅に増えます。

「利用率低下(Low MAU)」への対策:プロンプトテンプレートの配布と教育

システムもデータも正常に機能しているのに使われない状況です。これは「ユーザーがAIに何を聞けばいいかわからない」というリテラシーの課題に分類されます。

  • プロンプトエンジニアリングの民主化
    単に「〇〇について教えて」と入力するのではなく、「〇〇の規定に基づいて、△△の場合の申請手順を箇条書きで教えて」といった、具体的かつ文脈を持たせた指示の出し方を教育します。
    開発環境などでの利用も想定される場合は、@workspaceコマンドを活用して連携されたナレッジベースや既存コードベースのパターンを直接参照させるなど、ツール固有の機能を取り入れた効果的な記述方法を共有することも重要です。
  • 成功体験の共有
    社内ポータルや専用の共有スペースで「業務別・すぐに使えるプロンプト集」を配布し、コピー&ペーストで使える成功体験を提供します。さらに、Agent Modeを活用した複数ファイルにまたがる自律的な処理や、Copilot Chatを用いた設計相談など、高度な利用例も段階的に紹介することで、ユーザーの習熟度に応じた継続的な利用を促進できます。

事例から学ぶ:ROIを証明し、全社展開を勝ち取った評価レポート構成案

指標が「警告」を示した時の技術的改善アクション - Section Image 3

多くの企業が試験導入から本番展開へと進む際に活用している、経営会議向けレポートの構成案を紹介します。導入の意思決定フェーズにいる推進担当者にとって、ROIを論理的に証明するフォーマットは強力な武器となります。

導入3ヶ月目のレポートモデル

レポートは「エグゼクティブサマリー」「定量的成果」「定性的成果」「課題とネクストステップ」の4部構成を基本とします。

1. エグゼクティブサマリー

  • 結論: 全社展開の推奨など、経営層に求める判断を明記します。
  • ハイライト: 情報検索時間の削減効果や、目標としていた回答精度の達成度合いなど、最もインパクトのある成果を簡潔に記載します。

2. 定量的成果(KPIの実績)

  • ROI試算ロジック:
    • 具体的なコスト削減効果は、以下のフレームワークで算出します。
    • (1人あたりの削減時間) × (平均時給) × (対象人数) = コスト削減効果
    • 算出した削減効果をCopilotのライセンス費用と比較し、投資回収期間(Payback Period)を提示することで、投資の妥当性を証明します。最新の利用状況メトリクスを取得できるAPIなどを活用し、正確な稼働データを基に試算することが推奨されます。
  • 精度指標:
    • ユーザー満足度(Good率)の目標達成状況を示します。
    • 社内Wikiの参照率を提示し、独自のナレッジが正しく引き出されていることを証明します。

3. 定性的成果(Proof)

  • 現場の声(Voice of Employee):
    • 数値だけでは伝わらない業務変化のリアリティを伝えます。例えば、「マニュアル検索の時間が大幅に短縮され、顧客対応が迅速になった」という営業部門の声や、「新入社員のオンボーディングにおいて、メンターへの質問回数が減り、指導側の負担が軽減した」という人事部門の声など、具体的なエピソードを添えることで説得力が増します。

4. リスク評価と対策

  • 確認された誤回答の傾向と、それに対する再発防止策(Wikiの継続的な修正プロセスなど)を明記し、リスクが適切にコントロールされていることを示します。

ネクストステップとしての指標の高度化

レポートの締めくくりには、今後の展望を示します。単なる「検索ツール」から、ワークフローを自律的に処理する「エージェント」への進化を見据えたロードマップの提示です。

「現在は情報の検索を効率化していますが、次のフェーズではエージェント機能を活用し、申請業務やシステム入力の自動代行まで踏み込みます。これにより、さらなる業務プロセスの変革を目指します」

このように、測定した実績をベースに次の投資と活用シナリオを提案することで、プロジェクトは継続的な改善サイクルに入ります。最新のアップデートでは、複数ファイルやシステムをまたいだ高度な参照機能や、自律的なワークフロー実行機能のプレビューも進んでおり、こうした技術トレンドを視野に入れることも重要です。

まとめ:測定は「監視」ではなく「進化」のためにある

社内WikiとCopilotの連携は、一度設定して終わりのプロジェクトではありません。それは、組織のナレッジ活用能力を継続的に高めていく取り組みの始まりと言えます。

今回解説した「3層の成功指標」と「技術的な測定・改善サイクル」を整備しておけば、たとえ一時的に回答精度が落ちたり、利用率が停滞したりしても、慌てることはありません。データに基づいてボトルネックを特定し、冷静に対処できるからです。

測定とは、AIの稼働状況を監視するためだけに行うものではありません。従業員の業務ジャーニー全体を俯瞰し、AI活用の最適なポイントを特定することで、ビジネスの生産性を進化させるために行うものです。まずは手始めに、直近のユーザーフィードバックや「Good/Bad率」を確認するところから始めてみてはいかがでしょうか。

自社への適用を検討する際は、同業種の成功パターンや詳細な事例を参照することで、導入リスクを軽減し、より効果的な指標設計が可能になります。専門的な知見や事例資料を活用し、プロジェクトの成功確率を高めるための仕組みを整えることをおすすめします。

Copilot導入の成否は「測定」で決まる:社内Wiki連携時のRAG精度評価とROI算出の実践手法 - Conclusion Image

コメント

コメントは1週間で消えます
コメントを読み込み中...