ChatGPT-4oをVSCodeから直接呼び出す「Continue」拡張機能の活用ガイド

「便利だが漏洩が怖い」を打破する。VSCode拡張機能「Continue」で築くセキュアなAI開発基盤

この記事は急速に進化する技術について解説しています。最新情報は公式ドキュメントをご確認ください。

約20分で読めます
文字サイズ:
「便利だが漏洩が怖い」を打破する。VSCode拡張機能「Continue」で築くセキュアなAI開発基盤
目次

この記事の要点

  • VSCodeとChatGPT-4oのシームレスな連携
  • AIによるコード生成、デバッグ、リファクタリング支援
  • オープンソース「Continue」による柔軟なカスタマイズ性

動画生成AIやText-to-Video、AIアバターといった最先端のクリエイティブを形にする現場では、裏側で高度なアプリケーション開発が絶え間なく走っています。AIクリエイティブプランナーの視点から見ても、生成AIを活用した開発フローの最適化が急務である一方、多くの開発組織が共通の課題に直面しているという現実があります。

それは、「現場からはAIコーディングアシスタント(GitHub Copilotなど)を使いたいと強い要望が出るものの、セキュリティ規定で許可できない」という切実なジレンマです。

「自社の機密コードがAIの学習データに使われるのではないか?」
「APIの利用料が青天井になり、コスト管理が追いつかないのではないか?」
「生成されたコードに脆弱性が混入するリスクをどう統制するか?」

セキュリティ要件の厳しい企業では、こうした懸念が壁となり、AIツールの導入が「原則禁止」となっているケースは珍しくありません。しかし、現場のエンジニアが隠れて個人アカウントでAIを使う「シャドーIT」のリスクは高まるばかりです。単に禁止するだけでは、もはや組織の機密情報を守りきれないのが現実と言えます。

現在、GitHub CopilotをはじめとするAIツールは目覚ましい進化を遂げています。2026年時点の最新環境では、インラインチャットの改善やエージェントモードの搭載に加え、VS Codeの「Copilot Chat」拡張への機能統合が進むなど、より高度な開発支援が可能になりました。また、カスタムインストラクションを設定してプロジェクト固有のコーディング規約を適用したり、タスクの複雑さに応じて適切なモデルを選択したりするベストプラクティスも確立されています。しかし、こうした強力な機能を外部のSaaSとしてそのまま利用することへのセキュリティの壁は、依然として高くそびえ立っています。

そこで注目を集めているのが、セキュリティ部門と開発現場の双方を納得させる実践的なアプローチです。具体的には、OSSのVSCode拡張機能「Continue」と、自社で厳密に管理できるAPIを組み合わせたセキュアな環境構築という選択肢です。

たとえば、2026年2月に旧モデル(GPT-4oやGPT-4.1など)が廃止され、現在主力となっているGPT-5.2(InstantおよびThinking)などの最新APIを自社環境で契約・管理し、それをContinue経由で安全に呼び出す仕組みを構築します。これにより、データが外部の学習に利用されることを防ぎつつ、最新の推論能力を開発現場に提供できるようになります。

これは単なる「無料ツールの紹介」や「代替手段の提案」にとどまりません。企業がいかにして機密情報を守りながら、最新のAIを安全に「使いこなす」かという、重要なガバナンス戦略の第一歩なのです。クリエイティブの可能性を最大限に引き出すためにも、セキュアで効率的な開発基盤の構築は欠かせません。

1. プロジェクト背景:セキュリティの壁と現場の悲鳴

金融系案件を抱える開発チームのジレンマ

金融機関向けの基幹システム改修など、顧客データの取り扱いはもちろん、ソースコード自体の機密性も極めて高い環境においては、AIツールの導入が大きな課題となっています。

多くの開発現場では、エンジニアから「GitHub Copilotを導入したい」という切実な要望が上がっています。2026年現在、GitHub Copilotは単なるコード補完ツールから大きく進化を遂げました。特に、Copilot Chatのモデルピッカーから複雑なタスク向けのGPT-5.1-Codex-Maxや軽量なMiniなどの複数AIモデルを選択できる機能や、インラインチャットの大幅な改善が実装されています。

さらに、リポジトリ内に.github/copilot-instructions.mdを配置してプロジェクト固有のコーディング規約を適用するカスタムインストラクション設定や、エージェントモードによる自律的なタスク遂行(Issueの分析からモジュール境界の定義、リファクタリングまで)を活用すれば、ボイラープレート(定型コード)の記述や単体テストの作成時間が劇的に短縮できることが知られています。エンジニアたちはプライベートな開発でその恩恵を肌で感じており、業務での生産性の格差に焦りを募らせているケースが少なくありません。

しかし、組織としての回答は「NO」となることが珍しくありません。
主な理由は以下の3点です。

  1. データ流出の懸念: 入力したコード断片がクラウド上のモデル学習に使われる可能性を完全に排除したい(たとえ規約で学習に利用しないと明記されていても、ブラックボックスである以上、コンプライアンスや監査部門が許可を出さない)。
  2. アカウント管理の複雑さ: プロジェクトごとにメンバーが頻繁に入れ替わるため、SaaS型ツールのライセンス管理(シートの付与・剥奪)が煩雑になる。
  3. ベンダーロックインへの警戒: 特定のプラットフォームに依存することで、将来的な価格改定やサービス変更の影響を直接受けるリスク。

結果として、現場は「AIを使えば数分で終わる作業に1時間かける」という非効率を強いられ、モチベーションの低下も招いているのが現状です。

「Copilot禁止令」が招いたシャドーITのリスク

さらに深刻なのは、ツールが禁止されているにもかかわらず、一部のエンジニアが個人のChatGPTアカウントにコードをコピー&ペーストしてデバッグさせてしまうという事態です。

これは悪意があるわけではなく、「納期に間に合わせたい」「より良いコードを書きたい」という職人魂からの行動であることがほとんどです。特に昨今の高度なAIモデルは、コーディング能力や長文理解、さらにはツール呼び出し機能が飛躍的に向上しており、複雑なバグの原因特定において人間以上の洞察を見せることもあります。その誘惑に抗うのは容易ではありません。

しかし、セキュリティの観点からは最悪のシナリオと言えます。ブラウザ経由で個人の無料アカウントなどを使用した場合、入力データはモデルの改善(学習)に利用される設定になっているケースが一般的だからです。機密性の高いソースコードや内部APIの仕様が外部のサーバーに送信され、意図せず学習データとして取り込まれる危険性が潜んでいます。

「禁止すれば安全」というのは幻想にすぎません。便利な道具があれば、人は必ず使い道を探します。こうした状況から導き出される結論は、単純な「利用禁止」ではなく、「安全な管理下での利用」を提供することこそが、現実的かつ実効性のあるセキュリティ対策であるということです。

2. ツール選定:なぜGitHub CopilotではなくOSSの「Continue」だったのか

セキュリティと開発効率の両立を目指して代替案を検討する場合、一般的に要件はシンプルかつ厳格になります。

  • VSCodeで完結すること: エンジニアの作業フローを分断しない。
  • モデルを選べること: タスクの難易度や機密性に合わせて、最適なAIを切り替えたい。
  • データフローが透明であること: どこにデータが送られ、どう処理されるかが明確で、ログが残せること。

2026年現在、業界標準とも言えるGitHub Copilotは目覚ましい進化を遂げています。Copilot Chatやインラインチャットの操作性が向上し、複雑なタスクを自律的に処理するエージェントモードも搭載されました。さらに、.github/copilot-instructions.mdを用いたカスタムインストラクション機能により、プロジェクト固有のコーディング規約をAIに遵守させることも容易になっています。

こうした強力な機能があるにもかかわらず、ガバナンスとリスク管理を最優先する組織において、厳格な要件を満たす拡張機能として採用が進んでいるのが「Continue」です。

ブラックボックス化しない「透明性」の価値

Continueは、Apache 2.0ライセンスで公開されているオープンソースソフトウェア(OSS)。これが意味するのは、拡張機能自体のソースコードが公開されており、裏で何をしているかを完全に監査できるということです。

プロプライエタリ(独自仕様)な製品は、エージェントモードのような高度な機能を提供する一方で、内部処理がブラックボックス化しがちです。どのようなコンテキストが収集され、外部サーバーに送信されているのか、正確に把握することは困難です。

一方、Continueであれば、どのタイミングでリクエストが送信され、どのようなプロンプトが付加されているかを明確に確認できます。セキュリティ部門に対して「このツールは予期せぬ通信を行っていない」と客観的に証明する上で、OSSであることは非常に強力な説得材料になります。

モデル選択の自由度とChatGPTへのこだわり

Continueの最大の特徴は、BYOK (Bring Your Own Key)、つまり自前のAPIキーを使える点です。

近年、GitHub Copilotでもタスクに応じてGPT-5.1-Codex-Maxなどの強力なモデルを選択できるようになりましたが、Continueが提供する柔軟性はさらにその先を行きます。以下のような極めて自由度の高い構成が可能です。

  • 複雑なロジック生成: コーディング能力や推論機能が大幅に強化された「GPT-4o」や「Claude 3.5 Sonnet」を利用。
  • 単純な補完や機密性の高い処理: 完全にオフラインで動作するローカルLLM(Ollama経由のLlamaなど)を利用。
  • 企業契約のエンドポイント: Azure OpenAIやAWS Bedrockなど、自社が契約しているエンタープライズ向けのAPIエンドポイントに直接接続。

特に企業利用においては、Azure OpenAI経由でChatGPTの高機能モデルを利用できる点が大きなメリットです。Azure経由であれば、入力データがモデルの学習に使われないことがSLA(サービスレベル契約)で明記されており、エンタープライズレベルの強固なセキュリティが担保されるからです。

データ学習拒否設定(Opt-out)の確実性

SaaS型のAIツールでは、設定画面のチェックボックス一つで学習のオプトアウトを管理することが多く、規約の変更やアップデートによって設定が予期せず初期化されるリスクが懸念されます。

一方、Continueを使ってAPI経由で利用する場合、APIのリクエスト単位で制御が可能です。特にAzure OpenAIなどのエンタープライズAPIを利用すれば、契約レベルで学習利用が物理的に遮断されています。

ツール側の設定ミスで機密情報が漏れるリスクを、インフラレベルで根元から遮断できる構造的な安心感。これこそが、セキュアな開発環境を構築する上でContinueが選ばれる決定的な理由です。

3. 導入の実際:APIキーの一元管理と「config.json」の標準化

ツール選定:なぜGitHub CopilotではなくOSSの「Continue」だったのか - Section Image

ツール選定後の実装フェーズにおいて、最大の課題となるのが「APIキーの管理」です。各エンジニアにAPIキーを配布する方法では、退職時のキー無効化漏れや、キーの使い回しによるコスト管理の破綻といったリスクが伴います。

セキュリティを重視する開発現場では、「開発者にはローカル環境にAPIキーを持たせない」というアーキテクチャが標準となりつつあります。

開発者のローカル環境にAPIキーを持たせない工夫

安全な運用のための具体的な構成は以下の通りです。

  1. 社内プロキシサーバーの構築: 開発者からのリクエストを一度中継する軽量なサーバー(LiteLLMなどの活用が一般的)を社内ネットワーク内に構築します。
  2. 認証とルーティング: 開発者のVSCode(Continue)は、この社内プロキシに向かってリクエストを送信します。プロキシ側で社内LDAP認証などを行い、正当なユーザーであれば、プロキシが本来のAPIキー(Azure OpenAIなどのキー)を付加して外部APIへ転送します。
  3. ログ取得: プロキシサーバーで「誰が」「いつ」「どんなプロンプトを」送信したかのログを記録し、監査可能な状態にします。

この構成により、エンジニアのPC内の config.json には、社内プロキシのURLだけが記述され、機密情報であるAPIキーは一切保存されません。万が一PCが紛失しても、APIキー自体が流出するリスクを排除できます。

チーム共通設定(config.json)の配布とバージョン管理

Continueの設定は config.json という単一のファイルで行います。これを個人の自由に任せるのではなく、Gitリポジトリで管理し、チーム全員が同じ設定(ベースライン)を使うように標準化することが推奨されます。

近年、GitHub Copilotにおいて .github/copilot-instructions.md を用いたカスタムインストラクション設定(コーディング規約やJSDocコメント必須ルールの共有)がベストプラクティスとされていますが、Continueではこの config.json が同様の役割を担います。

以下は、セキュリティと利便性を考慮した config.json の構成例です(一部簡略化しています)。

{
  "models": [
    {
      "title": "Company GPT Max (Complex Tasks)",
      "provider": "openai",
      "model": "Company-GPT-Max",
      "apiBase": "https://proxy.internal.company.com/v1",
      "apiKey": "EMPTY", 
      "systemMessage": "あなたは当社のコーディング規約(TypeScript strict mode必須)に準拠したコードを生成するアシスタントです。"
    },
    {
      "title": "Company GPT Mini (Simple Tasks)",
      "provider": "openai",
      "model": "Company-GPT-Mini",
      "apiBase": "https://proxy.internal.company.com/v1",
      "apiKey": "EMPTY"
    }
  ],
  "tabAutocompleteModel": {
    "title": "StarCoder",
    "provider": "ollama",
    "model": "StarCoder"
  },
  "customCommands": [
    {
      "name": "doc",
      "prompt": "選択したコードに対して、JSDoc形式のドキュメントを生成してください。パラメーターと戻り値の説明を含めてください。"
    },
    {
      "name": "test",
      "prompt": "選択した関数の単体テストを作成してください。境界値テストと異常系テストを含めてください。"
    }
  ]
}

ポイントは、apiBase を社内プロキシに向け、apiKey をダミー(EMPTYなど)にしている点です。また、customCommands(スラッシュコマンド)をチームで共有することで、「テスト作成」や「ドキュメント生成」といった頻出タスクの品質を均一化できます。

なお、モデル指定(model)に関しては、バージョンを固定するのではなく、プロキシ側でマッピングを制御することがスマートです。抽象的なモデル名(例: Company-GPT-Max)を使用し、バックエンド側で複雑なタスク用にはGPT-5.1-Codex-MaxやGPT-4o、簡単なタスクや補完用にはMiniモデルへとルーティングすることで、最新モデルがリリースされた際もクライアント側の設定変更を不要にする運用が可能です。

コンテキストプロバイダー設定による社内ドキュメント参照

さらに強力なのが、Continueの「Context Provider」機能です。これは、チャット画面で @ を入力することで、特定のファイルやドキュメントをAIに参照させる機能です。

社内のコーディング規約やAPI仕様書をまとめたドキュメントフォルダをインデックス化し、@docs で参照できるように設定することで、AIは一般的なプログラミング知識だけでなく、「そのプロジェクト固有のルール」を理解した上で回答できるようになります。

GitHub Copilotのエージェントモードがアーキテクチャ分析やモジュール境界定義を行うように、Continueでも適切なコンテキストを与えることで高度なタスク委譲が実現します。いわゆるRAG(検索拡張生成)の簡易版を、VSCode内で手軽に構築する手法です。詳細なコメント(例: 「JWTを使ってメール/パスワードで認証し、リフレッシュトークンも実装」)と組み合わせることで、新しく参画したメンバーでも、AIの支援を受けながら社内規約に沿ったセキュアなコードを効率的に記述することが可能になります。

4. 現場の受容:教育コストゼロを目指したオンボーディング

導入の実際:APIキーの一元管理と「config.json」の標準化 - Section Image

新しいツールの導入には、常に「学習コスト」という壁が立ちはだかります。しかし、Continueの導入に関しては、既存の開発環境との親和性が高いため、驚くほどスムーズに進むケースが多く報告されています。

VSCodeサイドバー統合による違和感のなさ

ContinueはVSCodeのサイドバーに統合され、見た目も操作感もGitHub CopilotやChatGPTのWebインターフェースと非常に似ています。近年のAIコーディングアシスタントで標準化しつつあるインラインチャットや、エージェントモードの操作感にも通じるものがあり、エンジニアにとって馴染みのある形式です。そのため、大規模な操作説明会を開く必要はほとんどありません。

「サイドバーのアイコンをクリックして、チャットで質問する」
「コードを選択して Ctrl+L (macOSは Cmd+L) を押せば、そのコードについてチャットできる」

基本的に伝えるべき操作はこの2点だけです。クリエイター気質のエンジニアたちは、すぐに自分なりの最適な使い方を見つけ出していくはずです。

「範囲選択して質問」だけのシンプルな教育

複雑なプロンプトエンジニアリングを教育するよりも、「コードを選択して質問する」という基本動作を徹底することが、現場では効果的です。

エラーが出た際は、エラーログと該当コードを選択して「修正案を出して」と依頼する。複雑な正規表現があれば、選択して「これの意味を解説して」と問う。このシンプルな使い方が、実は最も実用的です。

さらに一歩進んだ活用として、GitHub Copilotの最新のベストプラクティスでも推奨されている「コンテキストの明確化」を取り入れると精度が劇的に向上します。例えば、「認証処理」といった曖昧な指示ではなく、「JWTを使ってメールとパスワードで認証し、リフレッシュトークンも実装する」といった具体的なコメントを添えるアプローチです。

また、プロジェクト固有のコーディング規約やTypeScriptのstrict modeなどのルールを、カスタムインストラクションとしてあらかじめ定義しておく手法も、チーム開発におけるAIアシスタントの運用を安定させる重要なポイントになります。Web版のAIにコードをコピペする手間がなくなり、思考を中断せずに作業できる体験は、開発効率を大きく押し上げます。

誤ったコード生成への対策とレビュー体制

一方で、「AIが嘘をつく(ハルシネーション)」リスクへの対策も依然として欠かせません。バックエンドで使用するLLMのコーディング能力や推論性能は飛躍的に向上しています。特に、思考プロセスを強化した最新の推論モデルでは、複雑なロジックの生成精度も高まっていますが、それでも完璧ではありません。

組織としては、「AIが書いたコードは、新人が書いたコードだと思ってレビューせよ」という意識を持つことが求められます。AIは優秀なアシスタントですが、責任者ではありません。生成されたコードをそのままコミットすることは避け、必ず人間が動作確認を行うフローを徹底する必要があります。

ここで活きてくるのが、タスクに応じたモデルの使い分けです。近年のGitHub Copilot等でも、簡単なタスクには軽量モデルを、複雑なタスクやエージェント的な自動化には「GPT-5.1-Codex-Max」のような高性能モデルを選択することが推奨されています。Continueは複数のAPIを柔軟に切り替えられるため、この「モデル選択」のベストプラクティスをそのまま実践できます。

また、ジュニアエンジニアに対しては、AIとの「ペアプログラミング」的な活用が推奨されます。AIにコードを書かせるだけでなく、「なぜそのコードになるのか?」を解説させることで、AIを教育係として活用するのです。これにより、AI依存によるスキル低下を防ぎつつ、学習効率を高めることが期待できます。

5. 成果と安心:ブラックボックス化しないAI活用の確立

4. 現場の受容:教育コストゼロを目指したオンボーディング - Section Image 3

セキュリティと効率性を両立させた開発環境の構築は、組織にどのような変化をもたらすのでしょうか。実際にこのアーキテクチャを採用した組織で一般的に報告されている成果と、セキュリティ部門との合意形成におけるポイントを整理します。

コードレビュー効率化と品質の均一化

定量的な成果として多くの現場で挙げられるのが、コードレビュープロセスの改善です。Continueの customCommands を活用して単体テストやJSDocの記述を自動化することで、プルリクエストに含まれるコードの品質向上が期待できます。

これは、2026年現在のGitHub Copilotで推奨されている、インラインチャットの活用や詳細コメントによるコンテキスト提供といったベストプラクティスとも共通するアプローチです。レビュアーは、「コメントの欠如」や「テスト不足」といった形式的な指摘に時間を割く必要がなくなり、設計の妥当性やロジックの検証といった本質的なレビューに集中できるようになります。結果として、レビュー工程の大幅な効率化と、チーム全体でのコード品質の均一化が見込めます。

APIコストの可視化と最適化

コスト管理の面でも、社内プロキシによるログ監視が大きな役割を果たします。トークン消費量をプロジェクトやユーザー単位で可視化できるため、予算管理が容易になります。

最新の開発環境では、タスクに応じたAIモデルの使い分けがトレンドになっています。例えばGitHub Copilotでは、簡単なタスクには軽量モデルを割り当て、複雑なタスクやエージェントモードでの自律的な処理にはGPT-5.1-Codex-Maxを選択するといった最適化が可能です。Continueを用いた環境でも同様に、単純なコード補完には高速なモデルを使用し、複雑なリファクタリングや高度な推論が必要な場面ではGPT-4などの高性能モデルを採用するなど、用途に応じた使い分けが実現できます。

これにより、定額制のサービスと比較しても、費用対効果の高い運用を実現できるケースが少なくありません。「使った分だけ払う」という従量課金モデルは、プロジェクトごとの予算配分とも親和性が高いと言えます。

セキュリティ部門からの信頼獲得

最も重要な成果は、組織内での「安心感」の醸成です。

  • 「ログは全て自社管理下にある」
  • 「通信先は契約済みの信頼できるエンドポイントのみ」
  • 「監査ログにより利用状況をいつでも追跡可能」

これらの条件を満たすことで、セキュリティ部門にとってAIツールは「管理不能なリスク」から「統制された生産性向上ツール」へと変化します。また、GitHub Copilotが .github/copilot-instructions.md でカスタムインストラクションを設定してルールを適用するように、Continue環境でも共通設定ファイル(config.json)を用いてプロジェクト固有のコーディング規約を強制できます。技術の進化を享受しつつ、ガバナンスを維持したい企業にとって、現実的な解となるでしょう。

まとめ

VSCode拡張機能「Continue」とAPI連携による開発環境は、セキュリティと効率性のジレンマに悩む企業にとって、極めて有効な選択肢です。

  • 透明性: OSSによる監査可能性と、自社管理プロキシによる完全なログ追跡。
  • 柔軟性: GPT-4からローカルLLMまで、要件に応じたモデル選択。
  • 統制: 共通設定ファイルによるチーム全体の品質基準の統一。

「セキュリティ要件が厳しいため導入できない」と諦める前に、まずはスモールスタートでこの構成を検討することをお勧めします。管理された環境下で、エンジニアが最新のAI技術を活用し、クリエイティビティを発揮できる基盤が整うはずです。AIクリエイティブプランナーの視点からも、こうしたセキュアな開発基盤の確立こそが、次世代の動画生成AIやアバター技術を支える重要な土台になると言えます。

最新のAIコーディング支援ツールの動向や詳細な仕様については、OpenAI公式サイトGitHub Copilot 公式ドキュメントをご参照ください。また、基盤モデルの進化に関する情報はOpenAI公式サイト - 研究ブログ、エージェントモードやCopilot Chat等の具体的な実装方法はGitHub Copilot - 公式ドキュメントでも確認できます。

「便利だが漏洩が怖い」を打破する。VSCode拡張機能「Continue」で築くセキュアなAI開発基盤 - Conclusion Image

コメント

コメントは1週間で消えます
コメントを読み込み中...