帳票・PDF生成と社内回付の自動化

Webスクレイピング自動化の運用設計と内製化ロードマップ:リスクを回避しデータ収集を資産に変える実践手法

約22分で読めます
文字サイズ:
Webスクレイピング自動化の運用設計と内製化ロードマップ:リスクを回避しデータ収集を資産に変える実践手法
目次

この記事の要点

  • 帳票・PDF生成から社内回付、押印、保管までの一連の業務を自動化する戦略
  • Webスクレイピングによるデータ収集の効率化と法的・技術的リスク回避
  • AI-OCRと連携したドキュメント処理の自動化と例外処理の最適化

Webスクレイピング自動化の「真の価値」:効率化を超えたデータ経営の基盤

毎週月曜日の朝、数十社の競合サイトを巡回してエクセルに価格や新製品情報を転記する。あるいは、業界ニュースのポータルサイトから関連する記事だけを拾い集めて社内ポータルに投稿する。皆様の組織でも、こうしたデータ収集業務に現場の貴重なリソースが奪われているという課題は珍しくありません。

この状況を打破するために「Webサイトの情報を自動で取得したい」と考えるのは自然な流れです。しかし、その目的を掘り下げていくと、単なる手作業の置き換えにとどまっているケースが散見されます。Webスクレイピング(Webサイトから特定のデータを自動的に抽出する技術)の自動化を成功させるためには、まずその「真の価値」を組織全体で正しく認識することから始める必要があります。

単なる『コピペの自動化』で終わらせない理由

「Webスクレイピングの自動化」と聞くと、多くの人は表計算ソフトへのコピー&ペースト作業をなくすことを想像するでしょう。確かに、この作業を自動化するだけでも一定の工数削減効果は得られます。しかし、業務自動化の視点から言えば、それはスクレイピングが持つポテンシャルのほんの一部に過ぎません。

真の価値は、作業時間の短縮ではなく「意思決定のスピードと質を劇的に向上させること」にあります。手作業によるデータ収集では、どうしても人間の稼働時間に依存するため、情報の取得頻度に限界が生じます。「月に1回」や「週に1回」の更新では、目まぐるしく変化する市場の動向や競合のゲリラ的なキャンペーンを捉えきれません。

自動化によって「毎日」「毎時間」といった高頻度でのデータ収集が可能になれば、情報の鮮度は格段に上がります。経済産業省のDX関連レポートなどでも度々指摘されている通り、この鮮度の高いデータこそが、迅速な経営判断やマーケティング施策の機動的な軌道修正を可能にするのです。スクレイピングを「作業の自動化」ではなく「データ資産構築の自動化」と捉え直すことが、プロジェクトを成功に導く第一歩となります。

競合インテリジェンスと市場洞察を加速させるデータ資産化

高頻度で収集されたデータは、単発で消費するのではなく、蓄積されることでさらなるビジネス価値を生み出します。例えば、競合他社のECサイトから価格情報や在庫状況を毎日自動収集する仕組みを構築したと想像してみてください。単日のデータでは「現在の価格」しか分かりませんが、半年間蓄積すれば「どの時期にセールを行うのか」「在庫が切れるタイミングはいつか」「どのような頻度で価格改定を行っているのか」という傾向(トレンド)が明確に見えてきます。

このような時系列データの蓄積は、自社の価格戦略やプロモーション計画を立案する上で、推測ではない「事実に基づいた」強力な武器となります。また、口コミサイトやレビュー情報の継続的な収集であれば、顧客の感情変化や新たなニーズの兆しをいち早く察知する市場洞察(マーケットインサイト)に直結します。

さらに、近年急速にビジネス実装が進んでいる生成AIや機械学習モデルを活用するためには、学習データとなる「構造化された大量のデータ」が不可欠です。社内に眠る内部データだけでなく、外部のWebデータを継続的かつ安定的に収集・構造化する仕組みを持つ企業は、AI時代において圧倒的な競争優位性を築くことができると確信しています。

失敗を未然に防ぐ3つの基本原則:法務・技術・マナーのコンプライアンス

Webスクレイピングの価値を理解したところで、次に立ちはだかるのがリスク管理の壁です。スクレイピングには、社内システムの自動化(一般的なRPAなど)にはない特有のリスクが存在します。それは、自社でコントロールできない外部のシステム(他社のWebサーバー)に対して直接アクセスを行うという性質に起因します。法的・倫理的トラブルを避けるための必須知識を整理し、安全な運用の土台を固めましょう。

利用規約と著作権法の境界線

スクレイピングを検討する際、真っ先に確認すべきは対象サイトの「利用規約(Terms of Service)」です。多くのWebサイト(特に大手SNSやECプラットフォーム)では、利用規約において自動化プログラム(Botやクローラー)によるアクセスやデータ抽出を明示的に禁止しています。規約違反は、最悪の場合、損害賠償請求や自社IPアドレスのブロックなどの法的・技術的トラブルに発展するリスクを孕んでいます。

また、著作権法への配慮も不可欠です。収集したデータが「思想又は感情を創作的に表現したもの」である場合、著作物に該当する可能性があります。日本の著作権法においては、第30条の4(情報解析のための複製等)により、AIの機械学習などの「情報解析」を目的とする場合は、原則として著作権者の許諾なく利用できる柔軟な規定が存在します。

しかし、文化庁が公表している「AIと著作権に関する考え方」などの公式見解に照らしても、この規定には「著作権者の利益を不当に害することとなる場合は、この限りでない」という例外が設けられています。収集したデータをそのまま自社サイトに転載したり、元のコンテンツの市場と競合するような形で利用したりすることは、権利侵害となる可能性が極めて高くなります。導入前に、必ず法務部門と連携し、収集目的と利用方法の適法性を確認するフローを設けることを強く推奨します。

サーバー負荷を抑える『紳士的な』アクセス設計

技術的な観点での最大のリスクは、対象サイトのサーバーに過度な負荷をかけてしまうことです。人間の手作業とは比較にならない速度で、短時間に大量のリクエストを送信するプログラムは、サイバー攻撃(DoS攻撃)と見なされる危険性があります。

このリスクを象徴する歴史的な事例として、業界で広く知られているのが2010年に起きた「岡崎市立中央図書館事件(Librahack事件)」です。利用者が図書館の蔵書検索システムにクローラーでアクセスしたところ、システムの仕様上の問題も相まってサーバーがダウンし、利用者が偽計業務妨害の容疑で逮捕される事態となりました(後に起訴猶予処分)。悪意が全くなくても、アクセス頻度の設計を誤れば重大なトラブルを引き起こすという教訓です。

これを防ぐためには、「紳士的な」アクセス設計が絶対条件となります。具体的には、アクセスとアクセスの間に意図的な待機時間(スリープ処理)を設けることが鉄則です。一般的には「1リクエストにつき1秒〜数秒以上の間隔を空ける」ことが目安とされています。また、対象サイトのルートディレクトリにある「robots.txt(クローラーへの指示書)」を確認し、アクセスが許可されている領域と禁止されている領域を正しく把握し、サイト管理者の意図を尊重する姿勢が不可欠です。

個人情報保護法(GDPR/改正個パ法)への配慮

収集対象のデータに個人情報が含まれる場合は、取り扱いの難易度が跳ね上がります。氏名、メールアドレス、顔写真などはもちろんのこと、他の情報と容易に照合することで特定の個人を識別できるデータも保護の対象となります。

個人情報保護委員会の公式ガイドラインでは、不正な手段による個人情報の取得を禁止しており、利用目的の特定・通知・公表などが厳格に義務付けられています。さらに、海外のサイトを対象とする場合や、海外の顧客データが含まれる場合は、欧州のGDPR(一般データ保護規則)など、より重い罰則を伴う規制の対象となる可能性があります。

原則として、Web上に公開されている情報(SNSの公開プロフィールなど)であっても、個人情報を無断で大量に収集・蓄積し、ダイレクトマーケティング活動等に利用することは極めて高いコンプライアンスリスクを伴います。スクレイピングの対象データからは、設計段階で個人情報を除外する、あるいは即座にマスキング処理(匿名化)を施す仕組みを組み込むのが、企業として最も安全で推奨されるアプローチと言えます。

【独自提案】スクレイピング自動化の5段階成熟度ロードマップ

失敗を未然に防ぐ3つの基本原則:法務・技術・マナーのコンプライアンス - Section Image

コンプライアンスの基礎を理解した上で、いよいよ実装フェーズに入ります。しかし、非エンジニアの担当者がいきなり高度なプログラミング言語(Pythonなど)を用いたスクレイピングを目指すと、環境構築やエラー対応の壁にぶつかり、学習コストの高さから挫折してしまうケースが後を絶ちません。

そこで、スキルの習熟度と組織のビジネスニーズに合わせた「5段階の成熟度ロードマップ」というフレームワークを提案します。現在の自社がどの段階にいるのかを把握し、無理なくステップアップしていくための指針として活用してください。

Step 1: ブラウザ拡張機能による『ノーコード収集』

最初のステップは、プログラミング知識が一切不要な「ノーコードツール」の活用です。Google Chromeなどのブラウザ拡張機能として提供されている「Web Scraper」や、デスクトップアプリの「Octoparse」などのツールを使用します。

この段階では、画面上のクリック操作だけで、対象となる表データやリストの構造(DOM:Document Object Model)をツールが自動認識し、簡単にCSV形式で抽出できます。ここでの最大の目的は、「Web上のバラバラなデータは、ルールさえ決めれば簡単に構造化して取得できる」という成功体験を現場担当者に提供し、自動化に対する心理的ハードルを劇的に下げることにあります。ただし、人間が手動でツールを起動する必要があるため、完全な自動化には至っていません。

Step 2: RPA・iPaaS連携による『定期実行の自動化』

次のステップでは、「定期的な実行」を自動化し、人間の介入をなくします。UiPathやPower Automateといったデスクトップ型のRPA(Robotic Process Automation)ツール、あるいはZapierやMakeなどのクラウド上で動作するiPaaSを活用し、「毎週月曜日の朝8時に特定のサイトを巡回してデータを取得し、指定のフォルダに保存する」といったスケジュール実行の仕組みを構築します。

これにより、担当者がPCの前にいなくても、あるいは休日の深夜であってもデータ収集が完了するようになります。多くの企業は、このStep 2に到達することで、初期の目標である「作業の置き換えによる業務効率化」を達成し、実感として大きな効果を得ることができます。

Step 3: データクレンジングの自動化とDB連携

Step 2までは、取得したデータがExcelやCSVファイルとして各担当者のPCに散在しがちです。Step 3では、収集したデータを「そのまま分析に使える状態」にするためのデータクレンジング(表記揺れの修正、不要な空白の削除、日付フォーマットの統一など)を、自動化プロセスの中に組み込みます。

さらに、出力先をローカルファイルではなく、自社のデータベースやクラウドデータウェアハウス(Google BigQueryやAmazon Redshiftなど)に直接連携させます。これにより、データのサイロ化(孤立状態)を防ぎ、BIツールなどを通じて組織全体でデータを共有・活用できる「シングル・ソース・オブ・トゥルース(信頼できる唯一の情報源)」の基盤が整います。

Step 4: サイト変更検知とエラー復旧の仕組み化

Webサイトの構造(HTMLタグの配置やクラス名)は、サイト管理者の都合で頻繁に変更されます。構造が変わると、スクレイピングツールは目的のデータを見つけられず、エラーとなって停止してしまいます。

Step 4では、こうした「サイト仕様変更」に耐えうる堅牢な運用体制を構築します。データが正しく取得できなかった際に即座にチャットツール(SlackやMicrosoft Teamsなど)へアラートを通知する仕組みや、対象サーバーから「429 Too Many Requests(リクエスト過多)」というHTTPステータスコードが返ってきた際に、自動で待機時間を延長して再試行(リトライ)する処理を実装します。この段階に達すると、運用保守にかかる手戻り工数が劇的に削減され、安定稼働が実現します。

Step 5: AI(LLM)による非構造化データの抽出

最終段階は、最新のAI技術(大規模言語モデル:LLM)との高度な融合です。従来のスクレイピング技術では、ニュース記事の長文本文や、企業のIRレポートなど、フォーマットが定まっていない「非構造化データ」から特定の意味を持つ情報だけを正確に抽出することは極めて困難でした。

しかし、OpenAIのAPIなどをプロセスに組み込むことで、「以下の長文ニュース記事から、提携元の企業名、提携先の企業名、投資額、および提携の目的の4項目を抽出し、JSON形式で出力せよ」といった、文脈を理解した上での高度な指示が可能になります。これにより、これまで人間の読解力と判断力に依存していた高度な情報収集・要約業務までもが、自動化の対象領域へと拡張されます。

ROIを最大化する「データ収集設計」のベストプラクティス

スクレイピングの仕組みを構築する際、単に「画面に見えているデータを取ってくる」だけでは不十分です。収集したデータを分析ツールや後続のシステムで利用する際に、手作業での加工(前処理)が毎回発生してしまっては、自動化によるROI(投資対効果)は半減してしまいます。入り口の設計品質が、全体の生産性を決定づけます。

目的から逆算する収集項目(セレクタ)の選定

データ収集を設計する際の絶対的な鉄則は、「後工程の目的から逆算すること」です。例えば、収集したデータをBIツール(TableauやPower BIなど)でダッシュボード化することが目的であれば、BIツールが読み込みやすいフラットな形式でデータを取得しなければなりません。

Webページから特定の要素を指定して取得する際、W3Cで標準化されている「CSSセレクタ」や「XPath」といった技術が使われます。この時、見た目のデザインに依存したセレクタ(例:「上から3番目の赤い太字のテキスト」という指定)を用いると、サイトのデザインが少し変わっただけで即座にエラーになります。保守性を高めるためには、データそのものの意味を示す属性(id属性や、開発者が付与した特定のデータ属性など)をピンポイントで指定する、堅牢な設計が求められます。

データの正規化:表記揺れを収集段階で防ぐテクニック

Web上に公開されているデータは、必ずしも美しく整っているわけではありません。「株式会社」と「(株)」、「1,000円」と「1000円」と「千円」、「2025/01/01」と「2025年1月1日」といった表記揺れは日常茶飯事です。これらをそのまま取り込むと、エクセルで合計値を計算しようとした際にエラーになったり、グラフの時系列が狂ったりする原因となります。

分析フェーズでこれらの表記揺れを毎回修正するのは膨大な手間がかかります。そのため、スクレイピングのワークフロー内に「データの正規化処理」を組み込むことがベストプラクティスです。数値を抽出する際は正規表現を用いてカンマや通貨記号を取り除き、純粋な数値データとして保存する。日付は国際規格であるISO 8601形式(YYYY-MM-DD)に統一して出力する。こうした収集段階での一工夫が、後工程のデータサイエンティストやマーケターの生産性を飛躍的に高めます。

BIツール連携を前提とした出力フォーマットの標準化

データの出力形式(フォーマット)の選択も、その後の活用しやすさを左右する重要な要素です。人間が目で見て確認する場合はExcel形式が直感的で便利ですが、システム間の連携を前提とする場合は不向きなケースが多くあります。

一般的に、大量のデータをデータベースやBIツールにインポートする場合は、RFC 4180で仕様が定義されている「CSV形式」が軽量で汎用性が高く推奨されます。一方、階層構造を持つ複雑なデータ(例:1つのEC商品に対して、複数のバリエーションと数十件のレビューが紐づくようなデータ)を扱う場合や、Web APIとの連携を想定する場合は、構造を保持できる「JSON形式」が適しています。目的と連携先のシステム仕様に合わせて、組織内で最適なフォーマットを標準化することが重要です。

継続的な運用を支える「保守・メンテナンス」の鉄則

ROIを最大化する「データ収集設計」のベストプラクティス - Section Image

スクレイピング自動化において、導入時の初期開発工数よりもはるかに大きなコストとなるのが、その後の「運用保守」です。朝出社したらエラー通知が大量に届いており、原因調査に半日費やしてしまった、という経験を持つ担当者も多いのではないでしょうか。Webサイトという「自社で一切コントロールできない外部要因」に依存する以上、エラーによる停止は避けられない宿命と言えます。止まることを前提とした設計が必要です。

なぜスクレイピングは『止まる』のか:サイト構造変化への対応

スクレイピングが突如として停止する最大の原因は、対象サイトのUI変更やリニューアルです。企業は常にコンバージョン率を高めるためにA/Bテストを行ったり、ユーザビリティ改善のためにデザインを刷新したりしています。これにより、データを抽出するための目印としていたHTMLタグの構造(DOMツリー)が変化し、ツールが迷子になってしまうのです。

この問題に対する魔法のような根本解決策はありません。重要なのは「絶対に止まらないこと」を目指すのではなく、「止まったことに素早く気づき、迅速に復旧できること」に焦点を当てることです。そのためには、前述したようにデザイン変更の影響を受けにくい堅牢なセレクタを設計することが第一の防衛線となります。また、要素が見つからなかった場合の例外処理(Try-Catch処理など)を組み込み、システム全体がクラッシュするのを防ぐ設計も有効です。

エラー通知の自動化:Slack/Teamsへの即時連携

エラーが発生した際、担当者が手動で管理画面にログインし、ログを確認しにいく運用では、データの欠損期間が長引いてしまいます。異常を検知した瞬間に、関係者に自動でアラートが飛ぶ「プッシュ型」の通知仕組みが不可欠です。

例えば、RPAやiPaaSの機能を用いて、「データの取得件数が0件だった場合」や「対象サイトから想定外のHTTPステータスコード(403 Forbiddenや503 Service Unavailableなど)が返ってきた場合」に、エラーの詳細を通知します。通知内容には「対象のURL」「発生時刻」「エラーの具体的な内容」「影響を受ける業務」を含め、SlackやMicrosoft Teamsの専用チャンネルにWebhook経由で即時送信するよう設定します。これにより、担当者は迅速に状況を把握し、業務への影響を最小限に抑えながらメンテナンス作業に着手できます。

ログ管理と実行履歴の可視化

安定した中長期的な運用には、実行ログの適切な管理が欠かせません。「いつ、どのサイトにアクセスし、何件のデータを取得し、どのくらいの実行時間がかかったのか」という履歴をデータベースに記録し、ダッシュボード等で可視化しておくことで、トラブルシューティングが格段に容易になります。

また、アクセスにかかる時間が徐々に長くなっている場合、対象サイトのサーバーレスポンスが悪化しているか、あるいは自社のアクセス頻度が高すぎて相手側から制限(スロットリング)をかけられつつある兆候かもしれません。ログを定期的に分析することで、致命的なエラーが発生する前に、アクセス間隔の調整や実行時間帯の変更といった予防措置を講じることが可能になります。

【アンチパターン】なぜ多くの「野良スクレイピング」は放置されるのか

継続的な運用を支える「保守・メンテナンス」の鉄則 - Section Image 3

自動化プロジェクトにおいて、避けるべき失敗のパターン(アンチパターン)を知ることは、成功への最短ルートです。現場主導で熱心に始まったスクレイピングが、いつの間にか誰も管理できない「野良スクレイピング」と化してしまうケースには、共通する組織的・技術的な要因が存在します。

ドキュメント不在のブラックボックス化

最も多く、かつ致命的な失敗は、開発した担当者の頭の中にしか仕様が存在しない状態です。「どのサイトから」「何の目的で」「どのツールを使って」「どのような頻度で」データを取得しているのかが文書化されていないと、その担当者の異動や退職と同時に、仕組みは完全なブラックボックスと化します。

エラーで停止しても誰も直すことができず、最終的には「よく分からないプログラムがサーバー上で動き続けているが、止めるのも怖い」という非常にリスキーな状態に陥ります。これを防ぐためには、ITIL(ITインフラストラクチャ・ライブラリ)などの運用フレームワークの考え方を参考にし、簡素なスプレッドシートのフォーマットで構わないので、必ず「運用管理台帳」を作成し、チーム内で共有・更新し続けるルールを徹底する必要があります。

過度な複雑化によるメンテナンス不能状態

プログラミングスキルがある優秀な担当者にありがちなのが、初期段階から過度に複雑な処理を実装してしまうことです。多要素認証(MFA)が絡むログイン処理の自動化、複雑なページネーション(次へボタンのクリック)の突破、CAPTCHA(画像認証)の回避など、高度な技術を詰め込んだスクレイピングは、対象サイトのわずかなセキュリティアップデートで容易に機能不全に陥ります。

複雑な仕組みは、それだけメンテナンスの難易度と学習コストを引き上げます。ビジネス上の価値(得られるデータ)と、それを維持するための保守コストのバランスを見誤ると、最終的に「手作業でやった方が圧倒的に早かった」という本末転倒な結果を招きます。常に「シンプルで保守しやすい設計」を心がけ、技術的な自己満足に陥らないよう注意すべきです。

目的不明な『とりあえず収集』の罠

「データは多い方が、後で何かに使えるだろう」という安易な発想で、必要のないデータまでサイト全体から根こそぎ収集するアプローチも危険です。目的が明確でない「とりあえず収集」は、自社のストレージ容量を無駄に圧迫するだけでなく、対象サイトへの負荷を不必要に高め、前述した法的・倫理的リスクを無意味に増大させます。

データ収集の仕組みを構築する前に、「このデータを使って、誰が、どのようなビジネス上の判断を下すのか」というKGI(重要目標達成指標)やKPI(重要業績評価指標)を明確に定義しなければなりません。出口(活用方法)のイメージがないデータ収集は、単なるデジタルゴミの量産に終わってしまいます。

内製化に向けた最初の3ステップ:明日から始めるデータ収集改革

ここまで、Webスクレイピング自動化の真の価値、回避すべきリスク、そして設計思想について詳細に解説してきました。最後に、組織としてデータ収集の内製化を進めるために、明日から着手すべき具体的な3つのステップを提示します。

対象サイトの優先順位付け(難易度×インパクト)

まずは、現在社内で手作業で行われているデータ収集業務をすべて洗い出します。その上で、各業務を「自動化の技術的難易度」と「ビジネスへのインパクト(削減できる工数や、得られるデータの価値)」の2軸で評価し、マトリクス化して優先順位を付けます。

いきなりログインが必要な複雑なサイトや、動的にページが生成される難易度の高いサイトに挑戦するべきではありません。まずは「誰でもアクセスできる公開情報」であり、かつ「定期的に取得する価値が高い情報(例:主要競合の価格リスト、特定の業界ニュースなど)」を最初のターゲット(Quick Win)に選定します。手作業で月間10時間かかっている業務を、安価なツールのライセンス費用で代替できれば、それだけで明確なROIを示すことができます。

スモールな成功体験を作るPoCの実施

ターゲットが決まったら、本格的なシステム開発や高額なツールの導入に入る前に、PoC(概念実証)を実施します。前述の成熟度ロードマップのStep 1やStep 2で紹介したブラウザ拡張機能や既存のRPAを用いて、小さく素早く仕組みを作ります。

「1つのサイトの、1つの項目を、1週間自動で取得し続ける」といった小さな成功体験を作ることが極めて重要です。このPoCを通じて、対象サイトの構造の癖や、データの表記揺れの傾向を肌で把握し、本格導入に向けた技術的課題を洗い出します。また、実際に自動で集まったデータを見ることで、社内のステークホルダーの理解と予算の協力を得やすくなります。

社内ガイドラインの策定と共有

PoCで一定の成果が見えたら、組織として安全かつ継続的に運用するための「社内ガイドライン」を策定します。法務部門とも連携し、以下の項目を明確に定めたドキュメントを作成します。

  • スクレイピングを許可する条件(ビジネス目的の明確化、対象サイトの利用規約確認フロー)
  • 技術的なルール(1リクエスト1秒以上などのアクセス間隔の制限、個人情報保護法に準拠した取り扱い)
  • 運用保守の体制(管理台帳への登録義務、エラー発生時の対応フローとエスカレーション先)

こうしたルールを整備し、個人の頭の中にあった暗黙知を組織の形式知化することで、属人化を防ぎ、持続可能なデータ活用文化が組織に根付いていきます。

Webスクレイピングやデータ収集の自動化は、技術の進化と法規制のアップデートが非常に速い領域です。ツールの機能アップデートや、対象サイト側のセキュリティ対策(アンチボット技術)など、状況は常に変化しています。一度仕組みを作って満足するのではなく、最新の動向を常にキャッチアップし、自社の運用プロセスをアップデートし続けることが求められます。

そのためには、最新のトレンドやベストプラクティスを効率的に収集する仕組みが必要です。最新動向をキャッチアップするには、業界の専門家が発信するSNS(XやLinkedIn)やニュースレターでの継続的な情報収集が有効な手段となります。データ収集の効率化と高度化が、皆様のビジネスの強力な推進力となることを確信しています。

Webスクレイピング自動化の運用設計と内製化ロードマップ:リスクを回避しデータ収集を資産に変える実践手法 - Conclusion Image

参考文献

  1. https://ai.watch.impress.co.jp/docs/news/2105350.html
  2. https://news.livedoor.com/article/detail/31142975/
  3. https://learn.microsoft.com/ja-jp/visualstudio/releases/2026/release-notes
  4. https://github.com/taishi-i/awesome-ChatGPT-repositories/blob/main/docs/README.ja.md
  5. https://github.com/taishi-i/awesome-ChatGPT-repositories/blob/main/docs/README.ja.md?plain=1
  6. https://qiita.com/ishisaka/items/26771ec905fc9a03f985
  7. https://www.rstone-jp.com/column/107548/
  8. https://www.ai-tech-c.jp/generative-ai-study-group-gasg/

コメント

コメントは1週間で消えます
コメントを読み込み中...