創薬AIが切り拓く新薬開発の短縮:生成AIによるタンパク質構造予測の最前線

「AI予測は実験室で通用するのか?」現場の懐疑論を乗り越え、リード化合物特定を劇的に加速させた組織変革の実録

約14分で読めます
文字サイズ:
「AI予測は実験室で通用するのか?」現場の懐疑論を乗り越え、リード化合物特定を劇的に加速させた組織変革の実録
目次

この記事の要点

  • 生成AIによるタンパク質構造予測の高精度化
  • 新薬開発期間の劇的な短縮(例: 60%短縮)
  • リード化合物特定プロセスの効率化と加速

プロジェクト背景:迫られる「Eroomの法則」打破への挑戦

「10年、1000億円」。

これが一つの新薬を市場に送り出すために必要な期間とコストの相場と言われて久しいですが、皆さんの肌感覚としては、この数字ですら「楽観的すぎる」と感じているのではないでしょうか。

近年、製薬業界全体を覆っているのが、いわゆる「Eroom(イールーム)の法則」です。半導体の性能が指数関数的に向上するという「Moore(ムーア)の法則」を逆さに綴ったこの言葉が示す通り、新薬開発の効率は年々悪化の一途をたどっています。研究開発費を投じれば投じるほど、承認される新薬の数は減っていく。この負の連鎖は、大手メガファーマだけでなく、リソースの限られた中堅規模の製薬企業にとっては死活問題です。

近年、多くの製薬企業がこのジレンマに直面しています。

開発コスト増大と成功確率低下のジレンマ

中堅規模の製薬企業では、研究開発の現場から「既存の創薬ターゲットはあらかた掘り尽くされてしまった。残っているのは、構造解析すらままならない難易度の高い膜タンパク質や、従来の低分子薬では狙えないようなターゲットばかりだ」という声が聞かれます。

従来の手法、つまり既知のターゲットに対してハイスループットスクリーニング(HTS)を行い、ヒット化合物を探すというアプローチは、もはや限界を迎えつつあります。ヒット率は低下し、運良くヒットしても、その後の最適化プロセスで毒性や動態の問題が見つかり、開発中止に追い込まれるケースが後を絶ちません。失敗するなら早めに失敗する「Fail Fast」が重要と言われますが、Failに至るまでの期間とコストが経営を圧迫しているという声も聞かれます。

中堅製薬企業が「AI構造予測」に賭けた理由

そのような状況の中、起死回生の一手として「AIによるタンパク質構造予測」に注目する企業も出てきています。2020年のAlphaFold2の登場は、ライフサイエンス分野に衝撃を与えましたが、企業の経営陣にとってもそれは「希望の光」に見えたようです。

しかし、現場で求められているのは単なる「計算ソフトの導入」ではありません。「実験室(ウェット)のプロセスそのものを変えられないか?」という、より本質的な業務フローの変革です。実験で構造を決めるのを待ってから薬を設計するのではなく、機械学習モデルで構造を予測し、その予測に基づいて実験を行い、その結果をまたAIのデータ分析に戻す。このサイクルを回すことで、開発期間を劇的に短縮できないか。

これは、技術的な挑戦であると同時に、長年培われてきた「実験至上主義」の文化に対する、AI導入支援を通じた挑戦でもあります。

直面していた課題:ターゲットタンパク質の構造決定における「数年の壁」

AI導入の初期段階において、現場の研究員たちからのヒアリングを通じてしばしば浮き彫りになるのは、ターゲットタンパク質の構造決定における深刻なボトルネックです。

難難易度ターゲットに対するX線結晶構造解析の限界

創薬ターゲットとして魅力的な、がんや自己免疫疾患に関わるGタンパク質共役受容体(GPCR)やイオントランスポーターといった膜タンパク質は、構造解析の難易度が非常に高いです。

従来のX線結晶構造解析を行うには、まずタンパク質を結晶化させる必要があります。しかし、膜タンパク質は細胞膜の中に埋まっているため不安定で、水溶液中で精製して結晶化させることが非常に困難です。現場の研究員からは、「結晶ができるのを待って半年、解析してみたら分解能が足りなくてやり直し。そんなことを繰り返しているうちに2年が過ぎていく」という声も聞かれます。

近年ではクライオ電子顕微鏡(Cryo-EM)の技術も進歩していますが、それでもサンプルの調製には高度な技術と時間を要しますし、装置自体のマシンタイムを確保するのも一苦労です。構造がわからなければ、論理的な薬物設計(SBDD: Structure-Based Drug Design)はスタートラインに立つことすらできません。

実験の試行錯誤による膨大なタイムロス

構造決定を待てない場合、研究者たちはリガンドベースの薬物設計(LBDD)に頼らざるを得ません。既知の活性化合物の構造から類推して、似たような化合物を合成し、評価する。これはある意味で「暗闇の中で手探りをする」ような作業です。

構造が見えていれば無駄だとわかるはずの合成を繰り返しているかもしれない、という意見もあり、構造決定の遅れは、単なる待ち時間ではなく、無駄な合成と評価実験というコストの浪費を生み出し、プロジェクト全体の進行を数年単位で遅らせている可能性があります。

解決策の選定:AlphaFold以降の生成AIモデル導入と「予測信頼性」の検証

直面していた課題:ターゲットタンパク質の構造決定における「数年の壁」 - Section Image

この「数年の壁」を突破するために、最新のAI技術の導入が検討されます。ここで重要なのは、単に有名なツールを入れることではなく、創薬プロセスに合致した「使える」機械学習モデルを選定することです。

なぜ従来のホモロジーモデリングでは不十分だったか

これまでも、類似のタンパク質構造を鋳型として予測する「ホモロジーモデリング」という手法は存在しました。しかし、新規性の高いターゲットには、適切な鋳型(テンプレート)が存在しないケースが多く、精度が出ません。

そこで注目されているのが、AlphaFold2に代表される深層学習ベースの構造予測技術です。これらは、アミノ酸配列の共進化情報(MSA)を学習することで、鋳型がない場合でも驚異的な精度で立体構造を予測します。さらに、単なる構造予測にとどまらず、最新の「生成AI(Generative AI)」技術、特に拡散モデル(Diffusion Model)を応用したタンパク質設計や、低分子化合物とのドッキングシミュレーションを統合したプラットフォームの構築も進められています。

拡散モデルを用いた新規構造生成の可能性評価

特筆すべきは、画像生成AIで有名になった拡散モデルの創薬応用です。RFdiffusionなどの技術は、ノイズから徐々にタンパク質構造を復元するプロセスを通じて、特定のターゲットに結合するペプチドやタンパク質を「生成」することができます。

ターゲットタンパク質の構造予測にAlphaFold2を用いつつ、その予測構造に対して結合しうる化合物の探索や、結合ポケットの形状変化(Induced Fit)を予測するために、生成AIモデルを組み合わせるアプローチが採用されています。これにより、タンパク質の「静止画」だけでなく、薬剤が結合した時の「動的な変化」までを予測範囲に含めることが期待されています。

導入コストと期待されるROIの試算

経営層へのプレゼンテーションでは、GPUサーバーの構築費やクラウド利用料といった導入コストに対し、期待されるROI(投資対効果)をシビアに試算する必要があるでしょう。

構造決定までの期間を短縮できれば、研究リソースを削減できます。さらに、無駄な合成実験を削減できれば、試薬代と廃棄コスト、そして研究者の時間を大幅にセーブできます。

この「時間というコスト」への言及が、導入の決め手となる可能性があります。オープンソースのモデルをベースにしつつ、社内データをファインチューニング(追加学習)させることで、コストを抑えながら自社特化型のAIを構築することも可能です。

実装プロセス:AI予測を実験計画に落とし込む「Human-in-the-loop」体制

技術選定以上に難航しやすく、かつ重要なのが、このAIシステムを実際の業務フローにどう組み込むかという「実装プロセス」です。AIエンジニアの視点から見ても、ここがAI導入プロジェクトの成否を分ける最大の山場となります。

ドライ(計算)チームとウェット(実験)チームの融合

製薬企業には往々にして「ウェット(実験)至上主義」があり、ドライ(計算)チームはあくまで実験の補助と見なされる傾向があります。逆にドライ側も、実験データのばらつきや曖昧さを嫌い、理想的なデータばかりを求めがちです。この両者の溝を埋めることが最初のステップです。

物理的にも心理的にも両チームを融合させるタスクフォースを結成することが有効です。AIエンジニアが実験室に入り込んでピペット操作を見学し、逆に実験研究者がPC画面を見ながらAIのパラメータ設定について議論する時間を設ける。「相手の言葉で話す」ことが相互理解への第一歩です。

AI予測結果を実験で即時検証するサイクルの構築

次に構築するのは、AIの予測結果を即座に実験で検証するワークフローです。従来は、計算チームが数ヶ月かけて解析した結果をまとめて報告していましたが、これでは遅すぎます。

「週次サイクル」を導入し、

  1. 月曜: AIが有望な化合物リストと結合構造モデルを提示。
  2. 火〜木曜: ウェットチームがその中から優先順位の高いものを迅速に評価(SPRや熱シフトアッセイなど簡易的な手法も活用)。
  3. 金曜: 実験結果(成功も失敗も含む)をデータ化し、AIモデルへフィードバック。

といったスピード感を実現するためには、実験計画自体を柔軟に変更する必要があります。完璧なデータを求めて時間をかけるより、AIの学習に必要な「傾向」を掴むためのデータを素早く出すことに重点を置きます。

失敗データのAIへのフィードバックループ

ここで最も重要なのが「失敗データ(Negative Data)」の扱いです。通常、論文や特許には成功したデータしか載りません。しかし、機械学習モデルにとっては「結合しなかった」「活性が出なかった」というデータこそが、予測精度を高めるための貴重な情報となります。

実験ノートや過去のレポートには、日の目を見なかった失敗データが大量に眠っている可能性があります。これらを掘り起こし、構造化してデータベース化します。そして、新たに生成される失敗データも漏らさずAIに学習させる仕組みを作ります。これが、いわゆる「アクティブラーニング(能動学習)」の実装です。AIは失敗から学び、次回の予測では同じ轍を踏まないようになります。

障壁と突破:「AIは信じられない」という現場研究者の抵抗をどう解消したか

実装プロセス:AI予測を実験計画に落とし込む「Human-in-the-loop」体制 - Section Image

プロセスは整いましたが、人間の感情はそう簡単には変わりません。導入初期、現場からは反発があるかもしれません。

熟練研究者の直感 vs AIの提案

「この構造予測、ありえないよ。私の経験上、ここのループ構造はもっと柔軟なはずだ」。ベテランの研究者は、AIが弾き出した構造モデルを見てそう言うかもしれません。実際、初期のモデルは物理化学的に不安定な構造を出力することもあり、「やっぱりAIなんて使えない」という空気が流れることもあります。

また、有機合成化学者たちからは「AIが提案する化合物は合成難易度を無視している」「こんな構造、フラスコの中で作れるわけがない」という意見が出るかもしれません。AIは「結合親和性」は最大化しようとしますが、「合成しやすさ(Synthesizability)」までは十分に考慮できていない場合があるからです。

初期の予測失敗と信頼回復までの道のり

研究者の意見を否定せず、むしろその「違和感」を言語化してもらうよう促します。「なぜおかしいと思うのか?」「どこが修正されれば納得できるか?」。研究者の知識こそが、AIを修正するための教師データになります。

同時に、合成化学者チームとは、AIの報酬関数(評価指標)に「合成容易性スコア(SAscore)」を組み込む調整を行います。AIエンジニアだけでパラメータをいじるのではなく、現場の研究者と一緒に「AIを育てる」というスタンスを徹底します。

「AIは研究者の代替ではなく拡張」という意識改革

実務の現場において潮目が変わるきっかけとしてよく見られるのが、難解なターゲットに対するアプローチです。例えば、熟練の研究者たちが狙っていた部位とは全く異なる場所、いわゆるアロステリックサイト(別の結合部位)に、AIが高い確率で結合する化合物を提案してくるケースがあります。

当初は誰もが疑うものの、実験によって強い結合活性が確認されることがあります。これは人間のバイアス(先入観)が見落としていた可能性を、AIが拾い上げた瞬間と言えます。

「AIは我々の仕事を奪うものではなく、我々の目が届かない場所を照らしてくれる懐中電灯のようなものだ」という意見も出ており、組織の壁が崩れ、現場は「AIをどう使い倒してやろうか」という前向きな姿勢に変わっていくと考えられます。

成果と効果測定:候補化合物特定までのリードタイム短縮

障壁と突破:「AIは信じられない」という現場研究者の抵抗をどう解消したか - Section Image 3

組織の変革は、やがて数字としての成果を生み出します。プロジェクト開始から1年半後、驚くべき結果を目の当たりにするかもしれません。

【定量成果】開発期間短縮と実験コスト削減の実数値

最も顕著なのは、ターゲット決定からリード化合物(薬の種)を特定するまでの期間です。従来、平均して約2.5年(30ヶ月)を要していたこのフェーズが、AI活用プロジェクトでは短縮される可能性があります。

  • 合成・評価サイクル数: 従来平均15回 → 減少
  • 合成化合物数: 従来約2,000個 → 減少
  • ヒット率(一次スクリーニング): 従来0.5%以下 → 向上

無駄な合成を減らし、確度の高い化合物にリソースを集中できたことで、試薬コストや外部委託費も含めてコスト削減も期待できます。

【定性変化】研究者の考察時間の増加と新たなアイデア創出

数字以上に重要なのは、研究者たちの働き方の変化です。以前は実験の手順書作成やデータの整理に追われていた時間が、AIによる業務自動化と効率化によって解放されます。その分、彼らは「なぜこの化合物が効くのか?」「次はどんなメカニズムを狙うか?」といった、より高次な科学的考察に時間を使えるようになります。

AIが提示する「突飛な」アイデアをきっかけに、研究者同士のディスカッションが活発化し、従来のアプローチでは生まれなかった新規骨格のアイデアが次々と出るようになるかもしれません。これは、特許出願の質とスピード向上にもつながります。

担当者からのアドバイス:これからAI創薬に挑む企業への提言

最後に、一般的なAI導入の知見から得られる教訓を、これからAI創薬、特に構造予測や生成AIの導入を検討されている企業の皆様へお伝えします。

「魔法の杖」ではないことを理解する

まず強調したいのは、AIは決して「魔法の杖」ではないということです。「データを放り込めば、明日には新薬が見つかる」などという幻想は捨てるべきです。AIが出す答えはあくまで確率的な予測であり、間違いも多々あります。重要なのは、その不確実性を理解した上で、いかに実験で検証し、補正していくかというプロセス設計です。

データ基盤整備への投資を惜しまない

「Garbage In, Garbage Out(ゴミを入れればゴミが出てくる)」はAIの鉄則です。どんなに高性能な生成AIモデルを導入しても、学習させる社内データが整理されていなければ機能しません。実験ノートの手書きデータをデジタル化する、化合物IDの命名規則を統一する、失敗データも捨てずに保存する。こういった地味なデータ基盤整備(データガバナンス)こそが、最もリターンを生む投資です。

異分野人材の協働を促進する評価制度

そして何より、人と組織です。ウェットの研究者がドライの技術を学び、ドライのエンジニアが生物学を理解する。そういった「越境」する人材を正当に評価する人事制度が必要です。部門横断プロジェクトへの貢献度を評価項目に加えることで、縦割り組織の弊害を打破することも有効です。

AI創薬の成功の鍵は、アルゴリズムの優劣よりも、それを使いこなす「人間」と「チームワーク」にあります。もし、自社の創薬プロセスに限界を感じているのであれば、まずは小さなプロジェクトからで構いません。AIという新たなパートナーを実験室に招き入れてみてはいかがでしょうか。

「AI予測は実験室で通用するのか?」現場の懐疑論を乗り越え、リード化合物特定を劇的に加速させた組織変革の実録 - Conclusion Image

コメント

コメントは1週間で消えます
コメントを読み込み中...