
オープンデータ
イベント
マガジン
技術ブログ
G-gen の佐々木です。当記事では、Google Cloud Next '26 で発表された BigQuery に関する新機能について、公式の投稿記事「 What’s new in BigQuery: Powering the Agentic Era 」の内容をもとに紹介します。 はじめに Open, cross-cloud lakehouse Managed Iceberg Tables(GA) Iceberg REST Catalog の読み書き相互運用性(Preview) Cross-Cloud Lakehouse(Preview) Catalog Federation(Preview) リアルタイムデータレプリケーション(GA / Preview) Graph-based reasoning for enterprise agents BigQuery Graph(Preview) BigQuery Graph におけるメジャーのネイティブサポート(Preview) BigQuery Conversational Analytics におけるグラフサポート(Preview) BigQuery Graph と Looker の統合(Preview) BigQuery Studio での視覚的なモデリング機能(Preview) Native AI processing to unlock structured and unstructured data AI.PARSE_DOCUMENT(Preview) TabularFM(Preview) ObjectRef(GA) AI 連携関数の最適化モード(Preview) BigQuery ネイティブの Gemma エンベディング(Preview) 自律型エンベディング生成(GA) BigQuery Hybrid Search(Preview) Python UDF(GA / Preview) コネクテッドシートにおける TimesFM モデルの利用(GA / Preview) Geospatial Analytics Datasets(Preview) Agentic experiences BigQuery における Conversational Analytics(GA / Preview) Proactive Agentic Workflows(Preview) BigQuery Agent Analytics(GA / Preview) BigQuery Studio の新機能群(GA / Preview) データサイエンスエージェント(GA) Colab Data Apps(Preview) BigQuery Remote MCP Server(GA) BigQuery ADK Toolset(GA) Google Cloud Data Agent Kit(Preview) Unparalleled performance and scale Fluid Scaling(GA) 高度なランタイム、小規模クエリ、履歴ベースの最適化(GA) 新しいワークロード管理機能(GA / Preview) 可観測性の向上(GA / Preview) はじめに 以下の Google 公式投稿を参考に、Google Cloud Next '26 で発表された BigQuery の新機能を紹介します。なお、当記事で紹介する機能の提供ステータス(GA / Preview / Coming Soon)は 2026年4月23日現在の情報です。 参考 : What’s new in BigQuery: Powering the Agentic Era 他の Google Cloud Next '26 の関連記事は、Google Cloud Next '26 カテゴリの記事一覧から参照してください。 blog.g-gen.co.jp Open, cross-cloud lakehouse Managed Iceberg Tables(GA) Google Cloud Lakehouse (旧称 : BigLake )は、 Apache Iceberg などのオープンテーブル形式と Google Cloud のマネージドストレージを組み合わせた、オープンデータレイクハウス向けのストレージエンジンです。 Google Cloud Lakehouse における Managed Iceberg Tables は、OSS である Apache Iceberg のマルチエンジン互換性と BigQuery の高度な機能を組み合わせたマネージドな Iceberg テーブルで、自動テーブル管理、Iceberg パーティショニング、マルチテーブルトランザクション、変更データキャプチャ(CDC)、強化されたベクトル化(Enhanced Vectorization)、履歴ベースの最適化(History-based Optimizations)を提供します。 参考 : Google Cloud Lakehouse とは 参考 : Apache Iceberg テーブル Iceberg REST Catalog の読み書き相互運用性(Preview) Iceberg REST Catalog は、BigQuery、Spark、その他 OSS / サードパーティエンジンの間で Iceberg テーブルを共有するためのカタログです。 カタログ上での Iceberg テーブルに対する 読み書きの相互運用性 (Read/Write Interoperability)により、複数の Iceberg 互換エンジン(Apache Spark、Trino など)から Iceberg テーブルを作成 / 更新 / クエリできるようになります。 参考 : Openness without compromises for your Apache Iceberg lakehouse Cross-Cloud Lakehouse(Preview) Cross-Cloud Lakehouse は、AWS や Azure など Google Cloud 以外のクラウド上のデータに対して、データ移行や ETL を行うことなく BigQuery の分析機能や AI 機能をそのまま適用できる機能です。たとえば、Amazon S3 Iceberg 上のデータに対して Gemini Enterprise のエージェントや BigQuery の AI 関数などを実行できます。 Iceberg REST Catalog によるオープンスタンダードなテーブル共有と、 Cross-Cloud Interconnect によるクラウド間の高帯域幅ネットワークを組み合わせることで実現されています。 参考 : クロスクラウド レイクハウスについて 参考 : The future of data lakehouse: Open and interoperable for the agentic era 基盤技術である Cross-Cloud Interconnect については以下の記事をご一読ください。 blog.g-gen.co.jp Catalog Federation(Preview) Catalog Federation は、外部のメタデータカタログを BigQuery 側でフェデレーションする機能です。 AWS Glue、Databricks、SAP、Salesforce、Snowflake のカタログに対応しており、Confluent Tableflow についても2026年後半に提供予定です。データの発見、分析、ゼロコピー共有を、複数のカタログをまたいで実現できます。 リアルタイムデータレプリケーション(GA / Preview) Spanner 、 AlloyDB 、 Cloud SQL から BigQuery へのリアルタイムレプリケーション(GA)と、Iceberg テーブルへのレプリケーション(Preview)が提供されます。これにより、データベースの変更をリアルタイムに分析基盤側へ反映でき、レプリケーションパイプラインを別途整備する必要がなくなります。 Graph-based reasoning for enterprise agents BigQuery Graph(Preview) BigQuery Graph は、BigQuery 上でデータをグラフとしてモデル化 / 分析 / 可視化できるグラフ分析機能です。SQL の CREATE PROPERTY GRAPH 文で既存の BigQuery テーブルに対してエンティティ(ノード)と関係性(エッジ)を直接定義でき、データの移動や重複を伴わずにグラフ分析を行えます。 従来の SQL では「友達の友達の友達」のような多段階の関係性分析に複数の JOIN を入れ子にする必要があり、SQL の記述・読解が難しいうえ、データ規模が大きくなるとパフォーマンスが急激に低下する点が課題でした。グラフ分析では、データをノードとエッジの集合としてモデル化することで、こうした多段階の関係性を直感的に記述でき、深い探索もスケーラブルに実行できます。 BigQuery Graph はこうしたグラフ分析を BigQuery 上でネイティブに実行できる基盤として、不正検知、Customer 360、サプライチェーン分析、ソーシャルネットワーク分析などのユースケースに対応します。 参考 : BigQuery Graph の概要 参考 : BigQuery Graph のご紹介 : データに潜む関係性を明らかに BigQuery Graph におけるメジャーのネイティブサポート(Preview) メジャー (売上や解約率といった集計値を再利用可能な形で定義したもの)が BigQuery Graph 上でネイティブサポートされるようになりました。 これにより、メジャーとエンティティ間のリレーションシップを1つのガバナンスされた定義に統合でき、AI エージェントは単なる検索や集計に留まらず、あるビジネスイベントが他の指標にもたらす影響をマルチホップで辿るような構造的推論を行えるようになります。 参考 : メジャーを使用する BigQuery Conversational Analytics におけるグラフサポート(Preview) 自然言語データ分析の Conversational Analytics が BigQuery Graph と連携できるようになりました。会話分析エージェントが生テーブルではなくグラフ上のエンティティと関係を辿って推論するため、回答の精度が向上します。メジャーを用いて正確な KPI を計算すると同時に、関係性を辿ることで「なぜその数字になっているか」を発見できます。 BigQuery における Conversational Analytics の詳細については、以下の記事をご一読ください。 blog.g-gen.co.jp BigQuery Graph と Looker の統合(Preview) BigQuery Graph と Looker の統合により、BigQuery Graph をそのまま Looker のビューとして公開でき、定義した指標をデータスタック全体で再利用できます。 逆方向のユースケースとして、Looker 側で BigQuery Graph を定義することもできます。これにより、Looker が標準で備えるバージョン管理(Git 連携)や検証機能を、グラフ定義の変更管理にそのまま適用できます。 BigQuery Studio での視覚的なモデリング機能(Preview) BigQuery Studio 上で、BigQuery Graph のエンティティ、リレーションシップ、ビジネスロジックを視覚的に構築 / 管理できる新しいインターフェースが追加されました。グラフスキーマの設計を SQL の CREATE PROPERTY GRAPH 文だけでなく UI 上からも進めることができます。 Native AI processing to unlock structured and unstructured data AI.PARSE_DOCUMENT(Preview) マネージド AI 関数の1つである AI.PARSE_DOCUMENT は、OCR(光学文字認識)、レイアウト解析、チャンク分割を自動化する SQL 関数です。複雑なドキュメント処理ワークフローを別途のパイプラインを構築せずに簡素化でき、非構造化ドキュメントの取り込みを SQL で完結できます。 TabularFM(Preview) TabularFM は、表形式データに対する高品質な回帰・分類機能を提供する基盤モデルです。事前学習済みのモデルとして提供されるため、特徴量選択、チューニング、モデルトレーニング、デプロイ後のモデル管理といった工程を経ずに、SQL から直接呼び出して予測結果を得られます。 従来の BigQuery ML では、表形式データに対する分類・回帰モデルをユースケースごとに用意する必要があり、本格的に運用するまでに一定のセットアップコストがかかっていました。TabularFM はこれを共通の基盤モデルに置き換え、典型的な分類・回帰タスクをモデル開発の工程を踏まずに試せるようにします。 ObjectRef(GA) ObjectRef 値 は、SQL や Python から非構造化データと構造化データを並行して扱うための値です。以下のフィールドを持つ STRUCT として表現されます。 フィールド 型 モード 説明 uri STRING REQUIRED Cloud Storage オブジェクトの URI version STRING NULLABLE オブジェクトのバージョン authorizer STRING NULLABLE 委任アクセス用の BigQuery 接続 ID。直接アクセスの場合は NULL details JSON NULLABLE オブジェクトのメタデータや処理時のエラー情報などが入る ObjectRef 値を操作するための SQL 関数として、以下の4種類がサポートされています。 関数 用途 OBJ.FETCH_METADATA URI のみが埋まった ObjectRef 値に Cloud Storage 上のメタデータを取り込み、完全な ObjectRef 値を返す OBJ.GET_ACCESS_URL ObjectRef が指す Cloud Storage オブジェクトへのアクセス URL(読み取り / 読み書き)を JSON 値で返す(委任アクセスが必要) OBJ.GET_READ_URL ObjectRef が指す Cloud Storage オブジェクトの読み取り用 URL を STRUCT( url 、 status )で返す(URL は45分で失効、委任アクセスが必要) OBJ.MAKE_REF Cloud Storage URI などから ObjectRef 値を生成する 参考 : ObjectRef functions 参考 : ObjectRef 値を操作する AI 連携関数の最適化モード(Preview) Optimized Mode により、 AI.CLASSIFY や AI.IF などの SQL から呼び出せる AI 関数で、タスク固有のモデルをクエリ実行時に動的にトレーニングして利用できます。これにより、従来の行単位でモデルを呼び出す場合と比較して、トークン消費量を230分の1に削減できます。 BigQuery ネイティブの Gemma エンベディング(Preview) Gemma ベースの組み込みテキストエンベディングモデル embeddinggemma-300m が、 AI.EMBED 関数および AI.SIMILARITY 関数で利用できるようになりました。エンベディング生成には BigQuery のスロットがそのまま使われるため、GPU 環境を別途用意することなく、検索や RAG 向けのエンベディングパイプラインを構築できます。 参考 : The AI.EMBED function 参考 : The AI.SIMILARITY function 自律型エンベディング生成(GA) Autonomous Embedding Generation (自律型エンベディング生成)は、テーブルのテキスト列(STRING 列)から生成するベクトルエンベディングをフルマネージドで維持する機能です。エンベディングモデルが生成したベクトルを自動メンテナンスし、ソース列のデータが追加・更新されるたびに自動で再生成されます。これにより、煩雑になりがちなエンベディング作成・更新ジョブの運用を簡素化できます。 参考 : 自律型エンベディング生成 BigQuery Hybrid Search(Preview) BigQuery Hybrid Search はセマンティック検索と全文検索を単一の関数に統合する検索機能で、RAG や複雑な探索系ユースケースにおいて、単独の検索よりも高い精度を実現します。 Python UDF(GA / Preview) Python UDF は、Python で独自実装したスカラー関数を BigQuery で利用する機能です。データの拡張・変換・クリーニングなどが行え、コンテナを用いたサーバーレス実行環境により数百万行規模まで自動スケールします。 以下の機能が新たに Preview 提供となり、Python UDF は今後数週間にわたって段階的に GA となる見込みです。 Apache Arrow の RecordBatch インターフェースを使ったベクトル化 Python UDF を作成でき、行単位の呼び出しと比べてパフォーマンスを改善できる CPU 使用率、メモリ使用率、インスタンスごとの最大同時リクエスト数などのメトリクスを Cloud Monitoring にエクスポートできる CREATE FUNCTION 文に追加された container_request_concurrency オプションで、Python UDF のコンテナインスタンスごとの最大同時リクエスト数を制御できる イメージストレージのバイト数(プロジェクト・リージョンごとに 10 GiB)とミューテーションレート(プロジェクト・リージョンごとに1分あたり30回)の新しいクォータが適用される INFORMATION_SCHEMA.JOBS ビューの external_service_costs 列、および Job API の ExternalServiceCosts フィールドから Python UDF のコストを確認できる 参考 : Python のユーザー定義関数 コネクテッドシートにおける TimesFM モデルの利用(GA / Preview) コネクテッドシート は、BigQuery のスケールを Google スプレッドシート上で利用できる機能です。アップデートにより、組み込みの時系列予測モデル TimesFM を使った予測(GA)と異常検知(Preview)に対応し、業務担当者がスプレッドシートから大規模データに対する予測や異常検知を行えるようになります。 参考 : コネクテッド シートの使用 参考 : TimesFM モデル コネクテッドシートの利用方法については、以下の記事をご一読ください。 blog.g-gen.co.jp Geospatial Analytics Datasets(Preview) Geospatial Analytics Datasets は、 Google Maps Platform 由来のデータセットと Earth Engine のラスターデータおよび解析機能を BigQuery 上で直接扱えるようにする機能です。地理空間データの取得・前処理を自前で組まなくても、BigQuery の他のデータセットと同じ感覚で参照できます。 提供されるデータセットは以下の4種類です。 データセット 内容 Imagery Insights ストリートビューの画像 Places Insights Google マップ上のビジネス / スポットの集約データ Roads Management Insights 道路ネットワークの交通流・混雑状況 Earth Engine in BigQuery Earth Engine の衛星画像・ラスターデータと解析機能 参考 : Power up your BigQuery analysis with Google's new geospatial datasets Agentic experiences BigQuery における Conversational Analytics(GA / Preview) BigQuery の Conversational Analytics (対話型分析)は、自然言語を用いて BigQuery 上のデータに対する質問を生成 AI に投げかけ、分析を行うことができる機能です。予測分析や、構造化・非構造化データを横断した推論もサポートします。 BigQuery Studio および API 経由での利用は GA、データポータル(英名 : Data Studio、旧称 : Looker Studio)および Gemini Enterprise からの利用は Preview 提供となっています。 参考 : BigQuery の会話型分析 BigQuery の対話型分析機能の詳細については、以下の記事をご一読ください。 blog.g-gen.co.jp Proactive Agentic Workflows(Preview) Proactive Agentic Workflows は、エージェントが単なる対話型の質問応答を超えてプロアクティブに動作する機能です。指標の変化を検知して根本原因分析を行い、定期的な調査レポートをメールで直接配信するといったユースケースに対応します。 BigQuery Agent Analytics(GA / Preview) BigQuery Agent Analytics は、AI エージェントのアクティビティ(イベント)を BigQuery に記録し、分析できるようにする機能です。エージェントのトラブルシューティング、最適化、定量評価に活用できます。 エージェント向けのプラグインとして、 Agent Development Kit (ADK)向けのプラグインは GA、 LangGraph 向けのプラグインは Preview として提供されています。 BigQuery に記録されるイベントの種類は、以下のようなものがあります。 イベントの種類 内容 LLM interactions LLM へのプロンプト、モデル出力、エラーに関するイベント トークン使用量、生成にかかった時間なども記録される Tool usage ツール呼び出しの開始、完了、エラーに関するイベント ツールの呼び出し元( tool_origin )も記録される State Management エージェントの内部状態の変更に関するイベント Agent lifecycle & Generic Events エージェントの起動、実行完了、ユーザー入力の受信などのイベント Human-in-the-Loop (HITL) Events ユーザー認証情報の要求、ユーザーへの確認要求、ユーザーからの入力要求などの割り込みイベント 参考 : Use BigQuery agent analytics 以下の記事では、BigQuery Agent Analytics の ADK 向けプラグインの使い方を紹介しています。 blog.g-gen.co.jp BigQuery Studio の新機能群(GA / Preview) BigQuery Studio は BigQuery の各種機能を Google Cloud コンソールに統合した BigQuery 向けのワークスペースです。今回のアップデートで複数の機能が追加されました。 機能 ステータス 内容 コンテキスト認識型アシスタント Preview リソース探索やトラブルシューティングを支援 SQL Cells GA SQL と DataFrames を統合 Visualization Cells GA ノートブック内で直接ビジュアルを作成 Files Explorer GA フォルダ形式でコード資産を整理・共有・管理 Git Integration and Workflows Preview GitHub、GitLab、Bitbucket、Azure DevOps に対応した Git 連携 参考 : BigQuery 分析の概要 - BigQuery Studio データサイエンスエージェント(GA) データサイエンスエージェント (Data Science Agent)は、Colab Enterprise ノートブック上で動作する AI エージェントです。自然言語で目標を述べるだけで実行計画を自動生成し、データのロード、クリーニング、ビジュアライゼーションを自動で進めます。内部的には BigQuery ML、DataFrames、Spark を組み合わせて利用しています。 Colab Enterprise のほか、BigQuery Studio 上で Colab Enterprise ノートブックを開くことでも、データサイエンスエージェントを利用することができます。 参考 : BigQuery で Colab Enterprise データ サイエンス エージェントを使用する データサイエンスエージェントの詳細については、以下の記事をご一読ください。 blog.g-gen.co.jp Colab Data Apps(Preview) Colab Data Apps は、BigQuery Studio のノートブックで作成したデータ分析を、Python 製のインタラクティブアプリに変換できる機能です。アプリは BigQuery のスロットを使用してフルマネージドな環境で実行されます。 アプリの公開・共有はデータポータル側で行い、エンドユーザーはコードを編集することなく、UI 上で日付範囲やフィルタなどのパラメータを変更してデータを操作できます。 参考 : BigQuery とデータポータルで Colab Data Apps を使用する BigQuery Remote MCP Server(GA) BigQuery Remote MCP Server は、 Model Context Protocol (MCP)対応のリモートサーバーをマネージドで提供するものであり、AI エージェントが MCP を介して BigQuery を操作できるようになります。 参考 : Use the BigQuery MCP server Google Cloud が提供している MCP サーバーについては、以下の記事をご一読ください。 blog.g-gen.co.jp BigQuery ADK Toolset(GA) BigQuery ADK Toolset は、Agent Development Kit(ADK)を用いて構築したエージェントが BigQuery 上のデータを閲覧・操作するためのツールセットです。 参考 : BigQuery tool for ADK Google Cloud Data Agent Kit(Preview) Google Cloud Data Agent Kit は、IDE、ノートブック、ターミナルといった開発環境を問わずに利用可能な、エージェントによるデータ活用を支援する一連の機能を提供するスイートです。VS Code 拡張機能、MCP サーバー、Gemini CLI / Codex / Claude Code 向けのスターターパックといった複数の形態で提供されます。 エージェントは BigQuery、AlloyDB、Cloud SQL(MySQL / PostgreSQL)、Spanner、Cloud Storage などの Google Cloud 上のデータソースに接続し、以下のような作業を支援します。 Python や SQL でのクエリ実行、および自然言語による問い合わせを介したデータの検出・探索 Managed Service for Apache Spark や BigQuery でのデータエンジニアリングパイプラインの構築・テスト・デプロイ データの探索・クリーンアップから ML モデルの学習・デプロイまでを行う AI / ML 開発 組み込みの AI スキルやツールを使った反復的なタスクの自動化 参考 : VS Code 用 Data Agent Kit 拡張機能の概要 参考 : Data Agent Kit Starter Pack(GitHub) Unparalleled performance and scale Fluid Scaling(GA) Fluid Scaling は、変動の大きいワークロードに対して、コストとパフォーマンスのトレードオフを必要としない BigQuery 向けのオートスケーリング機能です。秒単位課金により細かい粒度でスケールでき、最大34%のコスト削減が可能です。 高度なランタイム、小規模クエリ、履歴ベースの最適化(GA) BigQuery のクエリエンジンに、 高度なランタイム 、 小規模クエリの最適化 、 履歴ベースの最適化 が適用されました。これらは BigQuery ネイティブテーブルと Iceberg テーブルの双方のワークロードに対して、コードやスキーマの変更なしに自動で適用されます。これにより、前年比でクエリ速度を35%向上させつつ、クエリ処理コストを40%削減しています。 新しいワークロード管理機能(GA / Preview) reservation groups (GA)、 flexible dynamic assignments (Preview)、 プロジェクトレベルのスロット / 同時実行制御 (Preview)といった新しいワークロード管理機能が追加され、きめ細かなコスト配分と価格性能比の制御ができるようになりました。さらに、 宣言型・ルールベースのワークロード管理 (Preview)により、これらの管理を簡素化できます。 可観測性の向上(GA / Preview) ミッションクリティカルなワークロード向けに、 Enhanced Observability (GA)、 Intersection Routing (Preview)、 Agent-Ready Security Center (Preview)といった可観測性・ディザスタリカバリ・セキュリティ関連の機能が追加・強化されました。さらに、 Agent-Powered Observability (Preview)により、AI エージェントによるターンキーなトラブルシューティングで運用を簡素化できます。 佐々木 駿太 (記事一覧) G-gen 最北端、北海道在住のクラウドソリューション部エンジニア 2022年6月に G-gen にジョイン。Google Cloud Partner Top Engineer に選出(2024 / 2025 Fellow / 2026)。好きな Google Cloud プロダクトは Cloud Run。 趣味はコーヒー、小説(SF、ミステリ)、カラオケなど。 Follow @sasashun0805
本記事は、大学・研究機関の研究者、R&Dディレクター、ラボマネージャー、そして研究のデジタル化やAI活用を検討されている科学技術系のリーダーの方々に向けて書かれています。 文部科学省は 2026 年 4 月、「 AI for Scienceによる科学研究革新プログラム ( SPReAD ) 」の公募を開始しました。本事業は、あらゆる分野の研究者がAIを活用して科学研究の高度化・加速化を図れるよう、萌芽的・探索的な研究を支援するものです。1 課題あたり 500 万円以下の補助で計 1,000 件程度の採択が予定されており、計算資源やデータ整備、 API 利用料なども対象経費に含まれます。 AWS のクラウドサービスは、こうした研究に必要な計算基盤や AI サービスを柔軟に提供できる環境として、多くの研究者に活用されています。 AI for Science は将来的な可能性ではなく、すでに研究現場での活用が進みつつあるテーマとなっています。本記事では、各研究領域で具体的に何が起きているのかをユースケース中心にお伝えし、ご自身の研究に AI をどう取り入れるかを考えるきっかけとしていただければ幸いです。 1. タンパク質構造予測がノーベル賞を受賞した意味 〜 研究の現場で起きていること 2024 年、 AI を活用したタンパク質研究にノーベル化学賞が授与されました。AI モデルによるタンパク質の立体構造予測 – 分子生物学において「 50 年来の夢」と呼ばれてきた課題を、AIが解き明かしたのです。この出来事が示しているのは、AI が研究の効率化ツールにとどまらないということです。AI は、人間の研究者が数十年かけても到達できなかった科学的発見を、まったく新しいアプローチで実現する力を持っています。そしてこの力は、創薬、材料科学、ゲノミクス、気候科学、素粒子物理学といったあらゆる科学領域に広がり始めています。 すなわち、AI for Science が「使える技術」になったと考えています。背景として、3つの潮流があると考えています。 ひとつは、AI 自体の成熟です。基盤モデル、マルチモーダル学習 ( 画像、音、テキストなど異なる種類の情報をまとめて扱った学習 / モデル開発 ) 、エージェント AI などが、研究の現場で実用に耐えるレベルに達しました。2つ目は、フィジカル AI の台頭です。ロボットやセンサーに組み込まれた知能が、実験室の中で自律的に動作するようになりました。そして、3つ目ですが、クラウドコンピューティングの普及です。大規模なデータ処理、柔軟に拡張できる GPU 環境、国境を越えた共同研究基盤が、個々の研究室でも手の届くものになりました。 これら、6つの領域から事例をご紹介したいと思います。 1-1. 創薬:分子設計から臨床試験まで、パイプライン全体が変わる 創薬研究は、AI の恩恵を最も早く、最も深く受けている領域のひとつです。生成モデルを使った新規分子設計 ( de novo分子設計 ) では、特定の標的に最適化された新しい分子構造の候補を数時間で数千個生成できるようになりました。従来、化学者が経験と直感に頼って行っていた作業を、AIが広大な化学空間の中から最適解を探索する形で補っています。薬の体内での吸収・分布・代謝・排泄・毒性 ( ADMET )をパイプラインの早い段階で予測することで、後期臨床試験での失敗——最もコストのかかる失敗——を未然に防ぐアプローチも広がっています。 AI によるタンパク質と薬剤候補の結合予測は、両者がどれだけ強く結びつくかを高い精度で予測し、コンピュータ上で数十億の化合物を評価できます。実験室のリソースを、本当に有望な候補に集中させることが可能になるのです。 1-2. ゲノミクス:生命の設計図を読み解く ゲノミクス分野では、ディープラーニングによる遺伝子配列の解析が、変異の特定やパターン認識を大幅に加速しています。AlphaFold に代表されるタンパク質構造予測モデルは、アミノ酸の配列情報から立体構造を予測し、構造に基づく創薬設計の新たな道を切り拓きました。 注目すべきは、複数の生体データを統合する「マルチオミクス」の進展です。遺伝子、RNA、タンパク質、代謝物のデータを組み合わせて解析することで、病気のメカニズムの全体像を捉えることが可能になりつつあります。個人の遺伝子情報に基づくオーダーメイド医療の構築も、概念実証の段階を超え、実用化に向けて動き出しています ( 出典: AWS ゲノミクスソリューション ) 。 1-3. 材料科学:試行錯誤から、AI による逆設計へ 新材料の発見は、従来の試行錯誤では膨大な時間とコストを要しました。AI はこのプロセスを根本から変えつつあります。広大な化学空間を効率的に探索し、安定性や効率性に優れた新材料の候補を見つけ出す。硬さ、導電性といった材料の性質を機械学習モデルで予測する。さらに、「こういう性質を持つ材料が欲しい」という要求から逆算して材料を設計する「逆設計」も実現しつつあります。 AI とロボティクスを組み合わせた自律実験室では、材料の合成から性能評価までを 24 時間体制で自動化し、実験にかかる時間を桁違いに短縮しています。 1-4. 化学:合成経路の自動設計と自律実験 化学の分野では、ディープラーニングが反応の結果、収率、条件の予測を高い精度で実現しています。複雑な分子の合成経路を自動設計する AI は、数百万の候補ステップの中から最も効率的なルートを見つけ出し、危険な中間体を避けながらコストと収率を最適化します。 産業向けの新しい触媒の設計も加速しており、AI モデルとロボットを組み合わせた自律実験室では、実験の設計から実行、結果の評価、次の実験計画までを人手を介さずに行えるようになっています。 1-5. 気候科学:地球規模の課題に AI で挑む 気候変動への対応は、科学研究の中でも最も緊急性の高いテーマです。AI技術による高解像度の気候モデルは、地球全体の気候予測を地域レベルに落とし込み、地域ごとの適応策の立案を支援します。衛星やセンサーのデータをディープラーニングで分析する極端気象の予測は、従来より早い段階で、より高い精度で警報を出せるようになっています。 CO2 の回収・貯留 ( CCS )では、AIが吸着材の設計や貯留場所のシミュレーションを最適化し、エネルギー消費の低減に貢献しています。大量の衛星画像をほぼリアルタイムで分析する技術は、森林破壊の監視、生物多様性の追跡、カーボンオフセットの検証といった用途に活用されています (出典: AWS 地球観測 ) 。 1-6. 物理学:量子シミュレーションから核融合制御まで 物理学の最前線でも、AIは欠かせない存在になりつつあります。AI を活用した量子シミュレーションは、従来のコンピュータでは困難だった計算のボトルネックを克服し、波動関数の計算や量子状態の予測を高速化しています。LHC などの高エネルギー物理実験では、ディープラーニングが膨大な衝突データから珍しい粒子の反応をリアルタイムで選び出しています。 特に注目されているのが、強化学習によるトカマク型核融合炉の制御です。磁気コイルをリアルタイムで制御してプラズマの安定性を保ち、装置の損傷につながる不安定現象を防止 – 核融合エネルギーの実用化に向けた重要な技術的進展です。 2. AWS を活用して AI for Science を実践している先駆者たちの研究事例 ここでは、AI for Science を実践している 4 つの先進事例を紹介します。それぞれの研究がなぜ重要なのか、そして AI がどのような役割を果たしているのかについて説明したいと思います。 2-1. Genomics England — AI で遺伝子診断の精度を高める なぜ重要か: 希少疾患の患者にとって、正確な遺伝子診断は治療への第一歩です。しかし、一人の患者あたり数百万に及ぶ遺伝子変異を評価し、膨大な科学論文から関連するエビデンスを見つけ出すことは、人間の力だけでは限界があります。 AI の役割: Genomics England は、AWS 上に構築した基盤で機械学習を活用した文献分析を導入しました。その結果、人間のキュレーターが見落としていたエビデンスが発見され、複数の遺伝子が新たに診断レベルに昇格しました。従来は何年もかかったであろう成果が、数か月で実現したのです ( 出典 : Genomics England AWSカスタマーストーリー 、 AWS AIブログ:ゲノミクス変異解釈の加速 ) 。 2-2. Allen Institute for Brain Science — 世界最大の脳地図をつくる なぜ重要か: アルツハイマー病やパーキンソン病といった脳の病気を理解し治療するためには、まず脳そのものの構造を詳細に知る必要があります。Allen Instituteは、人間の脳全体を細胞レベルで地図化するという壮大なプロジェクトに取り組んでいます。 AIの役割: Allen Institute は、AWS 上に「Brain Knowledge Platform ( BKP ) 」を構築しました。高性能コンピューティングと生成AIを組み合わせることで、従来は数週間かかっていたデータ処理パイプラインを1日で実行できるようになり、扱えるデータセットの規模は1,000倍に拡大しました。世界中の 1,000 以上の研究機関がこのプラットフォームを通じてオープンデータにアクセスし、脳科学の発見を加速しています ( 出典: Allen Institute カスタマーストーリー 、 Allen Institute:ヒト脳マッピング 、 Allen Brain Observatory オープンデータセット ) 。 2-3. LILA Sciences — AI が仮説を立て、実験を実行する なぜ重要か: 科学研究のボトルネックのひとつは、仮説の立案から実験の設計・実行までに多くの時間と人手がかかることです。もし AI がこのプロセスを自律的に行えるようになれば、発見のスピードは飛躍的に向上します。 AIの役割: LILA Sciencesは「AI Science Factory」という新しい研究の仕組みを構築しています。AI が自ら仮説を提案し、実験を設計・実行する。大規模な推論処理をAWSの計算基盤上で実行し、発見の規模と速度を大幅に引き上げています。研究者がAIと協働して科学的発見を生み出す——その未来の姿を、今まさに体現しているプロジェクトです ( 出典 : LILA Sciences AWSカスタマーストーリー 、 LILA Sciences 紹介動画 ) 。 2-4. University of Arizona — 「1週間の調査が1回の検索に」 なぜ重要か: 研究者にとって、自分の研究テーマに関連する知見や共同研究の相手を見つけることは、成果を左右する重要な活動です。しかし、膨大な論文や研究者情報の中から適切な情報を探し出すには、多大な時間がかかります。 AIの役割: University of Arizona が開発した「KMap」は、年間 41,000 人以上が利用するAI搭載の研究コラボレーション基盤です。大規模言語モデル ( LLM )が研究者の関心を自動的に把握し、質問に対してエビデンスに基づいた回答を返します。ある研究者は「1週間分の手動調査が1回の検索で済んだ」と語っています。分野を越えた共同研究チームの形成を促すこの仕組みは、AIがもたらすネットワーク効果の好例です ( 出典 : AWS パブリックセクター blog University of Arisona KMap ) 。 3. AWSが支えるAI for Scienceの技術基盤/サービス ここまで紹介してきたユースケースや事例の多くは、AWS のクラウドインフラ上で実現されています。それは、AI for Science が求める「大規模な計算資源」「多様な基盤モデルへのアクセス」「研究データの安全な管理」「グローバルな共同研究基盤」のすべてを、AWS が包括的に提供しているからです。ここでは、前半で紹介した研究領域の具体的な課題と、それを解決する AWS サービスの対応関係を見ていきます。 3-1. 仮説生成・文献レビュー — Amazon Bedrock と基盤モデル 創薬研究者が数百万の論文から新たな標的を探索する、ゲノミクス研究者が複数の生体データの中からパターンを発見する——こうした仮説生成の場面で中核となるのが Amazon Bedrock です。Claude、Llama、Amazon Nova / Titanといった主要基盤モデルに単一のAPIからアクセスでき、サーバーレスで即座に利用を開始できます。Amazon Bedrock は東京リージョン ( ap-northeast-1 ) で利用可能なため、研究データを国内に保持したまま基盤モデルを活用できます。Genomics England が膨大な論文の壁を突破した文献分析も、こうした基盤モデルの推論能力があってこそ実現しました。 さらに、 Amazon SageMaker AI によるファインチューニングや継続的事前学習を通じて、特定の研究領域に特化したモデルを構築することも可能です。たとえば、化学反応の収率予測や材料特性の予測といった専門的な課題では、汎用モデルでは捉えきれない知見を自分たちの実験データで引き出すことが、研究の差別化につながります。 3-2. 実験設計・シミュレーション — HPC と AI コンピュート 材料科学の逆設計、気候モデルの高解像度化、量子シミュレーション、核融合炉のプラズマ制御——これらはいずれも膨大な計算資源を必要とします。AWS TrainiumとInferentia チップによる高性能な学習・推論インフラは、大規模モデルの開発と実行を高速・低コストで支えます。NVIDIA H100 GPU クラスタとElastic Fabric Adapter ( EFA ) による密結合 HPC クラスタは、分子動力学シミュレーションや気候モデリングといった計算集約型の研究に対応します。 Allen Institute が AWS 上で Brain Knowledge Platform を構築し、データ処理を数週間から1日に短縮できたのも、このスケーラブルな HPC インフラがあったからです。LILA Sciences が大規模な推論処理を実行する「AI Science Factory」も、AWS の計算基盤上で稼働しています。 Amazon SageMaker HyperPod を使えば、大規模モデルのゼロからの学習も、インフラ管理の負担なく実行できます。 3-3. 科学文書インテリジェンス — 眠っているデータの活用 研究機関に眠る膨大な非構造化データ——論文、ラボノート、実験記録——を活用するための技術も、AWS の強みです。 Amazon Textract はスキャンされた科学文書からテキスト、手書き文字、表データを自動で読み取り、研究論文特有の複雑なレイアウトにも対応します。 Amazon Comprehend のカスタムエンティティ認識を活用すれば、化学物質名、タンパク質、投与量といった科学用語の認識や関係性の抽出を行えます。 これらを統合的な知識基盤として構築し、 RAG ( 検索拡張生成 ) と組み合わせれば、数百万の文書を横断的に検索し、出典付きのエビデンスに基づいた回答を得ることが可能です。アリゾナ大学の KMap が「1週間分の手動調査を1回の検索に」短縮できたのは、まさにこの RAG の実践例です。 助成金申請の効率化に向けては、AWS とノースカロライナ大学の研究者が共同で開発したプロトタイプ「GROW ( Grant Writing Opportunity Wizard ) 」が注目されています。 Amazon Bedrockのエージェント技術 を活用し、研究者の専門性と利用可能な助成金を自動的にマッチングする仕組みで、GitHubで オープンソースとして公開 されています。研究者が業務時間の42%を費やしているとされる事務作業 ( 出典: FDP Faculty Burden Survey ) の負担を軽減する取り組みとして、今後の発展が期待されます。 3-4. データ基盤 — 研究データを戦略的な資産に AI for Science の成功は、データ基盤の質にかかっています。 Amazon S3 を中核としたストレージ基盤は、ゲノミクスの大規模な配列データから、気候科学の衛星画像、化学の分光データまで、あらゆる研究データを安全かつ柔軟に管理します。 AWS Glue Data Catalog によるデータの整理、 Amazon Athena によるサーバーレスでの検索、 Amazon Quick による可視化まで、一貫した基盤上でデータの価値を引き出せます。 Amazon Quick も東京リージョンで利用可能なため、研究データを国内に保持したまま分析・可視化を行うことができます。 Open Data on AWS では、300PB 以上の公開データセット——1000 Genomes Project、The Cancer Genome Atlas、Landsat 8、SpaceNetなど——に無料でアクセスできます。創薬研究者がゲノムデータベースを参照する、気候科学者が衛星画像を分析する、材料科学者が結晶構造データを探索する——いずれの場面でも、データ取得のコストと時間を削減し、分析そのものに集中できる環境です。 3-5. データセキュリティと知的財産の保護 研究データの保護は、AI for Science において最も重要な課題のひとつです。特に創薬研究における分子構造データや、ゲノミクスにおける患者由来データなど、知的財産や個人情報を含むデータを扱う場面では、セキュリティへの信頼が欠かせません。 ここで明確にしておくべきことがあります。 Amazon Bedrockでは、お客様のデータは基盤モデルの学習に一切使用しません。また、Anthropic等のサードパーティのモデルプロバイダーを利用した場合においても、モデルプロバイダーにデータは共有されません。 データは AWS Key Management Service ( KMS ) による保存時暗号化とTLS 1.2+による転送時暗号化で保護され、 IAM によるきめ細かなアクセス制御が可能です。 AWS PrivateLink を使えば、パブリックインターネットを経由せずにプライベート接続できます。そして、多くのAWSサービスにおいて、国内にデータを保持することが可能です。 3-6. AIの倫理とガバナンス AI for Scienceの推進にあたっては、技術的な能力だけでなく、AIの倫理的な利用とガバナンスの確保も重要です。研究の再現性、データの公正な取り扱い、AIが出す結果の説明可能性——これらは科学研究の信頼性を支える基盤です。 AWSは、制御可能性、プライバシーとセキュリティ、安全性、公平性、正確性と堅牢性、説明可能性、透明性、ガバナンスという8つの観点からなる 責任あるAIフレームワーク を提供しています。 Amazon Bedrock Guardrails による不適切な出力の防止や、 AWS CloudTrail による詳細な操作ログの記録を活用することで、研究の科学的厳密性を守りながらAIを活用するための仕組みが整っています。知的財産の漏洩リスクを心配することなく、安心してAIを研究に取り入れることができます。 4. 始めるなら、今 AI for Science の導入は、大きな投資や大がかりな体制づくりから始める必要はありません。 まず、ご自身の研究の中で、AI が役立ちそうな場面を見つけてください。文献レビューの効率化、繰り返しの多い分析作業の自動化、候補物質の絞り込みの高速化など、AIによって研究が具体的に前進する課題はどこにあるでしょうか。 次に、今の研究環境を振り返ってみましょう。手元のデータは十分に整理されているか、チームにはどのような知識や経験が足りないか。この振り返りが、具体的な計画を立てる出発点になります。 そして、小さく始めてください。8〜12 週間ほどの短期間で、テーマを絞った試験的な取り組み ( PoC )を行い、AI が実際に役立つかどうかを確かめます。AWSのマネージドサービスを活用すれば、インフラの構築や運用にかかる手間を最小限に抑えられます。手応えが得られたら、運用ルールや評価指標を整えながら、段階的に活用の範囲を広げていきましょう。 AWS では、研究者の方々が AI for Science を始めるための具体的な支援を用意しています。 短時間の相談会: 研究の進め方を整理し、AIが活用できそうなテーマを一緒に特定します 導入支援サポート: 文献検索の自動化や実験プロトコルの生成など、具体的なテーマで技術的な実現可能性を検証します。経験豊富なパートナーも紹介できます 生成AIイノベーションセンター : 1億ドルの投資に裏打ちされた専門チームが、モデルの選定や研究への適用方法について助言します 文部科学省 SPReAD事業への応募 に関する支援: 計算資源やAPI利用料も対象経費に含まれており、AWSのクラウドサービスの利用費用も申請可能です。第1回公募は2026 年 5 月 18 日 ( 月 ) 正午締切です ( 第 2 回は 6 月上旬予定 ) ご関心をお持ちの方は、 AWSの担当チーム までお気軽にお問い合わせください。 次の科学的ブレークスルーは、AIとの協働から生まれます。 アマゾン ウェブ サービス ジャパン合同会社 執行役員 パブリックセクター技術統括本部長 瀧澤 与一 / Yoichi Takizawa
本記事では、OpenFOAMを用いて都市水害シミュレーションを実際に実行する手順をご紹介します。 手順は基本的にUbuntu上で実行し、可視化部分のみWindowsで実行します。 なお、本シミュレーションはOpenFOAMの環境構築が完了していることを前提にしています。 環境構築手順については、「OpenFOAM環境構築手順」を参照してください。 想定読者 ・OpenFOAMでCFDシミュレーションを実行したい ・WSLの基本操作ができる ・Ubuntuの基本操作ができる ・Dockerの基本操作ができる 事前準備 シミュレーションワークフロー 本シミュレーションのワークフロ
























