Zenn

Next'25 速報 - What's new in Cloud Run

に公開
1

はじめに

現在ラスベガスで開催されている Google Cloud の旗艦イベント「Google Cloud Next'25(以下、Next'25)」に現地参加中の kazz / Shanks / 小堀内 / 岸本 です。
Next'25 で発表された 最新情報 を現地からお届けしています!
この記事では、Next'25 のセッション「What's new in Cloud Run」で発表、解説された内容を速報としてお届けいたします。

TL;DR

  • Cloud Run Functions: Cloud Functions のシンプルさと Cloud Run のパワーを統合し、関数デプロイの選択肢を追加。
  • Cloud Run GPU (GA): AI 推論や機械学習ワークロードを、オンデマンドかつ高速な起動でサーバーレスに実行可能に。
  • Cloud Run Worker Pools: リクエスト駆動ではない、常時実行型のバックグラウンド タスク専用のリソースタイプを追加。
  • Load Balancer なしで IAP が使えるように
  • Direct VPC Egress の IP アドレス使用量を削減
  • Gemini Cloud Assist との連携
  • エンタープライズ対応強化: Container Threat Detection対応、マルチリージョン(へのデプロイ)による高可用性構成のサポート。

セッション詳細

Cloud Run Functions

以前からコンソールなどで変わっていることが確認できていた Cloud Run Functions について、改めてセッションで発表されました。

Cloud Functions は、Cloud Run Functions として Cloud Run に統合されました。これにより、コンテナ、Git リポジトリ、ソースコードに加え、単一目的の関数も Cloud Run に直接デプロイできるようになります。

特筆すべきは インスタンスごとの同時実行性 です。従来の FaaS (Function-as-a-Service) では 1 インスタンスあたり 1 イベントしか処理できませんでしたが、Cloud Run Functions ではデフォルトで複数のリクエストやイベントを同時に処理できます。これにより、1インスタンスあたりのリソース使用率が向上し、同じ負荷でも必要なインスタンス数が大幅に削減され、レイテンシとコストの削減につながります (セッションでは、同時実行性 1 で 550 インスタンス必要だった負荷が、デフォルト設定では 150 インスタンスで済んだ例が示されました)。
また従来の Cloud Functions ではできなかった、GCS のマウントも可能になりました。

Firebase App Hosting

Firebase との提携により、Angular, Next.js, Astro, Nuxt などのフレームワーク向けに最適化されたホスティング環境が提供されます。内部的に Cloud Run 上で構築されています。

Gemini Cloud Assist 連携

Gemini Cloud Assist
Cloud Run での開発を加速させる、以下の Gemini との連携機能が追加されました。

  • アーキテクチャ設計支援 (ビジュアルキャンバス)。
  • Terraform / gcloud CLI コマンド生成。
  • リソース最適化提案 (Cloud Hub 経由)。
  • トラブルシューティング支援 (プレイブック表示、Cloud Run Functions のコード修正パッチ提案)。

Identity-Aware Proxy 統合

Identity-Aware Proxy
従来必要だったロードバランサーが不要になり、Cloud Run サービスへのアクセスを Google 認証で簡単に保護できるようになります。
詳細については、弊社の以下の記事をご覧ください。
https://zenn.dev/cloud_ace/articles/4628a0e0d43c58

Direct VPC Egress の IP アドレス使用量削減

Direct VPC Egress
Direct VPC Egress での IP アドレス使用量が削減されます。
従来の Serverless VPC Access ではインスタンスあたり約 4 倍のアドレス量を消費していましたが、Direct VPC Egress ではインスタンスあたり約 2 倍のアドレス量のみ消費するため、ネットワーク全体の IP アドレス消費量を抑えつつスケールイン/スケールアウトが実現できるようになりました。
詳細については、弊社の以下の記事をご覧ください。

また、Cloud Run ジョブでも Direct VPC が利用可能になりました。

Cloud Run Worker Pools

Cloud Run Worker Pools
HTTP リクエストを処理しない、継続的なバックグラウンド処理専用のリソースです。リクエストに応じてスケールするサービスや、完了まで実行されるジョブとは異なり、ワーカープールはインスタンスのプールとして動作し、以下のようなユースケースが想定されています。
- キューベースの処理: Kafka コンシューマー (Kafka キューの深さに応じてスケールする Kafka スケーラーも OSS 公開予定)、Pub/Sub Pull (バッチ処理)。CPU 使用率や手動、スケジュールでのスケーリングが可能。
- その他: GitHub Actions ランナーなど。
将来的にはインスタンスへのダイレクト Ingress も予定されており、さらに用途が広がることが期待されます。

  • マルチリージョンによる高可用性: Cloud Run は元々ゾーン障害に対応するリージョナルサービスですが、ロードバランサーとサービスヘルスチェックを組み合わせることで、リージョン障害時にも他のリージョンへ自動的にフェイルオーバーする高可用性 (HA) アプリケーションを構築できます。

Container Threat Detection 対応

Container Threat Detection
以前から GKE で使えた機能である、Container Threat Detection が Cloud Run でも使えるようになりました。
Security Command Center と連携し、実行中のコンテナインスタンスを継続的に監視。悪意のあるアクティビティ (リモートアクセス、異常な動作、既知の脆弱性利用など) を検出し、Security Command Center に通知します。

Cloud Run GPU

AI 推論ワークロードを Cloud Run 上で実行するための待望の機能が一般提供開始されました。
- 特徴: 高速なコールドスタート (GPU 利用可能まで約 5 秒)。
- ユースケース: カスタム/OSS/ファインチューニング済みモデルのデプロイ、リアルタイム LLM 推論 (エージェント、チャットボット、要約)、画像生成、メディア処理など。
- 対応 GPU: NVIDIA L4 (今後他の GPU もサポート予定)。
- Cloud Run ジョブ with GPU (Preview): バッチ推論やモデルのファインチューニングにも GPU を利用可能になります。

おわりに

セッションでは、上記のアップデートや情報について、デモを交えて解説されました。

IAP 統合や Container Threat Detection 対応など、多くの人に待ち望まれていた機能が追加されました。
AI エージェント時代において、Cloud Run はより重要なプラットフォームになっていくことが期待されます。

参考リンク

Google Cloud Next '25 超速報セミナーのお知らせ


Next'25 へ現地参加ができなかったという方へ、弊社 PTE のシャンクスとラリオスが現地ラスベガスから日本の皆様へ超速報(ReCAP)を生配信でお届けいたします!
この機会にぜひご参加ください。

  • 開催日:2025年4月11日(金) 11:00-12:00
  • 会場: オンライン配信
  • 定員:500名
  • 参加費:無料

https://cloud-ace.jp/event/250411/

1

Discussion

ログインするとコメントできます