
Serverless
サーバーレス(Serverless)とは、サーバーの構築や管理をすることなくアプリケーションを実行することができる環境です。
サーバー管理に必要な手間や費用を排除し、必要なときにコードを実行することができるクラウドコンピューティングの一形態です。
従来はアプリケーションを実行する際にサーバーをプロビジョニング(準備)し、さらに管理、スケーリング、オペレーションなどの作業が必要でしたが、サーバーレスでは、これらの作業をクラウドプロバイダーが代行することで、開発者はコードの実装に専念できるようになります。
サーバーレスは、コンピューティングリソースの利用量に応じた課金方式を採用しており、リクエストごとに課金されるため、無駄なコストが発生しないことも特徴です。
また、スケーラビリティが高く、急激なトラフィックの増加にも柔軟に対応できるため、アプリケーションの開発や運用において、効率性とコスト削減の両面で利点をもたらします。
一方でサービスによって使用できる言語に制限があったり、処理時間に制限がある場合もあるため、各サービスの内容を理解した上で選定する必要があります。
提供されているサービスとしてはAWSのAWS Lambda、マイクロソフトのAzure Functions、GoogleのGoogle Cloud Functionsなどが代表的です。
イベント
該当するコンテンツが見つかりませんでした
マガジン
技術ブログ
AWS New Summit 2025 で Amazon SageMaker AI の Amazon Nova カスタマイズ をリリースして以来、お客様からは Amazon SageMaker Inference でオープンウェイトモデルをカスタマイズする場合と同じ機能を Amazon Nova でも使用したいと伺っていました。また、本番環境のワークロードに必要なインスタンスタイプ、自動スケーリングポリシー、コンテキストの長さ、同時実行設定について、カスタムモデル推論の制御と柔軟性を高めたいという声もお聞きしました。 2026 年 2 月 16 日、Amazon SageMaker Inference でのカスタム Nova モデルサポートの一般提供を発表いたしました。これは、フルランクのカスタマイズされた Nova モデルをデプロイおよびスケールするための、本番環境グレードかつ設定可能で、コスト効率の高いマネージド推論サービスです。 Amazon SageMaker Training Jobs または Amazon HyperPod を使用して Nova Micro、Nova Lite、Nova 2 Lite の各モデルを推論機能付きでトレーニングし、Amazon SageMaker AI のマネージド推論インフラストラクチャを利用してシームレスにデプロイする、エンドツーエンドのカスタマイズジャーニーをご体験いただけるようになりました。 カスタム Nova モデル用の Amazon SageMaker Inference では、 P5 インスタンス の代わりに Amazon Elastic Compute Cloud (Amazon EC2) の G5 および G6 インスタンスを使用した GPU 使用率の最適化、5 分間の使用パターンに基づく自動スケーリング、設定可能な推論パラメータを通じて推論コストを削減できます。この機能により、継続的な事前トレーニング、教師ありのファインチューニング、またはユースケースに合わせた強化ファインチューニングを使用して、カスタマイズされた Nova モデル向けにデプロイできます。また、コンテキストの長さ、同時実行数、バッチサイズに関する詳細設定を設定して、特定のワークロードのレイテンシーとコスト精度のトレードオフを最適化することもできます。 カスタマイズした Nova モデルを SageMaker AI リアルタイムエンドポイントにデプロイする方法、推論パラメータを設定する方法、テスト用にモデルを呼び出す方法を見てみましょう。 SageMaker 推論にカスタム Nova モデルをデプロイする AWS re:Invent 2025 では、Nova モデルを含む一般的な AI モデル向けに Amazon SageMaker AI の新しいサーバーレスカスタマイズ を導入しました。数回クリックするだけで、モデルとカスタマイズ手法をシームレスに選択し、モデル評価とデプロイを行うことができます。トレーニング済みのカスタム Nova モデルアーティファクトが既にある場合は、 SageMaker Studio または SageMaker AI SDK を通じて SageMaker Inference でモデルをデプロイできます。 SageMaker Studio の [モデル] メニューで、お使いのモデル内のモデルで、トレーニング済みの Nova モデルを選択します。 [デプロイ] ボタン、 [SageMaker AI] 、 [新規エンドポイントを作成] を選択して、モデルをデプロイできます。 エンドポイント名、インスタンスタイプ、およびインスタンス数、最大インスタンス数、アクセス許可とネットワークなどの詳細オプション、 [デプロイ] ボタンを選択します。GA の起動時には、Nova Micro モデルの場合は g5.12xlarge 、 g5.24xlarge 、 g5.48xlarge 、 g6.12xlarge 、 g6.24xlarge 、 g6.48xlarge 、 p5.48xlarge インスタンスタイプ、Nova Lite モデルの場合は g5.24xlarge 、 g5.48xlarge 、 g6.24xlarge 、 g6.48xlarge 、 p5.48xlarge 、Nova 2 Lite モデルの場合は p5.48xlarge を使用できます。 エンドポイントを作成する際には、インフラストラクチャのプロビジョニング、モデルアーティファクトのダウンロード、推論コンテナの初期化に時間がかかります。 モデルのデプロイが完了し、エンドポイントのステータスで [InService] と表示されたら、新しいエンドポイントを使用してリアルタイムの推論を実行できます。モデルをテストするには、 [プレイグラウンド] タブを選択し、 チャット モードでプロンプトを入力します。 SageMaker AI SDK を使用して 2 つのリソースを作成することもできます。1 つは Nova モデルアーティファクトを参照する SageMaker AI モデルオブジェクトで、もう 1 つはモデルのデプロイ方法を定義するエンドポイント設定です。 次のコードは、Nova モデルアーティファクトを参照する SageMaker AI モデルを作成します。 # Create a SageMaker AI model model_response = sagemaker.create_model( ModelName= 'Nova-micro-ml-g5-12xlarge', PrimaryContainer={ 'Image': '123456789012.dkr.ecr.us-east-1.amazonaws.com/nova-inference-repo:v1.0.0', 'ModelDataSource': { 'S3DataSource': { 'S3Uri': 's3://your-bucket-name/path/to/model/artifacts/', 'S3DataType': 'S3Prefix', 'CompressionType': 'None' } }, # Model Parameters 'Environment': { 'CONTEXT_LENGTH': 8000, 'CONCURRENCY': 16, 'DEFAULT_TEMPERATURE': 0.0, 'DEFAULT_TOP_P': 1.0 } }, ExecutionRoleArn=SAGEMAKER_EXECUTION_ROLE_ARN, EnableNetworkIsolation=True ) print("Model created successfully!") 次に、デプロイインフラストラクチャを定義するエンドポイント設定を作成し、SageMaker AI リアルタイムエンドポイントを作成して Nova モデルをデプロイします。このエンドポイントはモデルをホストし、推論リクエストを行うための安全な HTTPS エンドポイントを提供します。 # Create Endpoint Configuration production_variant = { 'VariantName': 'primary', 'ModelName': 'Nova-micro-ml-g5-12xlarge', 'InitialInstanceCount': 1, 'InstanceType': 'ml.g5.12xlarge', } config_response = sagemaker.create_endpoint_config( EndpointConfigName= 'Nova-micro-ml-g5-12xlarge-Config', ProductionVariants= production_variant ) print("Endpoint configuration created successfully!") # Deploy your Noval model endpoint_response = sagemaker.create_endpoint( EndpointName= 'Nova-micro-ml-g5-12xlarge-endpoint', EndpointConfigName= 'Nova-micro-ml-g5-12xlarge-Config' ) print("Endpoint creation initiated successfully!") エンドポイントが作成されたら、推論リクエストを送信してカスタム Nova モデルから予測を生成できます。Amazon SageMaker AI は、ストリーミング/非ストリーミングモードのリアルタイム用の同期エンドポイントと、バッチ処理用の非同期エンドポイントをサポートします。 例えば、次のコードはテキスト生成用のストリーミング補完形式を作成します。 # Streaming chat request with comprehensive parameters streaming_request = { "messages": [ {"role": "user", "content": "Compare our Q4 2025 actual spend against budget across all departments and highlight variances exceeding 10%"} ], "max_tokens": 512, "stream": True, "temperature": 0.7, "top_p": 0.95, "top_k": 40, "logprobs": True, "top_logprobs": 2, "reasoning_effort": "low", # Options: "low", "high" "stream_options": {"include_usage": True} } invoke_nova_endpoint(streaming_request) def invoke_nova_endpoint(request_body): """ Invoke Nova endpoint with automatic streaming detection. Args: request_body (dict): Request payload containing prompt and parameters Returns: dict: Response from the model (for non-streaming requests) None: For streaming requests (prints output directly) """ body = json.dumps(request_body) is_streaming = request_body.get("stream", False) try: print(f"Invoking endpoint ({'streaming' if is_streaming else 'non-streaming'})...") if is_streaming: response = runtime_client.invoke_endpoint_with_response_stream( EndpointName=ENDPOINT_NAME, ContentType='application/json', Body=body ) event_stream = response['Body'] for event in event_stream: if 'PayloadPart' in event: chunk = event['PayloadPart'] if 'Bytes' in chunk: data = chunk['Bytes'].decode() print("Chunk:", data) else: # Non-streaming inference response = runtime_client.invoke_endpoint( EndpointName=ENDPOINT_NAME, ContentType='application/json', Accept='application/json', Body=body ) response_body = response['Body'].read().decode('utf-8') result = json.loads(response_body) print("✅ Response received successfully") return result except ClientError as e: error_code = e.response['Error']['Code'] error_message = e.response['Error']['Message'] print(f"❌ AWS Error: {error_code} - {error_message}") except Exception as e: print(f"❌ Unexpected error: {str(e)}") 完全なコード例を使用するには、「 Amazon SageMaker AI での Amazon Nova モデルのカスタマイズ 」をご参照ください。モデルのデプロイと管理に関するベストプラクティスの詳細については、「 SageMaker AI のベストプラクティス 」をご覧ください。 今すぐご利用いただけます カスタム Nova モデル用の Amazon SageMaker Inference は、2026 年 2 月 16 日、米国東部 (バージニア北部) および米国西部 (オレゴン) の AWS リージョンでご利用いただけます。リージョンごとの提供状況や今後のロードマップについては、「 AWS Capabilities by Region 」にアクセスしてください。 この機能は、自動スケーリングを使用して EC2 G5、G6、P5 インスタンスで実行される、推論機能を備えた Nova Micro、Nova Lite、Nova 2 Lite モデルをサポートします。使用したコンピューティングインスタンス分のみに対してお支払いいただきます。時間単位の請求で、最小契約はありません。詳細については、 Amazon SageMaker AI の料金ページ をご覧ください。 Amazon SageMaker AI コンソール をぜひお試しいただき、 AWS re:Post for SageMaker 宛てに、または通常の AWS サポートの連絡先を通じて、フィードバックをお寄せください。 – Channy 原文は こちら です。
新しいスキル測定 “Microcredentials” とは AWS 認定を取得したが、もっと自分のスキルをアピールしたい!全冠の次の目標が欲しい!そんな方に朗報です。 Microcredentials は実践的なスキルを証明する新しい手法として、2025 年 11 月より AWS Skill Builder のサブスクリプションコンテンツとして利用が可能になりました。 Microcredentials は用意されたパフォーマンスベースの Exam Labs* で実践的な課題を解決することで、特定分野におけるスキルの深さを証明します。現在 “Agentic AI” と “Serverless” の 2 つの領域が Microcredentials としてリリース済みです。受験に際して必要な AWS 認定などの前提条件はありません。 実際に直面するであろう現実的な課題のトラブルシューティングを行い、効果的な解決策を実装します。基準を満たして合格すれば AWS 認定と同様に Credly のデジタルバッジが付与されます。今後も技術的なニーズに合わせて Microcredentials を追加していく予定です。ぜひ AWS 認定と合わせて取得ください。 <Microcredentials 操作画面のイメージ> *Exam Labs とは Exam Labsは、AWS が管理する Labs インフラストラクチャ上に構築されています。事前に構成された AWS 環境で、リスクなく様々な AWS サービスやソリューションを試すことができます。利用者は自身の AWS Account を利用せずとも、Exam Labs で提供される AWS 環境を利用することができます。Exam Labs には試験や評価に特化した機能(自動採点、評価基準の設定など)があります。 – AWS 認定との違い – Microcredentials の概要(Agentic AI/Serverless) 受験には AWS Skill Builder のサブスクリプション登録が必要です(参考: サブスクリプションについて ) Microcredentials の受験にあたり、サブスクリプション登録以外の費用は必要ありません 事前の予約は不要 制限時間は 90 分(中断不可) Exam Labs で複数の課題を解決 合格すれば AWS 認定と同様にデジタルバッジが付与されます 不合格の場合、次回は25日経過後から受験が可能 – Microcredentials 受験の流れ ① AWS Skill Builder の トップページ から、マイクロクレデンシャルを選択 – ② 受験したいマイクロクレデンシャルを選択して受験 ※ 一番左の「AWS マイクロクレデンシャル – お試し版」は操作説明のための体験版です。 – デジタルバッジ AWS 認定と同様に Credly で取得可能 – 関連性の高い AWS 認定 Agentic AI AWS Certified Generative AI Developer – Professional – Serverless AWS Certified Developer – Associate まとめ Microcredentials は AWS 認定だけでは証明することが難しい、特定分野におけるスキルの深度を証明できます。ぜひ AWS 認定と合わせて取得いただき、AWS 認定 × Microcredentials の新しいスキル証明を体感ください。 – 著者 トレーニングサービス本部 T&C Certification BDM 両角貴寿(Moro)
本ブログは、メック株式会社 様と Amazon Web Services Japan が共同で執筆いたしました。 みなさま、こんにちは。AWSアカウントマネージャーの尾田です。 生成 AI が注目されてから数年が経ち、多くの活用事例が生まれています。特に最近では「エージェント」というキーワードも⾮常に注⽬されており、今まで以上に、複雑な業務に AI を活⽤できるようになってきています。 本ブログでは、AI エージェントを活⽤して研究業務の効率化や品質の底上げに取り組まれたメック株式会社様の事例についてご紹介いたします。同社は、AWS 主催のハッカソンイベントへの参加をきっかけに、わずか約3 週間という短期間でソリューションを構築しており、どの程度の効果が出るか検証を進めていく PoC フェーズにおいて、スモールスタートで素早く取り組まれた事例となっております。また、アーキテクチャの中には、Amazon Bedrock AgentCore や、Amazon S3 Vectors を利⽤しており、技術的にも先進的な取り組みとなっております。 お客様の取り組みの背景と目指す姿 企業の研究開発部門において、蓄積された専門知識や技術情報を組織全体の資産として最大限に活用し、全メンバーが高いレベルで業務を遂行できる環境を構築することは、競争力強化の鍵となります。同社では、生成 AI とエージェント技術の進化を好機と捉え、研究業務における次世代の働き方の実現に向けて、先進的な取り組みに挑戦しました。 組織全体の研究力の底上げと標準化 同社が目指したのは、ベテラン社員が持つ高度な検索スキルや情報収集のノウハウを AI エージェントとして実装し、組織全体で共有できる仕組みの構築です。経験年数に関わらず、すべての研究開発メンバーが高品質な情報へアクセスし、迅速な判断を行える環境の実現を目指しました。 複雑な専⾨領域における情報アクセスの革新 研究業務では、専門用語と関連技術が複雑に絡み合っており、適切なアプローチで情報にアクセスすることが重要です。同社は、AI エージェントが自律的に最適な検索クエリを生成し、ユーザーの真の目的に沿った情報を提供する仕組みの構築に取り組みました。これにより、複雑な専門領域においても直感的に情報へアクセスできる環境の実現を目指しています。 知的資産の戦略的活用基盤の構築 日々蓄積される研究データや新規情報、更新される技術情報を、単なるデータとして保管するのではなく、戦略的な知的資産として最大限活用できる基盤の構築を目指しました。AI エージェントによって、情報に適切なコンテキストやメタデータを自動付与し、組織の知見を継続的に進化させる仕組みの実現に取り組まれました。 ソリューション・構成内容 ソリューションイメージ図 同社の目指す姿を実現するため、単純な RAG アーキテクチャや情報更新の⾃動化ではなく、検索と情報更新の 2 つの領域で AI エージェントを活用したソリューションを構築しました。 情報検索エージェント ユーザーからの質問を受け取り、最適な情報を提供します。特徴的なのは、ユーザーの質問⽂をそのまま検索クエリとして使⽤するのではなく、専⾨技術のバックグラウンド知識をもとに、ユーザーの真の⽬的に沿った情報を取得できるよう、裏側で最適なクエリを⾃動⽣成します。また、得られた結果がユーザーの⽬的に沿わない場合は、必要に応じて複数回の検索を⾏います。これにより、すべてのメンバーがベテラン社員と同等レベルの情報アクセスが可能になります。 情報更新エージェント 新規情報の追加時に、単に⽂書をそのまま登録するのではなく、コンテキスト情報を付与します。具体的には、「どのような案件の、どのような相談をもとに必要となった情報なのか」という追加に至る背景情報などを付与します。また、情報の中⾝を確認した上で、メタデータを⾃動⽣成し、検索性を高めた形で情報更新を⾏います。これにより、組織の知的資産が体系的に蓄積され、継続的に価値を生み出す仕組みとなります。 アーキテクチャ図 特に注⽬すべき点は、AI エージェントが動く基盤として、Bedrock AgentCore Runtime を利⽤されている点です。Bedrock AgentCore Runtime は、AI エージェントとツールのデプロイおよびスケーリング専⽤に構築された、セキュアでサーバーレスなランタイム環境です。Bedrock AgentCore Runtimeを利⽤することで、AI エージェントが動くインフラストラクチャの構築・管理をサービス側にまかせることができる点や、将来的な本番運⽤を⾒越し、セキュリティや認証・認可、運⽤性の観点から、採⽤をいただいております。同社はStrands Agents で作成した AI エージェント及び RAG を利⽤するためのツールを Runtime 上にデプロイされています。また、RAG アーキテクチャは、利⽤形態を加味して、S3 Vectors を利⽤してコストを最適化されております。 本ソリューションでは、RAG が AI エージェントが利⽤できるツールの⼀つとなっており、単純な検索システムではなく、ユーザーの意図を理解し、最適な情報取得に向けて⾃律的に動作する仕組みとなっております。開発中に Bedrock AgentCore が一般提供を開始するというタイミングで、Bedrock AgentCore をご利⽤いただいておりましたが、 Amazon Bedrock AgentCore starter toolkitをはじめとしたリソースを活⽤することで⾮常に⾼速に AI エージェントのデプロイができたというお⾔葉もいただいております。 導⼊効果 本ソリューションにより、以下の効果が期待されます。 情報検索時間の短縮:すべてのメンバーが迅速かつ的確に必要な情報へアクセスでき、組織全体の生産性向上が見込まれます 研究業務レベルの底上げ:検索エージェントが適切なクエリを自動生成することで、経験年数に関わらず高品質な情報収集が可能になります 知的資産の継続的な進化:情報更新エージェントにより、調査結果や研究知見、最新情報が体系的に整備・自動更新され、戦略的に活用できる基盤が構築されます まとめ 本ブログでは、メック株式会社様の先進的な取り組みをご紹介しました。AI エージェントを活⽤することで、複雑な業務の効率化だけでなく、組織全体の能力向上につながることがイメージいただけたのではないでしょうか。ユーザーの⽬的を理解して、⽬的達成に向けて⾃律的に動く点が、エージェントの⼀番のポイントになってくるかと思います。 同社は、AI エージェントの活⽤を更にブラッシュアップしていき、より多くの業務での活⽤を進めることで、研究開発における競争力をさらに強化していくとのことです。 本事例が、生成 AI やエージェント技術を活用した業務効率化をご検討中のお客様の参考になれば幸いです。Amazon Bedrock AgentCore を活用したソリューション構築にご興味をお持ちの方は、お気軽にお問い合わせください。 メック株式会社(左から): 古川 智大 様 岸本 宗真 様 足立 優司 様 Amazon Web Services Japan 合同会社: ソリューションアーキテクト 上野 涼平(左端) アカウントマネージャー尾田 美菜(右端)















