この記事は 「 Five Critical Technology Trends for Retailers in 2025 」(記事公開日: 2025 年 3 月 5 日)の翻訳記事です。 NRF Big Show で賑やかなベンダーのブースをくまなく訪ねてみると、そうした展示に共通して認められるトレンドに気づかずにはいられませんでした。つまり、こうしたテクノロジーによって今後数か月から数年で業界は再編成されると予想されます。トピックとしては必ずしも新しいものではありませんが、一般的なユースケースに対処す
G-gen の佐々木です。当記事では Google Cloud Next '25 で発表された Google Kubernetes Engine(GKE)における最新の生成 AI 関連機能を紹介します。 概要 GKE における AI 推論 ワークロード GKE Inference Quickstart GKE Inference Gateway GKE TPU serving stack 概要 Google Cloud の旗艦イベントである Google Cloud Next '25 にて、GKE で生成
はじめに Amazon Bedrock は AWS が提供する生成 AI のマネージドサービスであり、複数の大規模言語モデル(LLM)や基盤モデルへのアクセスを提供します。Bedrock では LLM を利用するために 2 つの主要な API が用意されています。それが InvokeModel API と Converse API です。 本記事ではこれら 2 つの API の機能と設計上の違いと具体的なプログラムからの呼び出し例について記載します。 InvokeModel API と Converse
本記事は 2025 年 4 月 7 日に AWS Machine Learning Blog で公開された Effectively use prompt caching on Amazon Bedrock を翻訳したものです。翻訳はソリューションアーキテクトの川戸渉が担当しました。 Amazon Bedrock において、プロンプトキャッシュの一般提供が開始されました。Anthropic の Claude 3.5 Haiku と Claude 3.7 Sonnet に加え、 Nova Micro、 Nov