TECH PLAY

GPU」に関連する技術ブログ

248 件中 121 - 135 件目
この記事は CyberAgent Developers Advent Calendar 2024 1 ...
Gartner は、2 つ目の Magic Quadrant for Distributed Hybrid Infrastructure (DHI) を公開しました。このレポートでは、 Amazon Web Services (AWS) が再びリーダーとして選出されています。AWS には、この DHI ポートフォリオにおいて、 AWS Outposts 、 AWS Snowball 、および AWS Local Zones という 3 つの製品を有しています。付随する Gartner の Critical
はじめに こんにちはサイオステクノロジーの小野です。 前回 はOpenShiftでGPUを利用するための設定方法について解説しました。今回はいよいよOpenShift AIを導入してJupyterNotebookを起動するところまでを解説します。 OpenShift AIの4つの主な機能 OpenShift AIのトップ画面は以下のようになります。 OpenShift AIのトップ画面 OpenShift AIには大きく4つの機能があります。 Data Science Projects データサイエンスの
こんにちは、メルカリのAI/LLMチームで機械学習エンジニアをしている arr0w と sho です! 本テックブログでは、Vision-Language Modelの一つである SigLIP [1]を、メルカリの商品データ(Image-Text Pairs)でファインチューニングし、メルカリの商品画像Embeddingの性能を大幅に改善したプロジェクトについて紹介します。 今回作成したSigLIPの性能を評価するために、 商品詳細ページの「見た目が近い商品」のレコメンド機能でA/Bテストを実施しました。
はじめに こんにちはサイオステクノロジーの小野です。 前回 はOpenShiftにGPUを追加する方法について解説しました。今回はそのGPUをクラスタ内で利用する設定の方法を解説します。 また、GPUはいくつかの会社が作成していますが、多くのAI開発ライブラリが対応しているNVIDIA製のGPUの設定を行います。 OpenshiftでGPUを利用するためのオペレータ Node Feature Discovery (NFD) オペレータ クラスター内のノードのハードウェア機能やカーネル機能を自動的に検出し、
はじめに こんにちはサイオステクノロジーの小野です。 前回 はOpenShift AIの概要について簡単に説明しました。今回はOpenShiftのノードの追加方法について解説します。OpenShift AIを利用するためには、GPUノードを追加する必要があるのでしっかりと操作を覚えましょう。 OpenShift(AWS)について OpenShiftはAmazon Web Services、Google Cloud Platform、IBM Cloud、Microsoft Azure のクラウド、vSphe
みなさん、こんにちは。ソリューションアーキテクトの根本です。 今週も 週刊AWS をお届けします。 一つイベントを宣伝させてください。 11月1日 10:00-12:00に コンテナ/サーバーレスによるモダン・プロジェクト実践 というイベントが開催されます。プロジェクトで実践されているユーザーの体験・声を直に感じる機会ですのでぜひご参加ください。 それでは、先週の主なアップデートについて振り返っていきましょう。 2024年10月14日週の主要なアップデート 10/14(月) Amazon EKS now
AIの世界では、ChatGPTをはじめとする生成系AIが広がり、テキスト生成モデルである大規模言語モデル(LLM)の仕事での利用も増えています。 今回紹介するオープンモデルLLMは、AI技術の発展において重要な役割を果たしています。ChatGPTのようなクローズドなLLMモデルは高性能ですが、LLMを活用したツール作成や検証などの研究目的での利用にはコスト面の課題があります。オープンモデルLLMは 無料で利用できるため、スタートアップや予算の限られたプロジェクトなどでも、柔軟に対応できる点が評価されていま
はじめに こんにちは、クラウドエースの第二開発部に所属している村松です。 入社したての新人エンジニアですが、Google Cloud を使って日々開発に勤しんでいます。 さて、2024年の8月に、Cloud Run の NVIDIA L4 GPU のプレビュー版サポート が公開されました。 https://cloud.google.com/run/docs/configuring/services/gpu?hl=ja Cloud Run が GPU に対応することで、Google の Gemma や Me
ファインチューニングとは 応用分野からプロセス、発展まで 2024.10.1 構 成 株式会社Laboro.AI リードマーケター 熊谷勇一 概 要 既存のリソースを活用しつつAIモデルの効率と精度を向上させられる手法であるファインチューニングについて、その重要性や応用分野、実施のプロセスなどについて解説します。なお本コラムは、当社の代表取締役COO兼CTOの藤原弘将と、機械学習エンジニアの計6人が執筆した書籍『 今日から使えるファインチューニングレシピ AI・機械学習の技術と実用をつなぐ基本テクニック
以前の記事 で、処理を実行している間だけ GPU を専有する (料金を支払う) ために、GKE Autopilot を使用する例を書きました。これにより、新しく job を実行するだけで自動で GPU が割り当てられ、処理が終われば開放される、スケーリングも柔軟… とよい点は多いものの、インフラの用意はじゃっかん手間であったり、cluster の維持費用 ($0.10/h = 月に一万円程度) がかかるなど、残念ながらお手軽とは言えません。 そんな折… Cloud Run に
生成 AI の概要 生成人工知能 (生成 AI) は、会話、ストリー、画像、動画、音楽など新しいコンテンツやアイデアを生成できる AI の一種です。AI 技術は、画像認識、自然言語処理 (NLP)、翻訳などの従来とは異なるコンピューティングタスクで、人間の知能をまねようとしています。 生成 AI では、巨大なデータで事前に学習された大規模な機械学習 (ML) モデルがサポートされています。生成 AI では、次の 2 種類のモデルを認識する必要があります。 基盤モデル (FMs) は、一般化されたラベル無し
こんにちは。さくらのナレッジ編集部の安永です。 2024年6月15日(土)、札幌コンベンションセンターにて「CloudNative Days Summer 2024 」が開催されました。このイベントで、株式会社Prefe […]
こんにちは。さくらのナレッジ編集部です。7月に開催されたJANOG54 Meetingで「生成AI向けパブリッククラウドサービスをつくってみた話」について、さくらインターネット 高峯 誠さん、井上 喬視さん、平田 大祐さ […]
この記事では、既存のCPUプログラムをGPUで高速化する方法を説明します。具体的には、行列の和を計算する部分をカーネル関数に変更し、メモリ確保やデータ転送、カーネル関数の実装と呼び出し、エラーチェック、チューニング方法について順を追って解説します。

ブログランキング

集計期間: 2025年12月4日 2025年12月10日

タグからブログをさがす

プログラミング

Ruby on RailsbashDartKotlin

TECH PLAY でイベントをはじめよう

グループを作れば、無料で誰でもイベントページが作成できます。 情報発信や交流のためのイベントをTECH PLAY で公開してみませんか?
無料でイベントをはじめる