「GPU」に関連する技術ブログ

企業やコミュニティが発信する「GPU」に関連する技術ブログの一覧です。

GAIA-1: 自動運転のための世界モデルを理解する

1. はじめに Turing 生成AIチームの荒居です。生成AIチームでは、完全自動運転の実現に向けて、現実世界の複雑な状況を理解し未来を予測するAI、「世界モデル」の開発に取り組んでいます。世界モデルは、生成AIによって様々な交通状況や歩行者の行動をシミュレーションすることを可能にし、安全かつ効率的な自動運転を実現するための重要な鍵となると私たちは考えて

「あの写真どこいった?」を画像認識で解決してみる

はじめに はじめまして、こんにちは。 フォルシアの基盤技術部でエンジニアをしている太田と申します。 突然ですが、みなさまはスマホ、デジカメ等々で写真を撮ることは多いでしょうか? 写真をよく撮られる方にあるあるのお悩みの一つに「あの写真どこ?」となることがあるかと思います。 今回はそんなお悩みが解決するような「文章による画像検索機能」を作成

Argo WorkflowsとGKEで構築するLLMを使った要約サービスの機械学習パイプライン

こんにちは。 AIチームの干飯( @hosimesi11_ )です。今回はAI Shiftで取り組んでいる新規サービスであるAI Messenger Summaryの機械学習パイプラインと、Proof of Concept(PoC)から実際のプロダクトへと展開する過程についてご紹介します。 AI Messenger Summaryとは AI Messenger Summary はコールセンター事業における、会話内容の要約サービスになります( プレスリリース )。コールセンターでは

KubernetesでGPUを使用する

こんにちは。サイオステクノロジーの塙です。 今回はKubernetes をベースとしたプラットフォームでGPUを扱っていくための手法について解説してみます。 概要 直近では特にAIや機械学習(ML)に関する話題が増え、これらの分野を活用したソリューションの実現を図る組織も多いのではないでしょうか。 これらの分野の計算リソースのためには、GPUが必要となってきます。 そ

今こそはじめるJAX/Flax入門 Part 1

1. はじめに 2012年から始まった深層学習の発展の過程で、さまざまな学習フレームワークが登場しました。中でもPyTorchとTensorflowは最も広く使われており、それぞれのフレームワークが支持されている背景には、柔軟性、拡張性、そして使いやすさがあります。 一方で、これらのフレームワークはその機能を拡張し続けてきた結果として、全体として非常に巨大で複雑なラ

Google Cloud NEXT'24 Las Vegas で発表された Distributed Cloud Update まとめ

はじめに こんにちは、クラウドエース SRE部 に所属している\textcolor{red}{赤髪}がトレードマークの Shanks です。 現在、筆者はラスベガスで開催されている Google Cloud 主催の旗艦イベント「Google Cloud NEXT'24」に参加中です。 そこで発表された最新情報を現地からお届けしています。 この記事では主に「Google Distributed Cloud のアップデート情報」に焦点をあてて解説いたします

Google Cloud NEXT'24 Las Vegas で生成AIに最適化された Infrastructures Update まとめ

はじめに こんにちは、クラウドエース SRE部 に所属している\textcolor{red}{赤髪}がトレードマークの Shanks です。 現在、筆者はラスベガスで開催されている Google Cloud 主催の旗艦イベント「Google Cloud NEXT'24」に参加中です。 そこで発表された最新情報を現地からお届けしています。 この記事では主に「生成AI に最適化された Google Cloud のインフラと Compute リソース」に焦点を

さくらのクラウド高火力プランでGoogle Colabを使う

はじめに さくらのクラウドには、機械学習やディープラーニング(深層学習)に最適なGPUサーバを利用できる「高火力プラン」があります。 本記事では、Googleが提供している開発環境であるGoogle Colaborato […]

Amazon Bedrock ワークショップ に参加しました!

はじめに こんにちは!トモニテにて開発を行なっている吉田です。 今回は先日参加した Amazon Bedrock ワークショップに参加させいただいたのでそこで学んだことについて紹介します! ワークショップは AWS 様からエブリー向けに開催いただきました。 Amazon Bedrock とは Amazon Bedrock は、高性能な基盤モデル (Foundation Model) の選択肢に加え、生成 AI アプリケーションの構築に必

Jetson AGX Orinでグラボを動かした話

最近、ラズパイにグラボを接続した、ルーターにGPUを接続したなど、いろんなものにGPUを繋げるのが流行っているようですが、似たようなことをJetsonでやったという記事です。 設定方法だけ書くとわりと短いので、最初に経緯などを書いています。結論だけ欲しい方は、こちらに飛んでください。 はじめに Jetson AGX Orinというのは、NVIDIAが開発しているエッジコンピュー

Amazon SageMaker JumpStartによるエンドポイントデプロイのベンチマークと最適化

大規模言語モデル (LLM) をデプロイする場合、機械学習 (ML) の担当者は通常、モデルサービングのパフォーマンスの 2 つの測定値に注目します。1 つ目は 1 トークンの生成にかかる時間で定義されるレイテンシー、二つ目は 1 秒あたりに生成されるトークンの数によって定義されるスループットです。デプロイされたエンドポイントへの単一のリクエストは、モデルレイテ

日本語Vision Languageモデル heron-blip-v1の公開

はじめに Turingでは完全自動運転実現に向けて、LLMやそれを用いたVision Langauge(V&L)モデルの開発に取り組んでいます。最近は経済産業省/NEDOの「競争力のある生成AI基盤モデルの開発を支援する「GENIACプロジェクト」」にも採択されるなど、大規模な生成AIの開発に精力的に取り組んでいます。 特に、Vision Languageモデルについては、Heronというライブラリとモデル群を

LLMで英会話の練習をしたい

皆さん、お疲れ様です。ニフティ基幹システムグループの山田(山田一族)です。 突然ですが、皆さんも昔は英語を話せるようになりたいと思っていませんでしたか?私も昔はそう思っていた時期がありました。 英語を話せるようになりたいと思って、かれこれ8年ぐらいは通勤時の電車内で BBC放送 のpodcastを聞いています。ですが一向に英語を話せるようにはなりませ

AWS における生成 AI インフラストラクチャ

この記事は、 Generative AI Infrastructure at AWS を翻訳したものです。 生成 AI モデルの構築やトレーニング、そして正確で洞察に満ちた出力の予測と提供には、大規模なインフラストラクチャを必要とします。 大規模言語モデル(LLM)や基礎モデル(FM)が生成する高品質の合成テキスト、画像、その他のメディアの出力には、大量のデータが必要です。 まず、モデルのトレー

Kubeflow Pipelines の local 実行で開発効率を上げる

はじめに AI Team MLOps エンジニアの西原です。2024 年 1 月にローカル環境で Kubeflow Pipelines を実行するドキュメントが公式から 公開 されました。今回はそのドキュメントを参考にローカル環境で Kubeflow Pipelines を実行する方法を紹介します。 はじめに Kubeflow Pipelines とは kfp を使った開発の課題 kfp を手元の開発環境で実行する ローカル環境でコンポーネント実行 アーティフ
技術ブログを絞り込む

TECH PLAY でイベントをはじめよう

グループを作れば、無料で誰でもイベントページが作成できます。情報発信や交流のためのイベントをTECH PLAY で公開してみませんか?