TECH PLAY

大規模言語モデル(LLM)」に関連する技術ブログ

1110 件中 346 - 360 件目
今日のビジネス環境は変化が激しく、競争力を維持するためにはデータ活用が不可欠となっています。しかし、「データ活用」と一口に言っても、実際に推進するには様々な課題が存在するのが現場の実情です。本ブログでは、なぜ今データ活用が重要なのか、その推進を支えるデータ基盤とは何か、そしてデータをより効果的に活用するためのデータモデリングについて解説します。 なぜ今、データ活用が重要なのか? データ活用の重要性が高まっている背景には、大きく分けて 2つの時代の潮流 があります。1つは ITの技術革新 で、AIやLLM(
はじめに いよいよ、6月2日〜5日に Snowflake Summit 2025 が開催されます!今年のサミットもデータ基盤、AI、アプリなどの様々な領域でのアップデートが予想されています。 といっても、最近の Snowflake はただでさえアップデートが多く、もう何が何だか分からん!といった方もいらっしゃるのではないでしょうか? そこで今回は、私の専門領域であるAIとアプリにテーマを絞って2年間のアップデートの履歴を振り返ってみようと思います。(なぜ2年間だけ?と思ったそこの貴方、ぜひ記事を読み進めて
本記事では、AIエージェントの構築と実行を簡素化するAWSの新しいオープンソースSDK「Strands Agents」をご紹介します。 ※AWSが公開したブログも合わせてご参照ください。 aws.amazon.com Strands Agentsの登場背景 初期のLLM(大規模言語モデル)を使用する従来のAIエージェント開発では、タスク実行のためにどの機能をどの順番で呼び出すかといった、いわゆる「オーケストレーション」ロジックを開発者が細かく設計する必要がありました。 しかし、最近のLLMは推論能力やツー
こんにちは、イノベーションセンターの鈴ヶ嶺です。 本記事では、 NVIDIA Dynamo や vLLM などの LLM 推論フレームワーク向けに設計された高速・低遅延の抽象化転送ライブラリである NVIDIA Inference Xfer Library (NIXL) について解説します。 また、NVIDIA Dynamo に関してはこちらで解説していますので参考にしていただけると幸いです。 engineers.ntt.com まず、LLM 推論高速化(KV Cache)におけるメモリ転送の背景と課題を
こんにちは。NTTコミュニケーションズの露崎です。本ブログでは2025年3月のGTCで紹介されたNVIDIA社のOSS Dynamoについて紹介します。 はじめに 特徴 インストールと基本動作 Dynamo Run Dynamo Serve 推論グラフとコンポーネント dynamo serveの起動の流れ 1. nats/etcdの起動 2. dynamo serveの起動 3. 動作確認 4. 終了 分散処理の仕組み まとめ はじめに こんにちは。NTTコミュニケーションズの露崎です。本ブログでは202
はじめに チューリング基盤AIチームの @stu3dio_graph です。 チューリングでは視覚と言語を統合的に理解できるAIを自動運転に応用するため,LLMを視覚モーダルに拡張したVision-Language モデル(VLM)「Heron」の開発に取り組んでいます。 チューリングは経済産業省およびNEDOが推進する日本の生成AIの開発力強化に向けたプロジェクト GENIAC第2期 に採択されました。GENIACでは,完全自動運転を見すえた「身体性」を持つマルチモーダル基盤モデルの開発に取り組みました
本稿は 2025 年 5 月 16 日 に AWS Open Source Blog で公開された “ Introducing Strands Agents, an Open Source AI Agents SDK ” を翻訳したものです。 2025 年 5 月 16 日、 Strands Agents のリリースを発表でき、嬉しく思います。Strands Agents は、わずか数行のコードで AI エージェントを構築・実行するモデル駆動型アプローチを採用したオープンソース SDK です。Strand
はじめに こんにちは、スタンバイでプロダクト企画をしている荒巻です。 スタンバイでは、日々サービスを改善するために様々な技術的挑戦をしています。今回はその中でも、求人データ保管・配信システムの刷新プロジェクトに伴って発生した大きな課題に対し、課題分析から要件定義、そして生成AIの力を借りて「自分で作ってみよう!」と思い立ち、社内ツール開発に至った経緯とそのプロセスをご紹介します。 開発したのは「SQL Converter」という、既存のSQLクエリを新しいデータ構造に合わせて自動変換するツールです。最大で
先日、LLMの “aha moment” に関して興味を持ち、関連論文やWe ...
G-gen の杉村です。Google Cloud(旧称 GCP)の認定資格である Generative AI Leader 資格の試験対策情報を紹介します。 基本的な情報 Generative AI Leader とは 難易度 出題傾向 試験対策 生成 AI の基礎 生成 AI と基盤モデル データタイプ 学習方法 生成 AI ソリューションのレイヤー エージェント エージェントとは 種類 ユースケース ツール 推論ループ Google Cloud の生成 AI サービス Vertex AI Vertex
こんにちは AIチームの戸田です 先日、LLMの "aha moment" に関して興味を持ち、関連論文やWeb上の記事を読んでみたところ、賛否両論の様々な見解があり興味深かったので、今回はその内容を共有したいと思います。 aha momentとは そもそもaha momentとは、ドイツの心理学者のカール・ビューラーが提唱した心理学上の概念で、今まで分からなかったことや、問題の答えが、突然「あっ、そうか!」とひらめく瞬間のことを言うようです。日本語だとアハ体験と呼ばれていたりします。 間違い探しが、よく
開発本部のデータ&AIチームでデータサイエンティストをしている古濵です。 今回は、挑戦WEEKで実装した「レシピ材料の同義語辞書自動化」をLLMで実装した内容をまとめます。 挑戦WEEKに関しては、以下の記事をご覧ください。 tech.every.tv 背景 ユーザーのクエリによって、同じ意味を表す言葉でも異なる単語が使われることがあります。 デリッシュキッチンを題材に例を挙げると「鶏もも肉」「とりもも肉」「鳥もも肉」などです。 これらの単語同士を同義語(シノニム)、これらの同義語を対応づけたもの
ユーザー理解って大変 こんにちは。データが好きすぎる梶村です。 カケハシで薬局向けの在庫管理発注システムである「AI在庫管理」というプロダクトのPdMをしています。 プロダクト開発ではユーザー理解が一番大事だと分かっていても、実際に取り組むのは本当に大変です。薬局向けのプロダクトでは、店舗によって医薬品の在庫管理の運用や発注判断はさまざまであり、 定性的にさまざまな店舗の方にヒアリングさせていただきながら、定量的に機能の利用状況を調査していくのは大変 な作業です。 一方でPdMがヒアリングできる店舗や業務
こんにちは、グループデータ本部データサイエンスグループの清田です。 昨年の DEIM 2024 に引き続き、「 第17回データ工学と情報マネジメントに関するフォーラム(通称DEIM 2025) 」に参加・登壇してきましたので、その様子を報告いたします。 www.lifull.blog 過去最大の開催規模 生成AI・大規模言語モデル研究の盛況 DEIMの参入障壁を下げる取り組み LIFULLのスポンサー活動とデータセット提供 今後の展開:新たなデータセット提供に向けて おわりに 過去最大の開催規模 DEIM
こんにちわ。 GSです。 今回はGoogle CloudでOpen WebUIを構築する方法を解説します。 本記事では、一つひとつのgcloudコマンドを実行しながらGoogle Cloud上にプライベートなAIチャット環境「Open WebUI」を構築していきます。Terraformのような一括デプロイではなく、各ステップを順に進めることで、Cloud Run、Cloud Storage、Cloud SQLなどのサービスがどのように連携するのかを体系的に理解できます。コマンドを実行し、結果を確認する過程