「大規模言語モデル(LLM)」に関連する技術ブログ

企業やコミュニティが発信する「大規模言語モデル(LLM)」に関連する技術ブログの一覧です。

Amazon Bedrock での Meta の Llama 3.1 405B、70B、8B モデルを発表

7月23日、 Llama 3.1 モデルが Amazon Bedrock で利用可能になったことをお知らせします。Llama 3.1 モデルは、これまでで最も先進的かつ高性能な Meta のモデルです。8B、70B、405B のパラメータサイズモデルのコレクションであり、幅広い業界ベンチマークで最高のパフォーマンスを示し、生成人工知能 ( 生成 AI ) アプリケーションに新機能を提供します。 すべての Llama 3.1 モデルは

Failure Analysis Assistant – AIOps で障害分析を効率化してみよう –

システムやサービスを提供する上で、障害はつきものです。障害を迅速に分析し対処することがユーザビリティやサービス信頼性を向上し、結果顧客満足度につながります。一方で近年システムは複雑さを増しており、障害特定が従来に比べて難しくなっています。したがって障害分析の効率化や高度化が重要になっています。 従来の手動による障害分析では、膨大なロ

【AOAI】RAGパイプラインの構築から評価フェーズまでの実装を一挙解説!【Ragas】

こんにちは、サイオステクノロジーの佐藤 陽です。 今回もRAGの構築に関する記事を書いていきます! これまでも何本かRAGに関して書いてきましたが、 今回はそれらの集大成として、 PDFを外部情報とするRAGを実装し、Ragasで評価する ところまで、ソースコードと合わせて一挙ご紹介していこうと思います。 これを読めば、今日からRAGが構築ができるような記事になって

AWS Step Functions ワークフローによる Amazon Bedrock モデルカスタマイズの自動化

本投稿は Automating model customization in Amazon Bedrock with AWS Step Functions workflow (記事公開日: 2024 年 7 月 11 日) を翻訳したものです。 大規模言語モデルは、幅広いビジネスユースケースにおいて知的で的確な応答を生成するのに必須となっています。しかし、企業は独自のデータやユースケースを持っており、大規模言語モデルをそのままの状態で使うだけでは不十分で、カスタマ

生成 AI で加速する e コマースの変革 その 2 – AWS Summit Japan 2024 で展示した Amazon Bedrock デモの解説

みなさんこんにちは。シニアソリューションアーキテクトの堀内です。私は、日頃 e コマース(以下 EC ) 業界の企業様を支援しております。 本ブログでは以下 2回に分けて、EC業界における生成AI活用ユースケースについて解説をしています。 その 1:EC 業界における課題と生成 AI ユースケースによる解決案の整理 その 2:ユースケースの実装例として AWS Summit Japan 2024 で展

生成 AI で加速する e コマースの変革 その 1 – EC 業界における 4 大ユースケース紹介

みなさんこんにちは。シニアソリューションアーキテクトの堀内です。私は、日頃 e コマース(以下 EC ) 業界の企業様を支援しております。 EC におけるトレンドについてよくお客様とディスカッションをしますが、2024 年は生成 AI の関連の話題が多くトレンドになっています。 NRF2024 や re:Invent 2 023 等グローバルの動きを見ると EC 業界で具体的な業務改善や顧客体験向上と

AWS Summit Japan 2024 ヘルスケア・ライフサイエンス 展示ブース 開催報告

国内最大規模の学習型ITカンファレンスである AWS Summit Japan が、6 月 20 日(木)、21 日(金)の二日間に渡り幕張メッセで開催されました。今年は昨年よりもブース展示が拡充され、ヘルスケア・ライフサイエンス(HCLS)ブースでは、大きく製薬、ゲノミクス、医療業界の 3 つのカテゴリーに沿って展示を行い、お陰様で大勢のお客様にご来場いただきました。展示内容

AWS Trainium、AWS Inferentia が AWS 上の Llama 3.1 モデルに高性能と低コストを提供

本日、 AWS Trainium と AWS Inferentia による Llama 3.1 モデルのファインチューニングと推論のサポートを発表できることを嬉しく思います。Llama 3.1 ファミリーは、8B(80億)、70B(700億)、405B(4,050億)サイズの事前学習およびインストラクションチューニング済みの多言語大規模言語モデル(LLM)のコレクションです。 以前の投稿 では、 Amazon SageMaker JumpStart で AWS Trainium と Infe

Vertex AI Searchの新方式Answer APIを解説

G-gen 又吉です。当記事では、2024年6月に GA した Vertex AI Search の最新検索方式である Answer API について紹介します。 はじめに RAG とは Vertex AI Search Answer API 概要 メリット クエリフェーズ クエリ言い換え クエリ簡素化 マルチステップ推論 クエリ分類 検索フェーズ 回答フェーズ フォローアップ検索(マルチターン検索) 概要 セッション サンプルコード コード Tips クエリ

生成 AI アプリケーションのデータベース選択における重要な考慮事項

2024 年 1 月 4 日、データベースの講義で知られる CMU の Andy Pavlo 教授が 2023 年のデータベースレビュー を公開しました。主にベクトルデータベースの台頭に焦点を当てたものです。こうした革新的なデータストレージソリューションが注目を集めています。生成人工知能 (AI) モデルの人気が高まり続ける中、ベクトルストレージと検索機能を備えたデータベースに関心が寄

jinjer 株式会社様の AWS 生成 AI 活用事例 「人事系 SaaS における人事問い合わせ AI 機能の開発」

本ブログは jinjer 株式会社様と Amazon Web Services Japan 合同会社が共同で執筆いたしました。 みなさん、こんにちは。AWS ソリューションアーキテクトの呉です 。 昨今、多くのお客様から生成 AI の活用についてご相談いただくようになりました。本記事では、 Amazon Bedrock と Amazon Kendra を活用した、RAG (Retrieval Augmented Generation) の事例をご紹介します 。 RAG は、大規模言語モデ

GENIAC における計算リソース提供者として AWS が選定されました

2024年7月16日、 開発事業者の公募が開始 された「 GENIAC (Generative AI Accelerator Challenge) 」における計算リソース提供者として、AWS が選定されました。 GENIAC は、 経済産業省 と 国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) が推進する取り組みで、日本国内の生成 AI 基盤モデル開発力を底上げし、企業等の創意工夫を促すことを目的とするものです。今回の事

【事例】Gemini for Google Workspace を全社導入した理由と効果、そして乗り越えた壁

生成AI は莫大な学習データから新たな価値を生み出す そもそも、生成AIというのはどのような技術なのでしょうか。生成AIは、大量のデータを用いて新たなデータを生成する人工知能の技術を指します。この技術は、ディープラーニングと呼ばれる機械学習の一種を用いて、テキスト、画像、音声、動画などの新しいコンテンツを生成することができます。代表的な例とし

Amazon MemoryDB のベクトル検索を一般公開

7月10日、 Amazon MemoryDB のベクトル検索 の一般提供についてお知らせします。これは、インメモリパフォーマンスとマルチ AZ 耐久性を備えたリアルタイム機械学習 (ML) および 生成人工知能 (生成 AI) アプリケーションの開発用の新機能で、ベクトルの保存、インデックス作成、取得、検索に使用できます。 今回のリリースにより、Amazon MemoryDB は、Amazon Web Services (AWS) で人気

FastAPI で実装した API を、gcloud CLI で Cloud Run にデプロイする

AI事業本部 協業リテールメディア Div. の青見 (@nersonu) です。恐らく機械学習エン ...
技術ブログを絞り込む

TECH PLAY でイベントをはじめよう

グループを作れば、無料で誰でもイベントページが作成できます。情報発信や交流のためのイベントをTECH PLAY で公開してみませんか?