大規模言語モデル(LLM)

大規模言語モデル(LLM: Large Language Model)は人工知能の一種であり、大量のテキストデータを学習して言語に関する知識を獲得する機械学習モデルです。自然言語処理の分野でとても重要な役割を果たしています。

イベント

注目のイベント

御社のDevin、何してる? 各社の事例に学ぶ!組織の一員としての付き合い方
2日間で学ぶデザイナーのためのAdobe IllustratorスクリプトとLLMによる次世代ワークフロー入門
ゼロからはじめるDify入門講座
Difyアプリ開発講座「お問い合わせ対応を自動化しよう」
【社名変更記念】キザシオソリューションフェア2025~AIエージェントがひらく次世代DX~ リアル会場とオンラインのダブル開催!【7月1~3日 参加無料】
AIエージェントの業務活用に向けた導入方法と注意点

マガジン

技術ブログ

比較的安全にMCPサーバを動かす

KEELチーム の相原です。 前回のエントリは「小さい経路最適化ミドルウェアを実装してあらゆるAZ間通信を削減する」でした。 www.lifull.blog 今回は、MCPサーバを比較的安全に動かすために色々やってた話を書きたいと思います。 MCPについて MCPサーバのリスク なるべくローカルで動かさない ローカルではせめてDockerで動かす 無理やりHTTP Transportに対応する セッションの開

Elasticsearch でのメタデータを活用した検索

目次 1. 前書き 対象者 できるようになること 前提条件 2. メタデータ 2.1. メタデータとは? 2.2 メタデータを考慮しない検索 2.3. メタデータを活用した検索 3. メタデータによるフィルタリングを考慮した検索テンプレート 4. サンプルソース 5. 実行例 5.1. メタデータを使わずに検索した場合 5.2. メタデータを活用して検索した場合 5.3. メタデータを使わずにRAGを行った場合

Cloud RunでGemma 3を動かしてみた

G-gen の佐々木です。当記事では、Cloud Run における GPU 利用のユースケースとして、オープン LLM である Gemma 3 を Cloud Run のサービスにデプロイしてみます。 前提知識 Cloud Run サービスの概要 Cloud Run における GPU 利用 Gemma 3 Cloud Run にオープン LLM をデプロイするメリット 利用する Gemma 3 モデルのサイズと配置場所について 事前準備 GPU の割り当て増加 シェル変数の設定 Artifa

動画

書籍