「OpenShift」に関連する技術ブログ
企業やコミュニティが発信する「OpenShift」に関連する技術ブログの一覧です。
全35件中 1 - 15件目
OpenShift AIとOpenShift Dev Spaces連携 ~コード生成AIで楽々開発~
2025/03/14
ブックマーク
はじめに こんにちはサイオステクノロジーの小野です。今回はOpenShift AIにデプロイしたLLMをVSCodeと連携させて、コード生成AIを利用する方法について解説します。また、VSCodeはOpenShift上で構築できるOpenShift Dev Spacesを利用します。これにより非接続環境でのコーディングでもAIによるコード支援を受けることができるようになります。 OpenShift Dev Spacesについて OpenShift上でア
コンテナプラットフォームで活用出来るストレージサービス(ODF / Longhorn / MinIO )とは?
2025/03/12
ブックマーク
はじめに Kubernetes環境でのストレージ管理は、アプリケーションの可用性やスケーラビリティに大きく関わります。 本記事では、Kubernetes向けの代表的なストレージソリューションである ODF(Red Hat OpenShift Data Foundation)・Longhorn・MinIO の3つを紹介し、それぞれの特徴や用途について解説します。 各ストレージソリューションの概要 ODF(OpenShift Data Foundation) ODF(OpenShift Data
SUSE Virtualization とは?
2025/03/07
ブックマーク
概要 前回は、既存のコンテナプラットフォーム上でコンテナとVMを統合管理することが出来るOCP-Virtについてご紹介しました。今回も同じようにプラットフォーム上でコンテナとVMを統合管理することが出来るSUSE Virtualization(以降、SUSE-Virt)についてご紹介します。 前回の記事は こちら 今回紹介するSUSE-Virtは、クラウドネイティブ環境向けに設計されたHCIソリューション
OpenShift AIとOpenShift Lightspeedを連携してみた
2025/03/06
ブックマーク
はじめに こんにちはサイオステクノロジーの小野です。 以前の記事 で、Azure OpenAIのLLMをLightspeedと連携する方法について解説しました。今回はOpenShift AIにデプロイしたLLMをLightspeedと連携させる方法について解説します。 OpenShift AIとOpenShift Lightspeed連携 OpenShift Lightspeeedを利用する上で、OpenShift AIのようなローカル環境にデプロイしたLLMと連携する場合と、Azure OpenAIのよう
OpenShift Virtualization 構築してみた
2025/02/26
ブックマーク
概要 こちらの記事 では既存のOpenShift上でコンテナとVMを統合管理することが出来るOpenShift Virtualization(以降、OCP-Virt)ついて紹介しました。 本記事では、実際にAWS環境のOpenShift上でOCP-Virtを構築し、簡単なVMの作成と外部公開を行ってみたいと思います。 次回の記事では、同じ仮想化基盤であるSUSE VIrtualizationの紹介をします。 前提条件 構築時の前提条件を以下に記載し
企業のDXを支えるコンテナプラットフォームに求められる重要なポイント解説
2025/02/21
ブックマーク
はじめに 近年、コンテナ技術は企業のITインフラにおいて不可欠な存在となりました。 アプリケーションの開発・運用をスムーズにする一方で、適切に管理しなければスケールやセキュリティの課題が発生します。 前回の記事でコンテナプラットフォームの概要として紹介した代表的なものとして Red Hat OpenShift や SUSE Rancher などがあり、Kubernetesを基盤としながら、運用
Red Hat OpenShift Virtualization とは?
2025/02/12
ブックマーク
概要 現在のIT業界では、DXが進む中でコンテナ技術とKubernetesが注目されています。 vSphereなどの仮想化基盤を使用して仮想マシン(以降、VM)を運用している企業も多い中、VMとコンテナを統合管理したいというケースや、VMをコンテナにして既存のコンテナプラットフォームで扱いたいというケースなども出てくるかと思います。 しかし、VMをコンテナ化する際に、仮想化
OpemShift AIにLLMをデプロイしてみた
2025/02/07
ブックマーク
はじめに こんにちはサイオステクノロジーの小野です。 前回 はシングルモデルサービング環境の構築を行い、LLMをデプロイする方法を解説しました。今回はHugging Face HubからLLMをダウンロードし、そのLLMをOpenShift AIにデプロイして、LLM APIを利用する方法を解説します。 公開LLM 有名な公開LLM Llama3 Meta社が開発したLLMです。軽量かつ高精度なモデルでオープンでありながらG
クラウドネイティブ環境を支える主要コンテナプラットフォームの特徴解説
2025/02/07
ブックマーク
現在クラウドネイティブ技術が発展する中で、様々なアプリケーションの基盤としてKubernetesを中心としたプラットフォームが重要な役割を果たしています。 特に OpenShift、Rancher、VMware Tanzu などのソリューションは、企業のKubernetes環境を支える主要な選択肢として注目されています。 本記事では、それぞれの特徴や違いを分かりやすく解説します。 1. OpenShift(オープン
OpenShift Serverless を構築してみた
2025/01/31
ブックマーク
前回の記事 では、サーバーレスアーキテクチャを実現するためのOpenShift Serverlessについて解説しました。今回は、OpenShift Serverless を実際に構築したいと思います。 Red Hat Developer のチュートリアル を参考にOpenShift Serverlessのサンプルアプリケーションをデプロイ、挙動の確認を行っていきます。 事前準備 下記コマンドを実行して作業端末にkn CLIをインストールします(バ
Google Cloud に OpenShift をデプロイする
2025/01/24
ブックマーク
クラウドエースの岸本です。 この記事では Google Cloud の Compute Engine を利用して OpenShift Container Platform 4.17 をデプロイする手順を解説します。 公式のドキュメントを参考にしながら、構築していきます。 ! この記事は、Google Cloud 上に検証用に OpenShift をデプロイするための手順を記載しています。 クラスタ設計や通信のセキュリティ設定などを考慮していないため、本番環
OpenShift Lightspeedを使ってみた
2025/01/23
ブックマーク
はじめに こんにちはサイオステクノロジーの小野です。 前回 はOpenShift LightspeedというAIチャットアシスタント機能の構築方法について説明しました。今回はそのOpenShift Lightspeedを使って数々の問題を解決する様子をお届けします。なお2025年1月23日の現時点ではテクノロジープレビューのため、不具合や正式版と異なる場合があることにご了承ください。 OpenShift Lightspeed使
OpenShift Lightspeedを構築してみた
2025/01/23
ブックマーク
はじめに こんにちはサイオステクノロジーの小野です。今回はOpenShift Lightspeedを構築する方法を解説します。この機能はコンテナプラットフォームの複雑な機能や操作を手助けしてくれます。なお2025年1月23日の現時点ではテクノロジープレビューのため、不具合や正式版と異なる場合があることにご了承ください。 OpenShift Lightspeedとは OpenShift LightspeedはOpenShift Webコンソー
OpenShift AIブログまとめ
2024/12/25
ブックマーク
はじめに こんにちはサイオステクノロジーの小野です。これまでOpenShift AIについての記事を多数書いてきたのでそれらのリンクを整理します。 OpenShift AI概要 OpenShift AIについてざっくりとした説明をしています。まずはこちらの記事を見てOpenShift AIとは何なのか知ってください。 Red Hat OpenShift AIとは? OpenShift GPU設定 OpenShift AIとは直接関係ありませんが、OpenShift AIでGPUを
OpenShift AIのデータサイエンスパイプラインについて
2024/12/25
ブックマーク
はじめに こんにちはサイオステクノロジーの小野です。 前回 はOpenShift AIのモデルサービング機能を用いて、推論APIを実装しました。今回はOpenShift AIのもう一つの重要な機能であるデータサイエンスパイプラインを実装します。パイプラインを利用することでモデル開発を高速化することが可能になります。MLOpsの実現には欠かせない機能なので、しっかり実装できるよう