CentOS
イベント
該当するコンテンツが見つかりませんでした
マガジン
該当するコンテンツが見つかりませんでした
技術ブログ
SCSK LifeKeeper担当 池田です。 HAクラスタウェアには、様々な製品が巷にあふれています。 その中からどの製品を選定したら良いかという点は、皆さんの悩みどころかと思います。 SCSKでは様々なHAクラスタウェアの構築実績がありますが、その豊富な経験をもとに、いくつかのHAクラスタウェア製品とLifeKeeperとの機能の比較をしてみようと思います。 HAクラスタウェア製品の機能比較 HAクラスタウェア製品とLifeKeeperとを機能の違いで評価してみました。 機能 LifeKeeper A社製 B社製 備考 価格 – – – 構成により異なる為、記載を控えます 対応アプリケーション ◎ 主要ミドルウェア用有償オプション製品有。その他のミドルウェアもQSP(QuickServerProtection)やGenericARKで容易に対応可 〇 DBなど一部主要ミドルウェアに対応したオプション製品有。ただしほとんどがスクリプト作成が必要 △ スクリプト作成が必須 SLA 〇 99.99%のフォールトレジリエンス稼働レベル 〇 99.99%のフォールトレジリエンス稼働レベル 〇 99.99%のフォールトレジリエンス稼働レベル 構成の自由度 ◎ オンプレミス、仮想(vSphere)、パブリッククラウド対応のオプション製品有 △ 手組のスクリプト作成が必要 △ 手組のスクリプト作成が必要 対応OS ◎ Redhat Enterprise Linux Windows Server SUSE Linux Oracle Linux CentOS など多数 ◎ Redhat Enterprise Linux Windows Server SUSE Linux Oracle Linux CentOS Ubuntu など多数 △ 特定のOSに限定 サポート ◎ 24265 日本語サポート有 ◎ 24365日本語サポート有 △ 英語サポートのみ 運用 ◎ 管理GUIで表示が判りやすい 手動での系切り替えも用意 ◎ 管理GUIはあるが、慣れが必要 △ 管理GUIはあるが、どちらがActiveサーバなのか判りづらい HAクラスタウェア製品は、20年以上前から存在していますので、製品によってそれ程大きな機能の差異はないのではと言われることが多いですが、上記の表のように実はLifeKeeperは優秀な製品なのです! 「SCSKはLifeKeeperを扱っているから評価が高いだけでしょ」という声も聞こえてきそうですが、冒頭にも書かせていただいた通り、SCSKではこれまで様々なHAクラスタウェアを設計、構築してきましたが、その経験から申し上げてもLifeKeeperは、非常にバランスの取れた製品であると感じています。 様々なアプリケーションに対応したオプション製品がメーカーから用意されていて、管理GUIの視認性が良く、どちらのサーバがアクティブになっているか、手動でスイッチオーバが必要な際にも、直感的な操作で実施できるため、運用性の高い製品となっています。 HAクラスタウェアを選定する際のご参考にしていただけると幸いです。 まとめ 今回は、HAクラスタウェアの製品比較をしてみました。大人の事情で製品名を書けず申し訳ありませんが、LifeKeeperの良さが少しでも伝わればと思います。 LifeKeeperについて、詳しい内容をお知りになりたいかたは、以下のバナーからSCSK LifeKeeper公式サイトまで
この連載では、ヤマハ 仮想ルーター vRXをさくらのクラウドで検証する環境を構築いたします。「ヤマハ vRX さくらのクラウド版」がどのように動作するのかや検証費用について説明していきます。皆さんも検証環境を作って、いろ […]
概要 こちらの記事 では既存のOpenShift上でコンテナとVMを統合管理することが出来るOpenShift Virtualization(以降、OCP-Virt)ついて紹介しました。 本記事では、実際にAWS環境のOpenShift上でOCP-Virtを構築し、簡単なVMの作成と外部公開を行ってみたいと思います。 次回の記事では、同じ仮想化基盤であるSUSE VIrtualizationの紹介をします。 前提条件 構築時の前提条件を以下に記載します。 AWS環境でOpenShift v 4.17クラスターが構築済みであること cluster-admin 権限および Operator インストール権限を持つアカウントを使用して OpenShift クラスターにアクセスできること 作業端末に下記Cliがインストール済みであること oc virtctl ベアメタルインスタンスのノードを追加する必要があるため、従量課金の料金には自己責任で気を付けてください 事前準備 OpenShift Virtualization用ノードの追加 AWS環境のOpenShiftへのノード追加方法を詳しく書いた記事があるので、詳細はこちらの記事を読んでください。 OpenShift(AWS)へのノード追加 OpenShift OperatorHub で Administrator のパースペクティブにいることを確認します。 Web コンソールで[コンピュート] > [MachineSets]に移動します。 [MachineSetの作成] をクリックします。 入力フォームにMachineSet の yaml を記述し、[作成]をクリックします。 MachineSet.yaml apiVersion: machine.openshift.io/v1beta1 kind: MachineSet metadata: labels: machine.openshift.io/cluster-api-cluster: <infrastructure_id> name: <infrastructure_id>-<role>-us-east-2a-baremetal namespace: openshift-machine-api spec: replicas: 1 selector: matchLabels: machine.openshift.io/cluster-api-cluster: <infrastructure_id> machine.openshift.io/cluster-api-machineset: <infrastructure_id>-worker-us-east-2a template: metadata: labels: machine.openshift.io/cluster-api-cluster: <infrastructure_id> machine.openshift.io/cluster-api-machine-role: <role> machine.openshift.io/cluster-api-machine-type: <role> machine.openshift.io/cluster-api-machineset: <infrastructure_id>-worker-us-east-2a spec: metadata: labels: node-role.kubernetes.io/<role>: "" providerSpec: value: ami: id: ami-08997afda521c28fa apiVersion: awsproviderconfig.openshift.io/v1beta1 blockDevices: - ebs: iops: 0 volumeSize: 120 volumeType: gp2 credentialsSecret: name: aws-cloud-credentials deviceIndex: 0 iamInstanceProfile: id: <infrastructure_id>-worker-profile instanceType: c5n.metal kind: AWSMachineProviderConfig placement: availabilityZone: us-east-2a region: us-east-2 securityGroups: - filters: - name: 'tag:Name' values: - <infrastructure_id>-node - filters: - name: 'tag:Name' values: - <infrastructure_id>-lb subnet: filters: - name: tag:Name values: - <infrastructure_id>-subnet-private-us-east-2a tags: - name: kubernetes.io/cluster/<infrastructure_id> value: owned userDataSecret: name: worker-user-data 変更点 <infrastructure_id>:<クラスター名>-<ランダム文字列> infrastructure_idは以下のコマンドで確認するか、既存のマシンセットのyamlを見て確認してください。 $ oc get infrastructure cluster -o jsonpath='{.status.infrastructureName}' ocp-test-sp9lv <role>:worker metadata.name:マシンセットの名前(既存のマシンセットの名前と被るとエラーが出るので注意) instanceType:c5n.metal(ベアメタルインスタンスが要件となるため、ベアメタルインスタンスタイプを選択) ami.id:ami-08997afda521c28fa(インスタンスタイプに対応したRHCOSのAMI) MachineSet が作成されていることを確認します。しばらくした後(少なくとも10分以上はかかる印象があります)、利用可能数がspec.replicasで設定したマシン1台になっていることを確認します。 OpenShift Data Foundation インストール VMに永続・分散ストレージを提供するためにはOpenShift Data Foundationを導入する必要があります。これは、VMのマイグレーションを行うためには必須となります。ただし、ノードを3台追加する必要があるため、お試しでOCP-Virtを使ってみたいといった際はOpenShift Data Foundationを導入しなくても問題ありません。 OpenShift Data Foundation 用ノードの追加 上記のOpenShift Virtualization用ノードの追加と同じ手順でOpenShift Data Foundation 用ノードの追加を行います。MachineSetのyamlと変更点は下記になります。 MachineSet.yaml apiVersion: machine.openshift.io/v1beta1 kind: MachineSet metadata: labels: machine.openshift.io/cluster-api-cluster: <infrastructure_id> name: <infrastructure_id>-<role>-us-east-2a-odf namespace: openshift-machine-api spec: replicas: 3 selector: matchLabels: machine.openshift.io/cluster-api-cluster: <infrastructure_id> machine.openshift.io/cluster-api-machineset: <infrastructure_id>-worker-us-east-2a template: metadata: labels: machine.openshift.io/cluster-api-cluster: <infrastructure_id> machine.openshift.io/cluster-api-machine-role: <role> machine.openshift.io/cluster-api-machine-type: <role> machine.openshift.io/cluster-api-machineset: <infrastructure_id>-worker-us-east-2a spec: metadata: labels: node-role.kubernetes.io/<role>: "" providerSpec: value: ami: id: ami-08997afda521c28fa apiVersion: awsproviderconfig.openshift.io/v1beta1 blockDevices: - ebs: iops: 0 volumeSize: 120 volumeType: gp2 credentialsSecret: name: aws-cloud-credentials deviceIndex: 0 iamInstanceProfile: id: <infrastructure_id>-worker-profile instanceType: m6a.2xlarge kind: AWSMachineProviderConfig placement: availabilityZone: us-east-2a region: us-east-2 securityGroups: - filters: - name: 'tag:Name' values: - <infrastructure_id>-node - filters: - name: 'tag:Name' values: - <infrastructure_id>-lb subnet: filters: - name: tag:Name values: - <infrastructure_id>-subnet-private-us-east-2a tags: - name: kubernetes.io/cluster/<infrastructure_id> value: owned userDataSecret: name: worker-user-data 変更点 <infrastructure_id>:<クラスター名>-<ランダム文字列> infrastructure_idは以下のコマンドで確認するか、既存のマシンセットのyamlを見て確認してください。 $ oc get infrastructure cluster -o jsonpath='{.status.infrastructureName}' ocp-test-sp9lv <role>:worker metadata.name:マシンセットの名前(既存のマシンセットの名前と被るとエラーが出るので注意) instanceType:m6a.2xlarge(3台の合計リソースが要件を満たすインスタンスタイプを選択) ami.id:ami-08997afda521c28fa(インスタンスタイプに対応したRHCOSのAMI) OpenShift Data Foundation Operatorインストール OpenShift OperatorHub で Administrator のパースペクティブにいることを確認します。 Web コンソールで[Operators] > [OperatorHub]に移動します。 検索バーに「OpenShift Data Foundation」と入力して、 OpenShift Data Foundation をクリックして Install をクリックします。 デフォルトの設定で Install をクリックします。 Operatorのインストール完了確認 [インストール済みの Operator]に OpenShift Data Foundation、OpenShift Data Foundation Clientが存在しており、ステータスがSucceededになっていることを確認します。 OpenShift Data Foundation をクリックして Storage System を作成します。 パラメータを入力できる画面に遷移しない場合はWeb コンソールを再読み込みする デフォルトの設定で Install をクリックします。 下記コマンドを実行して StorageClass:ocs-storagecluster-ceph-rbd、ocs-storagecluster-cephfs、openshift-storage.noobaa.io が作成されていることを確認します。 $ oc get storageclass NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE gp2-csi ebs.csi.aws.com Delete WaitForFirstConsumer true 5h45m gp3-csi (default) ebs.csi.aws.com Delete WaitForFirstConsumer true 5h45m ocs-storagecluster-ceph-rbd openshift-storage.rbd.csi.ceph.com Delete Immediate true 4m17s ocs-storagecluster-cephfs openshift-storage.cephfs.csi.ceph.com Delete Immediate true 4m9s openshift-storage.noobaa.io openshift-storage.noobaa.io/obc Delete Immediate false 78s OCP-Virt 構築 OpenShift Virtualization Operatorインストール OpenShift OperatorHub で Administrator のパースペクティブにいることを確認します。 Web コンソールで[Operators] > [OperatorHub]に移動します。 検索バーに「OpenShift Virtualization」と入力して、 OpenShift Virtualization をクリックして Install をクリックします。 デフォルトの設定でInstall をクリックします。 Operatorのインストール完了確認 [インストール済みの Operator]に OpenShift Virtualizationが存在しており、ステータスがSucceededになっていることを確認します。 OpenShift Virtualization をクリックして HyperConverged を作成します。 デフォルトの設定で Install をクリックします。 ステータスに Available が表示されていることを確認します。 下記コマンドを実行して StorageClass:ocs-storagecluster-ceph-rbd-virtualization が作成されていることを確認します。 $ oc get storageclass NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE gp2-csi ebs.csi.aws.com Delete WaitForFirstConsumer true 3h23m gp3-csi (default) ebs.csi.aws.com Delete WaitForFirstConsumer true 3h23m ocs-storagecluster-ceph-rbd openshift-storage.rbd.csi.ceph.com Delete Immediate true 4m12s ocs-storagecluster-cephfs openshift-storage.cephfs.csi.ceph.com Delete Immediate true 4m4s openshift-storage.noobaa.io openshift-storage.noobaa.io/obc Delete Immediate false 3m16s ocs-storagecluster-ceph-rbd-virtualization openshift-storage.rbd.csi.ceph.com Delete Immediate true 0s 簡単なVMの作成 OpenShift OperatorHub で Administrator のパースペクティブにいることを確認します。 Web コンソールで[Virtualization] > [VirtualMachines]に移動します。 [Create VirtualMachines] > [From template] をクリックします。 プロジェクトの選択、作成する必要があれば作成して作成対象のOSをクリックします。右上にSource availableと書いてあるOSが簡単に作成可能です。今回はCentOS Stream 9 VMを選択してみます。 デフォルトの設定で[Quick Create VirtualMachines] をクリックします。 数分後、ステータスがRunningであることを確認します。 [Console]タブへ移動し、[Guest login credentials]をクリックしてログイン情報を取得後、コンソールからVMにログインします。「i」キーを押すとinsert modeに入ります。insert modeを抜けるには、「ESC」キーを押します。 コンソールから下記コマンドを実行してパッケージのインストールをします。 $ sudo dnf install nginx ... Complete! コンソールから下記コマンドを実行してNginxを起動します。 $ sudo systemctl start nginx コンソールから下記コマンドを実行してnginxが起動していることを確認します。 $ sudo systemctl status nginx ... Active: active (running) ... VMの外部公開設定 下記コマンドを実行してVMが作成されているプロジェクトに移動します。 $ oc project <プロジェクト名> Now using project "<プロジェクト名>" on server "https://api.<ドメイン>:6443". 下記コマンドを実行し、パラメータシートを参照してServiceのマニフェストファイルを作成します。 $ vi service.yaml apiVersion: v1 kind: Service metadata: name: vm-service namespace: vm-tutorial spec: selector: kubevirt.io/domain: centos-stream9-moccasin-bandicoot-85 # VM名を指定 ports: - protocol: TCP port: 80 targetPort: 80 # Nginxのリッスンポート 下記コマンドを実行してserviceを作成します。 $ oc apply -f service.yaml service/nginx-service created 下記コマンドを実行して作成したserviceを公開します。 $ oc expose service vm-service route.route.openshift.io/vm-service exposed 下記コマンドを実行してrouteが作成されていることを確認します。 $ oc get route NAME HOST/PORT PATH SERVICES PORT TERMINATION WILDCARD vm-service vm-service-vm-tutorial.apps.<ドメイン> vm-service 80 None VMの疎通確認 表示されたホストにアクセスしてnginxの画面が表示されることを確認します。 まとめ 実際にAWS環境のOpenShift上でOCP-Virtを構築し、簡単なVMの作成と外部公開を行ってみました。OCP-VirtはOperaterのインストールを行うことで簡単に仮想化基盤を構築することが出来ました。 次回の記事では同じ仮想化基盤であるSUSE VIrtualizationの紹介をします。 参考文献 https://docs.redhat.com/ja/documentation/openshift_container_platform/4.17/html/virtualization/index https://docs.redhat.com/ja/documentation/red_hat_openshift_data_foundation/4.17/html/deploying_openshift_data_foundation_using_amazon_web_services/index ご覧いただきありがとうございます! この投稿はお役に立ちましたか? 役に立った 役に立たなかった 0人がこの投稿は役に立ったと言っています。 The post OpenShift Virtualization 構築してみた first appeared on SIOS Tech. Lab .
動画
該当するコンテンツが見つかりませんでした








