TECH PLAY

株匏䌚瀟スクりェア・゚ニックス

株匏䌚瀟スクりェア・゚ニックス の技術ブログ

å…š99ä»¶

こんにちは。スク゚ニのむギリス支瀟、ロンドンオフィスで働くペシダタツオです。アナリティクス&むンサむト郚眲のデヌタサむ゚ンス郚を担圓しおいたす。デヌタずAIでスク゚ニのファンずゲヌムの関係性を深めるしくみを䜜っおいたす。 スク゚ニ欧州拠点ではGoogle Cloudを掻甚しおカスタマヌデヌタプラットフォヌム(CDP)の開発・運甚を行っおいたす。先日、この取り組みに぀いおGoogle Cloud䞻催のGoogle Cloud Next London 2023にお発衚したした。今回は、そこでの発衚内容を日本語でも共有するために、このIT゚ンゞニアブログに寄皿するこずにしたした。 カスタマヌデヌタプラットフォヌム(CDP)ずは CDPはビゞネス党䜓のデヌタを収集し掻甚しおいくシステムです。䞀般的には、お客様䞀人ひずりのデヌタを収集し、管理し、分析するだけでなく、マヌケティングやプロモヌションに掻甚したす。 スク゚ニ欧州拠点のCDP開発の経緯 ロンドンのアナリティクス&むンサむト郚眲は、2009幎にスク゚ニに買収されたアむドスずいうゲヌム開発䌚瀟のデヌタ分析チヌムのルヌツを持ちたす。アむドスは2007幎にゲヌムプレむデヌタの収集、分析、機械孊習の適甚をゲヌム業界においおいち早く導入し、スク゚ニに統合埌もその掻動を継続しおいたす。 2007幎圓時、デヌタ分析基盀ずしおMicrosoft SQL Serverを利甚しおいたしたが、2013幎頃にゲヌムのオンラむン化に䌎うデヌタ量の増加に䌎いPlutoずいうAWSベヌスの内補システムに移行したした。 CDP開発の盎接のきっかけの䞀぀は2018幎に導入された新しいプラむバシヌ法(GDPR)でした。それ以前に䞻流であったマヌケティング手法は、ナヌザヌデヌタを提䟛する䌚瀟やそれを掻甚するデヌタ連動型の既成゜リュヌション(䟋えば、Data Management Platformなど)に䟝存しおいたした。しかし、GDPRの導入によりこれらの手法が制限され、自瀟でデヌタを集める必芁性に盎面したした。その結果、既存のゲヌムデヌタ分析システムであるPlutoを眮き換える圢で、Google CloudをベヌスずしたSingle Gamer View(SGV)ずいうシステムが開発され、マヌケティングデヌタ、ナヌザヌデヌタ、ゲヌムデヌタが䞀元化されたした。 CDPの分析掻甚・アクティベヌション デヌタを統合するこずで、ナヌザヌの行動のすべお、぀たりメヌルや広告ぞのクリック、賌入、ゲヌムプレむからリテンションたでを分析できるようになりたした。さらに、ゲヌムは倚くの人にずっお生涯にわたる情熱であるこずも螏たえ、510幎単䜍でのナヌザヌ゚ンゲヌゞメントの分析も行っおいたす。 たた、このシステムはマヌケティングオヌトメヌションずファンずの関係構築を提䟛するeCRM CDP機胜を実珟しおいたす。䞀方、゜ヌシャルチャネルやメディアのアクティベヌションぞは既成のCDPをコネクタヌずしお掻甚するこずで察応しおいたす。 AIドリブン・マヌケティング CDPの本圓の䟡倀は、単にデヌタを分析するだけでなく、ナヌザヌ゚ンゲヌゞメントの向䞊に圹立おるこずにありたす。デヌタサむ゚ンスチヌムでは「旧䜜ゲヌムの䜓隓版のレコメンド」、「プレむ䞭のゲヌムの継続促進」、「プレむスタむルの理解ず適切なメッセヌゞング」などを行っおいたす。 マヌケティングオヌトメヌションずフィヌドバックルヌプ ナヌザヌデヌタに各皮行動デヌタが玐づくこずで、実際のナヌザヌの行動をトリガヌずしたコミュニケヌションが自動で行えるようになり、マヌケティングオヌトメヌションが実珟したした。さらに、メッセヌゞを受け取った人の゚ンゲヌゞメントが向䞊したかどうか、䟋えばプレむを止めたゲヌムを再床起動したかどうかがフィヌドバックされ、自動でメッセヌゞが最適化されおいきたす。 䜓隓版のレコメンド スク゚ニの旧䜜のカタログは豊富にありたすが、その数はあたりにも倚く、ナヌザヌが遊びたいゲヌムず巡り合えないずいうこずを課題ず感じおいたす。その課題の解決のため、今遊んでいるゲヌムのストヌリヌをクリアしたこずをゲヌムデヌタから怜知したタむミングで個人に合わせたタむトルの䜓隓版のレコメンデヌションを行う仕組みを運甚しおいたす。モデルは、レコメンドした䜓隓版が実際にプレむされたかどうかや、プレむ時間をフィヌドバックずしお受け取り、孊習し、最適化したす。 プレヌダヌの継続・埩垰の向䞊 ゲヌムを賌入しおもらっお終わりではなく、実際にプレむしおもらい、その魅力を䜓感しおもらうこずが、ファンずの長期的な関係構築に぀ながるず考えおいたす。 そこでプレむスタむルや奜みのキャラクタヌ、興味を持぀コンテンツを特定し、プレむダヌのニヌズに合わせた個別のコミュニケヌションを行っおいたす。䟋えば、PvPを奜むプレむダヌにPvPコンテンツの最新情報を提䟛するこずで、プレヌダヌの゚ンゲヌゞメントや継続率を高めるこずができたす。実際、このデヌタドリブンなアプロヌチを導入した埌、特定のゲヌムにおいお継続・埩垰するプレむダヌが倧幅に増加したした。 2024幎のマヌケティングROI枬定Cookie芏制ずMMM掻甚 デゞタル広告のプラむバシヌ芏制が厳しくなり、特にサヌドパヌティCookieの段階的廃止が進む䞭、マヌケティング費甚察効果の枬定が難しくなっおいたす。その結果、マヌケティングミックスモデリングMMMが再泚目されおいたす。MMMは、様々なマヌケティング斜策が売䞊に䞎える圱響を掚定し、それぞれの斜策の貢献床を評䟡するために䜿甚される叀兞的な統蚈手法です。 瀟内でデヌタが䞀元化されおいない堎合は、MMMプロゞェクトは必芁なデヌタの定矩、デヌタ保管堎所の特定・手配、デヌタクリヌニングや敎圢など、モデリングの準備段階だけで数か月を芁するものでした。 珟圚はCDP䞊にデヌタが統合管理されおいるため、必芁なデヌタに即座にアクセスし、玠早くモデルのPoC䜜業に着手するこずができるようになりたした。たた、Google Cloudを採甚しおいるこずで、Supermetricsずいったデヌタの䞀元化ツヌルや、Google Trendのトレンドデヌタぞのアクセスが容易になり、モデルの粟床を高めおいたす。 Single Gamer ViewのCDP機胜の技術的なセットアップ 基本的にはGoogle Cloudのサヌビス、特にサヌバヌレスず呌ばれるサヌバヌ管理が䞍芁なサヌビスを遞んで構築するこずで、少人数での運甚を実珟しおいたす。 デヌタ゜ヌス: ゲヌム、 GA360、メンバヌシップ、メヌル、セヌルス、りェブ広告(Supermetrics) パむプラむン: Pub/Sub、 Dataflow、 BigQuery ナヌザヌアクティベヌション: Vertex AI (もしくはCI/CD Docker->GKE)からメヌルやりェブ広告にナヌザヌリストを共有 チヌム間の連携ずAIシステムのアゞャむルリリヌス ブランドマネゞャヌ、コミュニティマネゞャヌ、デヌタアナリスト、デヌタサむ゚ンティスト、デヌタ゚ンゞニア、デヌタプロテクションたで、異なる郚眲間の連携䜓制を䜜り、組織ずしおAI掻甚に挑戊しおいたす。プロゞェクトは通垞、デヌタアナリストがプロゞェクトの提案曞を䜜成しプロゞェクトの䟡倀を詊算するこずから始たりたす。その埌、コミュニティマネヌゞャヌやブランドチヌムがレビュヌし、プレむダヌやコミュニティのニヌズに合っおいるか確認したす。
こんにちは、ホシむです。 近幎、“オンプレ回垰” ずいう蚀葉がよく聞かれるようになりたした。 人々 (ずシステム) は、クラりドからオンプレに垰っおきおいるのでしょうか? オンプレ回垰ずいう話題においお、堎合によっお話題の䞭心が必ずしも合臎しおいないこずもあるように感じおいたす。倧きくは、実際にクラりドからオンプレに移行を実斜する・した人の芳点ず、それを倧きな珟象ずしお芳察しおいる人の芳点の差でもあるように思いたす。 今日は、これをじぶんの考えずしおたずめるべく曞き出しおみたす。 (芋聞きした情報の圱響が倚分に含たれたす。いく぀か末尟に参考にさせおいただいた情報ぞの参照を眮いおおきたす) “オンプレ回垰” は増加しおいる たずここで蚀うオンプレに぀いお、自前で管理するむンフラのこずを指しおいるずしたす。䌚瀟のフロアやサヌバヌルヌム、借甚しお専有管理するデヌタセンタヌの䞀角なども含たれるでしょう。 そのオンプレぞ “回垰” ずいうこずですから、オンプレに垰っおきおいるずいうこずです。垰っおきた (くる) ずいうこずは、その前にどこかに行っおいた (いる) ずいうこずです。その倚くは、クラりド、より正確にはパブリッククラりドからの回垰でしょう。 珟圚のパブリッククラりド垂堎は幎々成長し、利甚者・利甚量はただただ増加しおいる途䞊です。数幎も逆䞊るず、パブリッククラりドに行くシステムも今ほど倚くはありたせんでしたし、戻るにしおもただ刀断が早すぎるタむミングでした。 必然的に、クラりド移行が進行しおある皋床期間がたった今だからこそ回垰の数もたた増えおいるずいう芋方もできるでしょう。それが目立っお、オンプレ回垰が過剰に・想像以䞊に増加しおいるずずらえられおいる面もあるのではないでしょうか。 ここで蚀うクラりドずは? さおここで、回垰の元である、クラりドに぀いお考えおみたしょう。 それらの倚くは、䞊に曞いたようにパブリッククラりドだったず思われたす。芁するに、AWS や Google Cloud、Azure などです。他にもたくさんありたす。 それずは別に、プラむベヌトクラりドずいう区分もありたす。これはパブリッククラりド同様に他所で間借りをするものもありたすが、オンプレ (に区分される蚭備) に構築する堎合も倚く、区分的にはオンプレ偎 (もしくはそのもの) ず考えるべきでしょう。 ずころで、最近はクラりドネむティブずいう蚀葉も倚く甚いられるようになりたした。これはシステムの眮き堎所に関係なくクラりドらしい蚭蚈・運甚をするこずを指す蚀葉であり、むンフラを指しおの “クラりドからの移行” のような文脈で䜿われるものずは違いたす。埌でも觊れたすが、オンプレ回垰するにあたっおもクラりドネむティブは共存できるものです。 回垰の理由 倚くがパブリッククラりドからの回垰を指しおいるずしお、その理由は䜕でしょうか。 以䞋が倚いず考えられたす。(たた、䞖間で蚀われおいるようです) 費甚 セキュリティ・ガバナンス 性胜・品質 これらがクラりドぞ移行する以前のほうが優れおいた、たたはクラりドで思ったような改善・効果が埗られなかったから回垰するずいうこずでしょう。 ここで出おくる問題は、かなり耇雑です。 䞊蚘はいずれも、クラりドぞの移行を詊みる際に詊算したりプランニングしたりするものですが、移行元での利甚方法ずおなじような想定をしおいなかったかずいうのがひず぀、重芁な確認ポむントです。 たずえば、費甚で蚀うず。オンプレ蚭備は枛䟡償华期間を定めお、䞀定の期間で䜿甚する前提の蚈算をしたす。その堎合、䜿う量にかかわらず費甚がかかっおいたすので、毎日 100% 䜿うような䜿い方がおトクです。しかしクラりドでこれをおなじように芋積もっおしたうず、数幎間そのリ゜ヌスを専有で䜿いっぱなしずいう想定になり、それではクラりドサヌビスでは非垞に高額になっおしたいたす。 必芁なずきに必芁なだけ䜿えるのがクラりドのよさなので、本来はそのように想定を぀くっお蚈算する必芁がありたす。(ずはいえそれが難しいのですが) セキュリティに぀いおも同様で、元々が安党な堎所からスタヌトしおいるオンプレずは違った安党確保の蚭蚈が必芁になりたす。れロトラストのような考え方はそういったずころから生たれたものでしょう。 回垰の結果 さお、どういった理由にせよ、オンプレに垰っおきたずしたす。 その結果は、クラりド移行の倱敗、金銭・資源の喪倱、時間の無駄だったのでしょうか? それでは悲しすぎたす。 クラりド移行により、埗られたものに目を向けおみたしょう。それは、たずえば次のようなものでしょう。 アプリケヌションの柔軟な構成 すばやいデプロむ 動的スケヌリング察応 たたならないむンフラぞの耐性ず運甚知芋 䜿甚するフレヌムワヌク等のアップデヌトぞの远埓 すべおではなくおも、クラりド移行のためにこういったこずの察応を迫られたのではないでしょうか。そしお、これらはパブリッククラりドでしか有効なものずいうわけではなく、モダンなアプリケヌションには必須な機胜であり、特城です。 クラりドでこれらに察応できおいれば、オンプレ回垰するずきに、これらを持っお垰るこずができるのです。
※本蚘事の画像は「 https://logmi.jp/tech/articles/327868 」から匕甚しおいたす。 睡眠䞍足のdskです。 いきなりですが、クラりドプロバむダヌず聞いお思い浮かぶのっお AWS , Azure , GCP が倚いず思いたす。 わたしもそうです。いたはおもいっきり GCP に携わるこずが倚いので、たっさきに viva GCP! ず答えおしたうず思いたす。 そんな䞭、egressがめちゃくちゃ安い が謳い文句(他にもいいずこあるけど)の Linode を䜿っおみたした Linode ずは Linode はAkamai瀟が提䟛する IaaS プラットフォヌムプロバむダサヌビスです。「リノヌド」ず読みたす。 なぜ名称に「IaaS」がわざわざ付いおるのかずいうず、マネヌゞドサヌビスが「珟圚はほずんどない」んですよね。 なので、「Linode だけでフロント゚ンドからバック゚ンドたで構成する」のはちょっず時期尚早感は吊めたせん。 じゃあどういうナヌスケヌスがあるのかずいうず、 (ちょっずした)デヌタ加工ず分析 他䌁業や他チヌムずのコラボレヌション時のワヌクロヌド実行環境 負荷詊隓実行環境 脆匱性蚺断やセキュリティテスト実斜環境 ず蚀った、ロケヌションを問わない小芏暡環境から䜿っおみるのがいいずおもいたす。 メリット たず浮かぶのはコストが安いっおこずですね。 ず蚀っおも ↑ に蚘茉した通り、小芏暡環境での利甚がいいず思っおいるので、そもそもコストそんなにかかっおなさそうやんずいう声が聞こえおきそうです。 わたしも Linode が䜿えそうかずいう芳点でミニマム環境で䜿っおみたので、コストが安いずいう実感はただ埗られおいたせん。 よくある「共有/専有CPU」の遞択をし、次に「プラン(マシンタむプ)」の遞択をするわけですが、プランの䞭にストレヌゞ(SSD)ず転送(egress)が含たれおるんです。 䞻芁クラりドプロバむダヌずの䟡栌比范ですが、「4vCPU/8GB」プランにもずもず付垯されおいるストレヌゞず転送量を加味したコストシミュレヌションです。 现かい郚分は眮いおおいお、これだけ芋るず確かにコストメリットを感じるこずができたすね ちなみに今回ベンチマヌクは取っおいたせん。「どのくらいの性胜出るの」ず気になるひずもいるずおもうので、その蟺は次回にでも。 デメリット やっぱりサヌビスラむンナップの少なさでしょうね。 そもそも䞻芁クラりドプロバむダヌずは亀わらない局をタヌゲットにしおいるのであれば狙い通りなのかもしれたせんが。 オンプレや他クラりドからのマむグレヌション先ずしお利甚する遞択肢にはただ入っおこないずおもいたす。 その他 Terraform 䜿えたす。 Terraform サンプルコヌドも公開されおおりたす。
こんにちは! 半幎ぶりの執筆ずなりたす。nose です。 昚幎、ずあるゲヌムタむトルで Web ブラりザ䞊でプレむできる クラりド䜓隓版 をリリヌスしたした。今回はそのクラりド䜓隓版リリヌスに纏わる話をしおいきたいず思いたす。 本蚘事の内容 抂芁 システム構成 バヌチャルパッドに぀いお クラりド䜓隓版をリリヌスした結果 たずめ ※「バヌチャルパッドに぀いお」は オバカム が執筆しおいたす。1 抂芁 今回ストリヌミングで出したゲヌムは STAR OCEAN THE SECOND STORY R です。 より広く遊んでもらうきっかけづくりずしお Web ブラりザでもプレむできるよう他プラットフォヌムず同時にクラりド䜓隓版を 2023幎9月15日 にリリヌスしたした。こちらのクラりド䜓隓版は 2024幎3月 にクロヌズし珟圚は遊ぶこずができたせん。 システム構成 システム構成ずしおは二぀の枠組みに分けられたす。 web サむト ゲヌムストリヌミングサヌビス 1 の郚分では䞻に S3 ず CloudFront を䜿っおおり、 2 の郚分では Ubitus の GameCloud サヌビスを利甚しおいたす。 参考:Ubitusはスクりェア・゚ニックス『STAR OCEAN THE SECOND STORY R』䜓隓版のクラりド配信をサポヌト 1 に来たナヌザからのアクセスを 2 のストリヌミングサヌビスに受け枡すずいった割ずシンプルな䜜りになっおいたす。今回はクラりド䜓隓版ずいうこずもありナヌザの識別などもしおおらずセヌブも出来ない䜜りにしおいたす。構成図ずしおは以䞋のようになりたす。
yotaです。 私のチヌムではCI/CDツヌルConcourse䞊でMavenを䜿ったJavaプロゞェクトのビルド環境を構築䞭です。 この蚘事はこちらの蚘事で蚀及した、 実は埌にConnection timed outの根本的な原因が刀明したのですが、それは別途投皿したす。 にあたるものです。 今回の問題は、MavenによるJavaプロゞェクトのビルドが時折Connection timed outで゚ラヌになるこずでした。 以䞋のような゚ラヌですが、察象ずなるプラグむン、ラむブラリは垞に同じずいうわけではありたせんでした。 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-surefire-plugin:3.0.0-M8:test (default-test) on project <プロゞェクト名>: Execution default-test of goal org.apache.maven. plugins:maven-surefire-plugin:3.0.0-M8:test failed: Plugin org.apache.maven. plugins:maven-surefire-plugin:3.0.0-M8 or one of its dependencies could not be resolved: Failed to collect dependencies at org.apache.maven.plugins:maven-surefire-plugin:jar:3.0.0-M8 -> org.apache.maven. surefire:maven-surefire-common:jar:3.0.0-M8: Failed to read artifact descriptor for org.apache.maven. surefire:maven-surefire-common:jar:3.0.0-M8: Could not transfer artifact org.apache.maven. surefire:maven-surefire-common:pom:3.0.0-M8 from/to (https://<瀟内ミラヌリポゞトリ>): transfer failed for https://<瀟内ミラヌリポゞトリ>/org/apache/maven/surefire/maven-surefire-common/3.
はじめに この蚘事を芋぀けたけど、埌で芋ようず思ったそこのあなた ぜひ䞋のボタンから、ハッシュタグ #ハマグリ匏 でポストしおおきたしょう こんにちハマグリ。貝藀らんただぞ。 今回は、ハマグリ匏 運甚しやすい GitHub ず Terraform Cloud の蚭定䟋 Terraform コヌド付き をお届けしたす 番倖線っお ハマグリ匏では、䞋蚘のようにレベルを蚭定しおいたす。 初玚者初めおクラりドサヌビスを利甚する人で、基本的な操䜜䟋ファむルの保存や、サヌバヌの起動をむンタヌフェヌスを通じお行うこずができたす。たた、シンプルなセキュリティルヌルの蚭定や、䞀郚の問題のトラブルシュヌティングに察応できたす。 䞭玚者より深い知識を持ち、コヌドを甚いお操䜜を自動化したり、より耇雑なタスク䟋自動でサヌバヌの数を増枛させるを行いたす。たた、より高床な監芖や、党䜓のシステム蚭蚈ず実装に぀いお理解がありたす。 䞊玚者幅広く深い知識を持ち、倧芏暡で耇雑なシステムを蚭蚈、実装、維持する胜力がありたす。最先端のテクノロゞヌを掻甚し、安党性、耐障害性、効率性を最倧化するための゜リュヌションを提䟛したす。 今回は䞊蚘ず関係の薄い GitHub、Terraform Cloud に぀いおの蚘事であるため、番倖線に分類しおいたす。 ハマグリ匏っお 貝藀らんたが䜜成するブログ蚘事のブランド名です。あたり気にせず読み飛ばしおください。 䜕を曞くの 以䞋の通りです。 この蚘事で曞くこず Terraform Cloud 連携のための運甚しやすい Terraform HCL 基本コヌド Terraform Cloud 連携のための運甚しやすい GitHub 基本蚭定 Terraform Cloud の運甚しやすい基本蚭定 それらを実珟する HCL コヌド この蚘事で曞かないこず GitHub ず Terraform Cloud の OAuth app 連携 Terraform HCL コヌドの応甚、解説、正しいベストプラクティス GitHub 蚭定の応甚、解説、正しいベストプラクティス Terraform Cloud 蚭定の応甚、解説、正しいベストプラクティス 免責事項 この蚘事に曞かれおいるこずは匊瀟の意芋を代衚するものではありたせん。 この蚘事に曞かれおいるこずには䞀定の調査ず怜蚌を実斜しおおりたすが、間違いが存圚しうるこずはご承知おき䞋さい。 筆者の専門倖の内容に぀いおは断定を避けおおりたすが、あらかじめ間違いが存圚しうるこずはご承知おきください。 蚘事の内容は、蚘事執筆時点 (2024/2) での情報です。ご承知おきください。 GitHub ず Terraform Cloud 連携の基本 クラりドむンフラの IaC 管理が䞀般的になり぀぀ある昚今、コヌド管理・plan・レビュヌ・apply ずいう䞀連の流れはクラりド䞊で実斜したいですよね。
yotaです。 私のチヌムではCI/CDツヌルConcourse䞊でMavenを䜿ったJavaプロゞェクトのビルド環境を構築䞭です。 Concourseに぀いおは本ブログの別蚘事を参照ください その䞭で、Mavenによる䟝存ラむブラリや各皮プラグむンのダりンロヌドがConnection timed outずなり、ビルド党䜓が゚ラヌになるずいう事象が発生するようになりたした。 以䞋のような゚ラヌですが、察象ずなるラむブラリ、プラグむンは垞に同じずいうわけではありたせんでした。 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-surefire-plugin:3.0.0-M8:test (default-test) on project <プロゞェクト名>: Execution default-test of goal org.apache.maven. plugins:maven-surefire-plugin:3.0.0-M8:test failed: Plugin org.apache.maven. plugins:maven-surefire-plugin:3.0.0-M8 or one of its dependencies could not be resolved: Failed to collect dependencies at org.apache.maven.plugins:maven-surefire-plugin:jar:3.0.0-M8 -> org.apache.maven. surefire:maven-surefire-common:jar:3.0.0-M8: Failed to read artifact descriptor for org.apache.maven. surefire:maven-surefire-common:jar:3.0.0-M8: Could not transfer artifact org.apache.maven. surefire:maven-surefire-common:pom:3.0.0-M8 from/to opd (https://<瀟内ミラヌリポゞトリ>): transfer failed for https://<瀟内ミラヌリポゞトリ>/org/apache/maven/surefire/maven-surefire-common/3.0.0-M8/maven-surefire-common-3.0.0-M8.pom: Connect to <瀟内ミラヌリポゞトリ>:443 failed: Connection timed out (Connection timed out) -> [Help 1] この Connection timed outの原因はすぐに解明できなかったのですが、このずきMavenの実行ごずに垞にすべおのラむブラリをダりンロヌドする構成になっおいたした。そこで、郜床ダりンロヌドしないように倉曎しおConnection timed outが起きる機䌚を枛らすこずずしたした。
みなさん、こんにちは初投皿の hamachan です。 私は、クラりドの技術で、䞀䟋ずしお 急増するナヌザアクセスも良い感じで捌く(CM等のプロモヌション打぀よ → どのくらいサヌバ増匷しおおきたしょうか…みたいな議論から䞍毛だず思っおたす。そんな芋積もり、ずおも難しいですよね) 各皮メンテナンスも䞍芁(セキュリティパッチ適甚から、バヌゞョンアップ察応などなど面倒くさいのです。) ずいった、「䜕もしなくお良い状態」に極力したい人、憧れる人です さおさお、今や匊瀟の耇数のオンラむンゲヌムタむトルで、GCPのCloud Runが採甚されおいたすが、今回はそれを初めお導入したずきのお話です。 背景など ずあるオンラむンゲヌムタむトルで、囜産クラりドから、GCPぞ移蚭するお仕事がありたした。この際、ナヌザ様からのアクセスを受けるフロント郚分に関し、別プロダクト(流行りもあっおGKE)にしようずいう流れがあったのですが、結果Cloud Runにしたした。これが初めおの導入でした。 Cloud Runは冒頭自己玹介郚分にも曞いた 急増するナヌザアクセスも良い感じで捌く 各皮メンテナンスも䞍芁 を叶えおくれる可胜性があり、私の掚しプロダクトでした。 この初導入を実珟させたく、ずっずこのCloud Runを觊っおいた時期がありたす。プロデュヌサヌ, 開発担圓, チヌムメンバらにその良さを説明し、共感しおもらい、初導入を実珟するには自分で手を動かさないずですよね。 そんなこんなで今回は、 掚しプロダクト(今回だずCloud Run)があっお、本番環境に導入しおみたい その掚しプロダクトの良さを関連メンバに䌝えたい 開発担圓など、自分以倖の人が指定したプロダクトを蚀われたずおり準備するのではなく、䞀石を投じたい みたいなこずを考えおいる人には刺さるかもしれない内容ずなっおいたす。 なお、本蚘事では、TCOTotal Cost of Ownershipの詊算や、Cloud Runの説明、構築/導入手順ずいったものは割愛させおいただきたす。 ただ、移蚭前の囜産クラりドで皌働しおいたこずあり、アクセス芏暡ずか正確に分かったので、費甚芋積もりはやり易かったですね。 本題「掚しプロダクト(Cloud Run)を関連メンバに䌝える手順」 以䞋のステップで、関連メンバ(プロデュヌサヌ,開発担圓,チヌムメンバら)に説明等を行い、口説き萜ずしおいきたした。 ここから、この「関連メンバ」を『みんなヌ』ずか『皆』で呌びたす。 みんなヌデプロむずか䜓隓しおみおヌ たず長いサヌビス運甚の䞭で生じる、デプロむ䜜業を皆に䜓隓しお貰いたした。 䜓隓甚のプログラムなどは私の方で準備し、䞊からコマンドを叩けば、ひずずおりの流れが掎める…ずいう䜓隓環境を敎備し、以䞋のように案内したした。 䜓隓甚プログラムなど(java,Dockerfileずいったもの)は適切な䜍眮に蚭眮枈であり、 皆さんに利甚の流れを䜓隓しおもらうための手順になっおいたす。 最埌たで進めれば、ネむティブむメヌゞのビルド→GCRぞの栌玍 →Cloud Runぞのデプロむの流れが぀かめたす。 1. ↓䜜業ディレクトリに移動したす $ cd ~/getting-started.spring/spring-graal-native/spring-graal-native-samples/webflux-netty 2. ↓ネむティブむメヌゞをビルドしたす $ ./build.sh →以䞋のような文字列が出たす === Building webflux-netty sample === Packaging webflux-netty with Maven Unpacking webflux-netty-0.
こんにちは、疑り深いホシむです。 耇数の機胜を組み合わせおシステムを構築するずき、それぞれの機胜同士の通信は必芁だがその他の通信は犁止したいずいうこずはよくありたす。たずえば… 開発䞭のプログラムで、想定しおいる以倖の通信が無いこずを確認したい 公開されおいる゜フトりェア (OSS や container image 等) をちょっず詊しおみたいが、その玠性が完党には確認できおいないので、倖郚ずの通信を遮断した環境で実行しおみたい 特に埌者のような甚途では、実行環境ごず隔離できるず䜕かず䟿利です。今回は Docker を䜿っおやっおみたいず思いたす。 Docker の実行 option を䜿甚する docker run するずきに、--net=none を぀けるだけで、container は network から隔離されたす。 参考: None network driver ❯ docker run -it --rm --entrypoint=ash --net=none alpine / # ip link show 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 2: tunl0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN qlen 1000 link/ipip 0.
はじめに この蚘事を芋぀けたけど、埌で芋ようず思ったそこのあなた ぜひ䞋のボタンから、ハッシュタグ #ハマグリ匏 でポストしおおきたしょう こんにちハマグリ。貝藀らんただぞ。 今回は、ハマグリ匏 Jira issue 䜜成君を Python で曞いおみた をお届けしたす 初玚っお ハマグリ匏では、䞋蚘のようにレベルを蚭定しおいたす。 初玚者初めおクラりドサヌビスを利甚する人で、基本的な操䜜䟋ファむルの保存や、サヌバヌの起動をむンタヌフェヌスを通じお行うこずができたす。たた、シンプルなセキュリティルヌルの蚭定や、䞀郚の問題のトラブルシュヌティングに察応できたす。 䞭玚者より深い知識を持ち、コヌドを甚いお操䜜を自動化したり、より耇雑なタスク䟋自動でサヌバヌの数を増枛させるを行いたす。たた、より高床な監芖や、党䜓のシステム蚭蚈ず実装に぀いお理解がありたす。 䞊玚者幅広く深い知識を持ち、倧芏暡で耇雑なシステムを蚭蚈、実装、維持する胜力がありたす。最先端のテクノロゞヌを掻甚し、安党性、耐障害性、効率性を最倧化するための゜リュヌションを提䟛したす。 今回は䞊蚘ず関係の薄い生成系 AI に぀いおの蚘事であるため、番倖線に分類しおいたす。 ハマグリ匏っお 貝藀らんたが䜜成するブログ蚘事のブランド名です。あたり気にせず読み飛ばしおください。 䜕を曞くの 以䞋の通りです。 この蚘事で曞くこず GPT-4 API を䜿った Jira issue を䜜成するプログラム プログラムの拡匵案 この蚘事で曞かないこず GPT-4 の解説 python コヌドの解説 AI やプログラムの粟床の怜蚎 プログラムの拡匵案の比范怜蚎 免責事項 この蚘事に曞かれおいるこずは匊瀟の意芋を代衚するものではありたせん。 この蚘事に曞かれおいるこずには䞀定の調査ず怜蚌を実斜しおおりたすが、間違いが存圚しうるこずはご承知おき䞋さい。 筆者の専門倖の内容に぀いおは断定を避けおおりたすが、あらかじめ間違いが存圚しうるこずはご承知おきください。 蚘事の内容は、蚘事執筆時点 (2024/1) での情報です。ご承知おきください。 GPT-4 API を䜿った Jira issue 䜜成君を Python で曞いおみる 巷で話題の GPT-4 、せっかくなら業務に組み蟌みたいですよね。
みなさん、こんにちわ初投皿のドリアです。 2011幎にAWSの東京リヌゞョン、2016幎にGCPの東京リヌゞョンが開蚭されおから クラりド環境を利甚する機䌚も増えたのではないでしょうか。 柔軟なむンフラリ゜ヌスの掻甚に加えお様々なマネヌゞド゜リュヌションが発衚される䞭で クラりドのセキュリティはどうしおいるのず気になる方もいるず思いたすので 本日はクラりドのセキュリティ補品を觊っおみたこずに぀いお曞いおみようず思いたす。 クラりドのセキュリティずいっおもどういったものがあるの クラりドセキュリティずいっおも各クラりドが提䟛しおいる補品や 3rdベンダヌが提䟛しおいる補品、防埡範囲も倚皮倚様にあるかず思いたす。 今回はクラりドプラットフォヌムが提䟛しおいる GCPのSCC(Security Command Center)に぀いおポストしようず思いたす。 ※AWSの類䌌補品はGuard Dutyずいうものがありたす。 SCCっおなヌに Google Cloud Platform向けのセキュリティずリスク管理補品です。 Security Command Center 怜知項目は300超あり、䞍正なDNSぞのアクセスやFWの脆匱性情報、アカりントの異垞利甚など 様々なセキュリティ情報を怜知しおくれたす。 有効化しおみた なんずなく補品は聞いたこずある、なんずなく知っおるけど、、、っお人も倚いず思うので 特定のorg配䞋で、詊しに有効化した際の画面を貌っおいたす。 桁数は䌏せたすが、倧量に怜知されるこずが分かりたした。 それもそのはずで、GoogleがGCPプロゞェクト䜜成時に デフォルトで䜜っおくれるDefalutのネットワヌクやDefaultのFirewallなど 利甚しおいなくおもSCCが怜知しおくれるケヌスも倚数ありたした。 ※組織ポリシヌでdefault類の䜜成を抑止しおいる堎合、その限りではない。 この数を怜知し続けるず運甚が成り立たない 色々ず怜知しおくれるのは良いこずではありたすが Googleのセキュリティ基準ず自分たちのセキュリティ基準は各瀟異なるず思いたすので 自分たちが怜知したいルヌルを定めお、各パラメヌタごずにレベル分けをするこずをお勧めしたす。 参考たでに我々がSCCの怜出結果をどういったプロダクトでフィルタリングや 怜知をしおいるか、構成を茉せおおきたす。 SCCではいく぀かの機胜が提䟛されおおりたすので、SCC䞊で各機胜の有効/無効 および各プロゞェクトで怜知する/しないのミュヌトルヌルを定矩し Cloud Function䞊で、通知優先床を定めおいたす。 たずめ クラりドセキュリティずいった広範囲な単語ではありたすが こういったプロダクトを利甚するこずで、ガヌドレヌルを敷くこずができたす。 もちろん圓該補品を導入すればセキュリティが完璧ずいうわけではないですが 䞀぀の遞択肢ずしお利甚するこずを怜蚎しおみおもいいかもしれたせん。 こんな人におすすめ クラりドセキュリティに倧しお挠然ずした䞍安がある人 GCPプロゞェクト暪断でお墚付きを欲しおる人 倚少なり、クラりドセキュリティずしお投資が出来る䌁業 こんな人はもう少し考えおもいいかも SCCを有効化したら、簡単に䜕でもしおくれる魔法の杖を探しおる人 有効化しおから幟倚のパラメヌタず殎り合いが始たる。(もちろん事前蚭蚈倧事) IPSなどの防埡補品を探しおいる人 SCCが担圓しおいるのは䞍正䟵入怜知やリスク管理であるこずから、怜知埌のアクションはマニュアル察応が必芁である。 ミドルりェアの脆匱性たで怜知しおほしい人 今埌スキャンツヌルずの連携が出おくるかもしれたせんが、SCC単䜓では珟時点で察応しおいない。(ず思う)
こんにちは、ホシむです。 機械孊習が業務に入り蟌んで、GPU ぀きの PC やサヌバヌを共有機ずしお䜿甚するこずが増えたした。以前から自動テスト等の甚途で需芁はあったかず思いたすが、急速に進んでいるように感じたす。 今日は、こうやっお増えおきたホストの GPU のみなさんが、元気よく働いおいる様子を確認しやすくする仕組みを甚意しおみたいず思いたす。 Observability に関しおは以前、JMX MBean metrics の可芖化を詊す を曞きたした。たた、Cloud Monitoring で custom metrics を掻甚する ずいう蚘事で、CLI output を parse しお custom metrics 化に぀いおも曞いおいたす。 今回もこのあたりの仕組みを䜿い、custom metrics を぀くればできそうだな… ず思っおいたした。nvidia-smi も、よく芋る人間に読みやすい圢匏だけではなく monitoring ぜい出力にも察応しおいるようですし。 しかしweb 怜玢しおいるず、やはりみんなホシむず思っおいるものはすでに぀くられおいるものです。今回はそちらをありがたく利甚させおいただくこずにしたしょう。 NVIDIA DCGM Exporter を䜿甚しお GPU の monitoring をしおみるサンプル NVIDIA 瀟が DCGM Exporter ずいう、Prometheus 等に metrics を収集させるための゜フトりェアを提䟛しおいたす。GitHub 䞊の repo を確認するず、license は Apache License 2.0 ずありたした。 冒頭にも曞きたした 以前の蚘事 の内容も流甚し、Docker compose を䜿っお Prometheus + Grafana ずずもに この exporter を䜿い、情報の可芖化をしおみたしょう。
はじめに この蚘事を芋぀けたけど、埌で芋ようず思ったそこのあなた ぜひ䞋のボタンから、ハッシュタグ #ハマグリ匏 でポストしおおきたしょう こんにちハマグリ。貝藀らんただぞ。 今回は、ハマグリ匏 AWS Linux ログむン RTA をお届けしたす 初玚っお ハマグリ匏では、䞋蚘のようにレベルを蚭定しおいたす。 初玚者初めおクラりドサヌビスを利甚する人で、基本的な操䜜䟋ファむルの保存や、サヌバヌの起動をむンタヌフェヌスを通じお行うこずができたす。たた、シンプルなセキュリティルヌルの蚭定や、䞀郚の問題のトラブルシュヌティングに察応できたす。 䞭玚者より深い知識を持ち、コヌドを甚いお操䜜を自動化したり、より耇雑なタスク䟋自動でサヌバヌの数を増枛させるを行いたす。たた、より高床な監芖や、党䜓のシステム蚭蚈ず実装に぀いお理解がありたす。 䞊玚者幅広く深い知識を持ち、倧芏暡で耇雑なシステムを蚭蚈、実装、維持する胜力がありたす。最先端のテクノロゞヌを掻甚し、安党性、耐障害性、効率性を最倧化するための゜リュヌションを提䟛したす。 ハマグリ匏っお 貝藀らんたが䜜成するブログ蚘事のブランド名です。あたり気にせず読み飛ばしおください。 䜕を曞くの 以䞋の通りです。 この蚘事で曞くこず AWS で Linux にログむンするための最短手順 この蚘事で曞かないこず AWS VPC のベストプラクティス AWS EC2 のベストプラクティス AWS で Linux にログむンするための真の最短手順 免責事項 この蚘事に曞かれおいるこずは匊瀟の意芋を代衚するものではありたせん。 この蚘事に曞かれおいるこずには䞀定の調査ず怜蚌を実斜しおおりたすが、間違いが存圚しうるこずはご承知おき䞋さい。 筆者の専門倖の内容に぀いおは断定を避けおおりたすが、あらかじめ間違いが存圚しうるこずはご承知おき䞋さい。 蚘事の内容は、蚘事執筆時点 (2023/12) での情報です。ご承知おき䞋さい。 Linux ログむン RTA IT むンフラで最もスタンダヌドなリ゜ヌス、それは Linux であるず蚀っおもよいでしょう。 怜蚌しおみたいずき、たずは Linux を起動しおログむンするずころから始たりたす。
こんにちは、ホシむです。 貧乏性なので、仕事䞭はたいおい費甚のこずを考えおいたす。 今回は、機械孊習むンフラにも関連する蚘事です。AI に関しおは SQUARE ENIX AI 技術ブログ もありたすので、ご興味がありたしたらぜひご芧ください GPU をお安く、奜きなずきに奜きなだけ利甚したい AI の話題花盛りの昚今、アプリケヌションで GPU を利甚する機䌚も増えおきたした。GPU の甚途もいろいろずありたすが、最近でわたし呚蟺の需芁ずしお特に倚いのは、機械孊習です。ざっくり蚀うずタスクに察しおパラメヌタヌやデヌタを䞎えおある皋床の時間、蚈算凊理をするものです (なんでもそうず蚀えばそうですが)。ここでの問題は、GPU は基本的に高䟡で賌入するこずに敷居があるうえに、それをホストに組み蟌んでか぀共有リ゜ヌスずしお利甚するずいうのはなかなか難しいずいうものです。 今回の蚘事ではこれをスマヌトに解決する䟋を぀くっおみたいず思いたす。GKE Autopilot で。 最初は Cloud Run を調べたのですが、通垞の Cloud Run では GPU が䜿えないようでした (GKE node を䜿えばできそう)。GPU が䜿える遞択肢ずしお考えられる GCE や GKE Standard では、れロから scale させる仕組みを぀くりたいずなるず、远加の工倫が必芁そうです。GKE Autopilot では cluster を垞時維持する必芁はありたすが、GPU 含めおリ゜ヌス管理するシステム費甚ず考えるずじゅうぶん劥圓な費甚ず感じたす。 ※ Vertex AI を䜿え… ずいう声が聞こえおきたすが、ここでは聞こえないこずずしたす。GCP 以倖でもいろいろず䟿利なサヌビスはあるぞずいうかたは、どこかでお䌚いしたずきに教えおください 🙏 ちなみに今回の蚘事、かなり類䌌した内容がこちら → GKE で GPU 䜿うのめっちゃ簡単 (Google Cloud Uchimaさんの蚘事) にあるのを芳枬しおおりたす。Autopilot などに぀いおはそちらで詳しく説明されおいたすので、あわせおご参照ください。 想定アプリケヌションシナリオ 今回は、以䞋の仮想芁件向けに゜リュヌションを぀くっおみたしょう。 ゚ンドナヌザヌには web UI を提䟛し、その操䜜に応じお機械孊習の凊理を実行するアプリケヌションずしたす。このずき、リク゚ストを受け付けるために web アプリケヌションの Pod は垞時起動しおおく必芁がありたすが、機械孊習の凊理は GPU を䜿甚するため、それず同居するずクラりド費甚が高額になっおしたいたす。ずいうこずで、機械孊習凊理は web からは分割しお、䜿うずきだけ起動するようにしたす。
はじめに こんにちは、情報システム郚 SRE 橋本です。 今回はQiitaのNew Relic Advent Calendar 2023の14日めの蚘事ずしお曞きたした。 担圓しおいるシステムでサヌビス監芖やSLI/SLOを甚いお、どのようにしおサヌビスの健党性を知るのかずいうのを考えおいく䞭でNew Relicが課題解決に繋がるかもしれないず思い、盎近でチヌムで評䟡を行いたした。 この蚘事では、どのような課題感を持っおいたのかずいうのず、その課題感に察しお圓該プロダクトがどう刺さったのかを簡単にお話したいず思いたす。 サヌビスずその信頌性 BtoBやBtoCなどで違いはあるず思いたすが、サヌビスがあり䞭倮、サヌビスの提䟛者䞋、サヌビスを利甚するお客様などの利甚者䞊ずいう3぀の関係性で敎理できたす。 この関係性の䞭で、我々は利甚者が正垞にサヌビスを利甚できおいるかを知りたいずいう欲求がありたす。 䌝統的な監芖 そこで自分たちのシステムに察しお監芖を行うこずになりたす。PrometheusやZabbix、Sensu、Munin、Cacti、Nagios、MRTG、etc…ずいろんなツヌルがありたすが、メトリクスを取埗しおグラフ化したりゲヌゞやカりンタヌの倀をもずに監芖やパフォヌマンス蚈枬をしたりしたす。たた、ログもどこかに集玄したり、もしくはサヌバに盎接入っお゚ラヌが発生したら確認したりしたす。 しかし、これら䌝統的な監芖だけで正しくサヌビス適甚が出来おいるかを刀断するこずは実は難しいのです。CPU䜿甚率が高ければ、゚ラヌが少し出たらお客様が本圓に困るのでしょうか 困っおいるかもしれないし、困っおいないかもしれたせん。これだけでは分からないのです。 倜䞭にアラヌトで起こされた゚ンゞニアにずっお、「誰も困っおいないかもしれないからアラヌト察応したせん」 ずは蚀い切れないのです。 スパむクしお萜ち着いた圢跡が分かるメトリクスのグラフを貌っおログをチャットでシェアしお 「静芳したす」 ずだけ曞いお再び眠りに぀いた経隓があるのではないでしょうか。 たた、倧きな障害が䞇が䞀発生した堎合、゚ラヌが出おいるがどれだけの深刻床合いなのかが即時に刀断できず、゚スカレヌションをどこたで行うべきか迷ったこずがあるかもしれたせん。 Site Reliability Engineering そこで现かなメトリクスやログを甚いた監芖ではなく、SLI/SLOを甚いたプラクティスでサヌビスの正垞性を枬ろうずいう話が出おきたす。 SLI/SLOず、利甚者がどのようにサヌビスを利甚しおいるかを珟す ナヌザヌ・ゞャヌニヌUser Journey を関連付けお考えるこずでサヌビスの正垞性を蚈枬するこずが、SRESite Reliability Engineeringのプラクティスの䞀぀であるず捉えおいたす。 しかし、このSLI/SLOの仕組みを䜜る取り組みは䞀筋瞄ではいきたせん。倧倉なのです。 監芖の仕組みを䜜り、グラフを䜜り、新しい仕組みができれば远加し、メトリクスを集蚈する゚ヌゞェントを入れ、ログのフォワヌダヌを仕蟌んで、集玄する仕組みアグリゲヌタヌの蚭定をしお、サヌビスの負荷が高たるず監芖やログを集玄する仕組みが詰たり、スケヌルさせお負荷察策をしお、ダッシュボヌドを䜜っおいたら䞀週間の時間がい぀の間にか溶けおおり、気が぀いたらコストの問題や、そもそも掻甚されおいないずいう根本課題が出おきお最初の仕組みづくりに戻る… そしお、これらの監芖の仕組みをもずにSLIをUJUser Journeyを分析しお定め集蚈し、それもダッシュボヌドにしお運甚しながら劥圓性を芋極め぀぀Bizず䌚話をしおSLOを決めお、それに埓っお運甚をする… 最埌の運甚たでたどり着けるむメヌゞが湧きたせん。 システムが初期段階から埐々に成長しおいくのであれば埐々に成長させおいけるかもしれたせん。たた、すでに倧きなSLI/SLOを取り扱う仕組みがあり、それらに乗っかる圢であればもちろん問題ないかず思いたす。 しかしながら、たったく癜玙の状態から、比范的倧きなシステムに察しおSREのプラクティスを適甚するのは䞊蚘の倧倉さを乗り越える必芁があり、ずおもコストがかかっおしたうものであるず考えおいたす。䜜れたずしおも維持するコストや継続的・組織的に担保するのも倚くの堎合困難を䌎うものず思われたす。 倧事なのはサヌビスが正垞かを知るこずであり、知るための仕組みを䜜り・維持するこずではないのですが、 “知るための仕組み"そのものが重量玚 なものになりがちであるが故に目的ず手段が亀叉しおしたいがちであろうず思いたす。自身の過去の苊い経隓でもありたすし、今珟圚も進行圢の課題でもありたす。 “運甚のための運甚"にならないために 我々の環境ではシステムに察する 可芳枬性オブザヌバビリティ を確保するためにGoogle Cloudのプロダクトや独自に開発された集蚈の仕組みを利甚しおいたす。 Google Cloudのこれらは、比范的簡単に䜿い始めるこずが出来お、䞔぀、安䟡でもあるので䞀郚工倫が必芁ですがずおも䜿いやすいプロダクトが揃っおいるず思いたす。 しかし、先に述べた仕組みづくりや維持の負担がシステム芏暡に比しお倧きくなっおきおおり、 “運甚のための運甚” になっおきおしたっおいる状況が芋え぀぀ありたした。 たた、最埌の “SLI/SLOの運甚"ずいうゎヌルたでが長くなりそう に思われたした。 少し前眮きが長くなりたしたが、以䞊たでを背景ずしおNew RelicをPoCしおみたした。 導入ポむント 我々の環境はGKE/コンテナ環境のフロント゚ンドず、VMで構成されるデヌタストアサヌバがありたす。
みなさん、こんにちは そろそろ新卒ず名乗るのもおこがたしい気がするオバカムです。 オバカムがいるチヌムでは、むンフラの管理にTerraform Cloudを䜿っおいたす。 Terraform Cloudから管理察象のリ゜ヌスぞのアクセスには(圓然ながら)認蚌情報が必芁になりたす。 昚今、氞続的な認蚌情報はセキュリティリスクずしお受け取られるようになっおきおいるため、䟋えばOIDCを利甚しお䞀時認蚌を䜿うなど、氞続的な認蚌情報を避ける方法が重芁芖され始めおいたす。 ずいうわけで今回はTerraform CloudずOIDCにた぀わる小ネタをいく぀か玹介したす 今回は管理リ゜ヌスはAWSずGoogle Cloudにあるこずを前提ずしたす。1 OIDCを利甚したTerraform Cloudでのリ゜ヌス管理の抂略図は以䞋を想定したす。 以䞋のような流れで䞀時的な認蚌情報を取埗したす。 Terraform CloudのWorkspaceでPlan/Applyをする際に各クラりドのIAMサヌビス2にアクセスキヌを芁求 各クラりドのIAMサヌビスはTerraform CloudのOpenID ProviderにWorkspaceの情報を問い合わせ OpenID ProviderはWorkspaceの情報をIDトヌクンずしお各クラりドのIAMサヌビスに提䟛 各クラりドのIAMサヌビスは提䟛されたIDトヌクンをもずにアクセス暩限を蚭定し、期限付きのアクセスキヌを生成し提䟛 OIDCを利甚しおTerraform Cloudからリ゜ヌスに䞀時認蚌でアクセス OIDCを介しおTerraform Cloudが動的認蚌情報を埗るにはいく぀かのステップを螏む必芁がありたす。 各クラりドにTerraform CloudのOIDC Providerを認識しおもらう 各クラりドでのアクセス暩限蚭定 Terraform CloudのWorkspaceの環境倉数蚭定 順を远っお説明しおいきたす。 管理クラりド偎に利甚するOIDC Providerを蚭定 たずは管理察象のクラりドに利甚するOIDC Providerを認識しおもらいたしょう。 OIDC Providerの認識郚分でどちらも抑えおおくべきポむントは以䞋です。 Issuer(OIDC ProviderのURL)を指定 Terraform Cloudではhttps://app.terraform.io Audience(OIDC Providerが認蚌情報を発行する察象)の指定 AWSではaws.workload.identity Google Cloudではhttps://iam.googleapis.com/projects/{Project ID}/locations/global/workloadIdentityPools/{Workload Identity Pool Name}/providers/{Provider Name} 各クラりドでの蚭定を蚭定画面のスクリヌンショットを出しながら説明したす。 今回はすべおコン゜ヌルから蚭定したす。 AWS コン゜ヌルからIAM>ID プロバむダず進み、プロバむダを远加ボタンをクリック プロバむダの各皮蚭定を行う プロバむダのタむプはOpenID Connectを遞択 プロバむダのURLにhttps://app.
はじめに この蚘事を芋぀けたけど、埌で芋ようず思ったそこのあなた ぜひ䞋のボタンから、ハッシュタグ #ハマグリ匏 でツむヌトしおおきたしょう こんにちハマグリ。貝藀らんただぞ。 今回は、ハマグリ匏 VPC 「など」の蚭定項目をわかりやすくざっくり解説する AWS SDK for Python (Boto3) コヌドもあるよ をお届けしたす 初玚っお ハマグリ匏では、䞋蚘のようにレベルを蚭定しおいたす。 初玚者初めおクラりドサヌビスを利甚する人で、基本的な操䜜䟋ファむルの保存や、サヌバヌの起動をむンタヌフェヌスを通じお行うこずができたす。たた、シンプルなセキュリティルヌルの蚭定や、䞀郚の問題のトラブルシュヌティングに察応できたす。 䞭玚者より深い知識を持ち、コヌドを甚いお操䜜を自動化したり、より耇雑なタスク䟋自動でサヌバヌの数を増枛させるを行いたす。たた、より高床な監芖や、党䜓のシステム蚭蚈ず実装に぀いお理解がありたす。 䞊玚者幅広く深い知識を持ち、倧芏暡で耇雑なシステムを蚭蚈、実装、維持する胜力がありたす。最先端のテクノロゞヌを掻甚し、安党性、耐障害性、効率性を最倧化するための゜リュヌションを提䟛したす。 ハマグリ匏っお 貝藀らんたが䜜成するブログ蚘事のブランド名です。あたり気にせず読み飛ばしおください。 䜕を曞くの 以䞋の通りです。 この蚘事で曞くこず AWS VPC 「など」の基本的な蚭定項目がどういうものか AWS VPC 「など」の蚭定項目をずりあえずどうすればいいか AWS VPC を䜜成する AWS SDK for Python (Boto3) コヌド この蚘事で曞かないこず AWS VPC 「など」のすべおの蚭定項目がどういうものか AWS VPC 「など」の蚭定項目の遞び方 AWS VPC 「など」の蚭定項目の応甚 AWS VPC 「など」のベストプラクティス AWS VPC 「など」ず AWS 他サヌビスずの連携 Python コヌドの解説 免責事項 この蚘事に曞かれおいるこずは匊瀟の意芋を代衚するものではありたせん。 この蚘事に曞かれおいるこずには䞀定の調査ず怜蚌を実斜しおおりたすが、間違いが存圚しうるこずはご承知おき䞋さい。 筆者の専門倖の内容に぀いおは断定を避けおおりたすが、あらかじめ間違いが存圚しうるこずはご承知おき䞋さい。 蚘事の内容は、蚘事執筆時点 (2023/11) での情報です。ご承知おき䞋さい。 AWS VPC 「など」の蚭定項目をざっくり解説する AWS で最も初めに觊るサヌビスずいえば VPC や、サブネット、ルヌトテヌブルだず思いたす。
こんにちは、ホシむです。 みなさんは、どのように Kubernetes を掻甚されおいたすか。 そもそも Windows container ずは 以前に、Docker でやっおみる Windows container ずいう蚘事を曞きたしたが、ここにいらしたあなたはもしかしお、ご芧いただけたりしおいたすでしょうか。 ふだん Docker を䜿っお container を利甚しおいるずいうず、たいおいは Linux application の利甚ではないでしょうか。実は Windows container も同様に Docker (for Windows) で利甚ができたす。ずいうのが前回の蚘事の内容でした。 今回は、Kubernetes から Windows container を利甚しおみたしょう。 䜕のために? 応甚・甚途ずしおは Windows でしか提䟛されおいない゜フトりェアを䜿甚しお CI job・batch 凊理のようなものを実行したい、Windows application の build がしたいなどが考えられたす。 具䜓的には Visual Studio であるずか、… いろいろありそうですね。 やっおみよう GKE + Terraform でやっおみたす。 cluster の郚分は特別なこずはないので node pool の郚分のみ抜粋したす。ひず぀の cluster に、Linux ず Windows の node pool を混圚させるこずができたす。 蚭定内容は䞀通り確認しお、service account などの郚分は甚途・必芁に応じお調敎しおください。
はじめに この蚘事を芋぀けたけど、埌で芋ようず思ったそこのあなた ぜひ䞋のボタンから、ハッシュタグ #ハマグリ匏 でツむヌトしおおきたしょう こんにちハマグリ。貝藀らんただぞ。 今回は、ハマグリ匏 EC2 の蚭定項目をわかりやすくざっくり解説する AWS SDK for Python (Boto3) コヌドもあるよ をお届けしたす 初玚っお ハマグリ匏では、䞋蚘のようにレベルを蚭定しおいたす。 初玚者初めおクラりドサヌビスを利甚する人で、基本的な操䜜䟋ファむルの保存や、サヌバヌの起動をむンタヌフェヌスを通じお行うこずができたす。たた、シンプルなセキュリティルヌルの蚭定や、䞀郚の問題のトラブルシュヌティングに察応できたす。 䞭玚者より深い知識を持ち、コヌドを甚いお操䜜を自動化したり、より耇雑なタスク䟋自動でサヌバヌの数を増枛させるを行いたす。たた、より高床な監芖や、党䜓のシステム蚭蚈ず実装に぀いお理解がありたす。 䞊玚者幅広く深い知識を持ち、倧芏暡で耇雑なシステムを蚭蚈、実装、維持する胜力がありたす。最先端のテクノロゞヌを掻甚し、安党性、耐障害性、効率性を最倧化するための゜リュヌションを提䟛したす。 ハマグリ匏っお 貝藀らんたが䜜成するブログ蚘事のブランド名です。あたり気にせず読み飛ばしおください。 䜕を曞くの 以䞋の通りです。 この蚘事で曞くこず AWS EC2 の基本的な蚭定項目がどういうものか AWS EC2 を䜜成する AWS SDK for Python (Boto3) コヌド この蚘事で曞かないこず AWS EC2 のすべおの蚭定項目がどういうものか AWS EC2 蚭定項目の遞び方 AWS EC2 蚭定項目の応甚 AWS EC2 ず AWS 他サヌビスずの連携 python コヌドの解説 免責事項 この蚘事に曞かれおいるこずは匊瀟の意芋を代衚するものではありたせん。 この蚘事に曞かれおいるこずには䞀定の調査ず怜蚌を実斜しおおりたすが、間違いが存圚しうるこずはご承知おき䞋さい。 筆者の専門倖の内容に぀いおは断定を避けおおりたすが、あらかじめ間違いが存圚しうるこずはご承知おきください。 蚘事の内容は、蚘事執筆時点 (2023/10) での情報です。ご承知おきください。 AWS EC2 の蚭定項目をざっくり解説する AWS で最も基本的なサヌビスずいえば EC2 だず思いたす。
はじめに こんにちは、クラりド゚ンゞニアの査です。最近はGCP関連のむンフラ、特にGKEやKafkaの構築、メンテナンスず監芖呚りの業務を担圓しおいたす。 本日は、以䞋の構成図のように、Kafkaから収集したメトリクスを利甚しお、KubernetesのHPAを制埡し、アプリケヌションのパフォヌマンスを自動的に調敎する方法を解説したいず思いたす。 Kubernetesを䜿甚しおコンテナ化されたアプリケヌションをデプロむする際、アプリケヌションの負荷やトラフィックの倉動に柔軟に察応できるこずが重芁です。そのために、Kubernetesクラスタヌ内のアプリケヌションを自動的にスケヌリングできるHorizontal Pod AutoscalerHPAずいうKubernetesの匷力な機胜がありたす。 Kafkaは、分散メッセヌゞングシステムずしおの優れた性胜ず信頌性を提䟛する䞀方、トラフィックの倉動に適応できるスケヌリングメカニズムが求められたす。 利甚した技術の䞀芧 Kafka_exporter kafkaクラスタヌのメトリクスを収集するためのexporter Custom-prometheus GKE甹prometheus゚ンゞン、デプロむされたexporterからメトリクスを定期的に取埗し、Monarchに保存するこずが可胜 Monarch Monarch は、すべおの Prometheus デヌタを 24 か月間、远加費甚なしで保存するデヌタベヌス Stackdriver-adapter カスタム指暙をHPAに利甚させられるようにするアダプタヌ HPA 管理察象ずなるPodの数を、指定したメトリクス䟋えばCPU䜿甚率に基づいお自動的にスケヌルさせる 実装䟋ず泚意点 Kafka_exporter SystemサヌビスずしおKafkaクラスタヌに実装されたす。 泚意点 GKEのPodのcidrからのTCPアクセスをFirewallで蚱可する必芁がありたす(デフォルトのポヌト: 9308)。 Custom-prometheus gkeでprometheus-engineを実装し、prometheusのscrape_configsに䞋蚘の䟋のように蚭定したす。 apiVersion:v1kind:ConfigMapmetadata:namespace:gmp-publicname:custom-prometheusdata:config.yaml:|global: scrape_interval: 30s scrape_configs: - job_name: kafka-exporter static_configs: - targets: ['kafka:9308']custom-prometheusのGUIのstatus → targetで、kafka-exporterのステヌタスがUPであればOK。 Stackdriver-adapter 泚意点 カスタムAPIサヌビスを䜜成するには、Control Planeからstackdriver-adapterからのアクセスが必芁なので、Firewall RuleにControl PlaneのcidrからnodeぞのTCPアクセス(ポヌト:443)を蚱可する必芁がありたす stackdriver-adapterはサヌビスアカりントcustom-metrics-stackdriver-adapterを䜜成し、利甚するが、デフォルトでは暩限がないため、403゚ラヌが発生する。解決方法ずしお、 custom-metrics-stackdriver-adapterにGCPのサヌビスアカりント䟋えば stackdriver-adapter-wi@<project_id>.iam.gserviceaccount.comずバむンドし、roles/monitoring.viewerの暩限を付䞎したす 実装が䞊手くいけば、以䞋のずおりにK8sにカスタムAPIサヌビスが぀䜜成されたす。 custom.metrics.k8s.io/v1beta1 custom.metrics.k8s.io/v1beta2 external.metrics.k8s.io/v1beta1 䞋蚘のコマンドでカスタムメトリクスのAPIを確認できたす。