株式会社スクウェア・エニックス
フォロワー 1人

株式会社スクウェア・エニックス の技術ブログ

[上級] ハマグリ式! Terraform での transpose 関数の使いみち

はじめに この記事を見つけたけど、後で見ようと思ったそこのあなた! ぜひ下のボタンから、ハッシュタグ #ハマグリ式 でツイートしておきましょう! こんにちハマグリ。貝藤らんまだぞ。 今回は AWS および Terraform の上級者向けに、ハマグリ式! Terraform での transpose 関数の使いみちをご紹介します! 上級者って? ハマグリ式では、下記のようにレベルを設定していま

Dev Container Featuresでdevcontainerを簡単に作る

yotaです。本ブログでたびたび話題に上がっている Visual Studio Codeのdevcontainerの機能を私も常用しています。 なかでもdevcontainerの機能の一部であるDev Container Features が、チームで必須のツールとは別に個人的に使いたいツールをdevcontainerに導入する際に便利だと感じたので紹介します。 Dev Container Featuresとは Dev Container Features で触れられていますが、Dev Container Featuresとは既存

[中級] ハマグリ式! AWS で使う Terraform の落とし穴

はじめに この記事を見つけたけど、後で見ようと思ったそこのあなた! ぜひ下のボタンから、ハッシュタグ #ハマグリ式 でツイートしておきましょう! こんにちハマグリ。貝藤らんまだぞ。 今回は AWS および Terraform の中級者向けに、ハマグリ式! AWS で使う Terraform の落とし穴をご紹介します! 中級者って? ハマグリ式では、下記のようにレベルを設定しています。

マルチソースレプリケーションでDBインスタンスを統合する

皆さん、こんにちは!新卒3年目のオバカムと言います。 普段はクラウドを利用してソーシャルゲームのインフラを構築・管理しています。 さて、データベースの運用をしていると、データベースの統合をしたくなる時ってありませんか? データベースの統合といってもいくつか種類がありますが、今回はMySQLデータベースをホスティングしているサーバの統合について

delveのtraceをデバッグ・デバッグ!

はじめに GO言語をやっていないとイケてないという風潮に、あせるネバー・フレンズ・Tです。やる気を出すためにGO言語布教の名曲Write in GOをCC(Close Caption)押して聴き、バイブス全開で学習することをおすすめしておきます。 今回は、GO言語のデバッガのdelveで、GO言語学習中に、はまったことを書きます。 delveでDebianパッケージのバイナリをデバッグする 自分のように特

シリーズ・すこしずつがんばる streaming data 処理 (4) Apache Flink を試す

シリーズ・すこしずつがんばる streaming data 処理の四回目です。 (初回はこちら) ステップを踏んですこしずつ進めていますので、ぜひ他の記事も見てみてください。 今回は、streaming data 処理の他の例として Apache Flink を試してみます。Flink を触るのは今回はじめてです。Beam の他にどんなものがあるのかな? と調べてみると思った以上にいろいろとあり、その中で 比較的シ

シリーズ・すこしずつがんばる streaming data 処理 (3) カスタム処理を書く

シリーズ・すこしずつがんばる streaming data 処理 (前回、前々回) の三回目です。 Streaming で逐次処理をやってみる 前回の記事では、固定サイズのデータを一括処理するバッチ処理を扱いました。が、Apache Beam で実現できる streaming data の逐次処理は、見逃すことができない強力な機能です。batch ではあらかじめサイズのわかっている (有限の) データを一括で扱いますが、stre

[レポート]AWS Summit Tokyo 2023

お久しぶりです、noseです。前回の投稿から約4か月ぶりとなってしまいました。普段はインフラエンジニアとしてスマートフォンゲームを中心にサーバ構築・運用・保守などを担当しています。(私が所属するチームの紹介はこちら)そんな私が、今回は2023年4月20日と21日に幕張メッセで開催された AWS Summit Tokyo 2023 の参加レポートを書きたいと思います! 概要 今回のAWS Summi

できる!TCP/IPスタック改造!

TCP/IPスタックを改造!? サービスの通信トラブルを解析する場合、弊社では通信パケットを取得して原因を探ることがあります。そういうことをやっていると、そのうちTCP/IPのやりとりについて途中で自由にパケットを弄れたらいいのに…という欲望がふつふつと湧いてくるときが来ます。 それじゃぁとLinuxのネットワークスタックのソースコードに挑むと、これがさ

30分で入門する Helm

Kubernetes の利用シーンは幅広い用途に広がり、長期計画でカスタムアプリケーションを開発してデプロイする以外にも、ぱっと cluster にアプリケーションを入れて使ってみるといったことも多く見られるようになりました。 単純なアプリケーションでは kubectl apply で済むものも多いですが、じゃっかん複雑な構成のものや、また変数を使って動作を変更したいときなどで

俺流!PEP668とうまくやっていく方法

PEP668は突然やってきた pythonのスクリプト書いてるときに、OSに入っていないpythonのモジュールが必要になったらどうしてますか? いままで、自分は細かいこと考えず、すぐ使えればいいやと割り切って $ pip3 install --user ほしいモジュール名 って、いつもやってました(笑)。まあ、見るからに、野蛮ですね。 ところが、先日久しぶりにDebian sidにはない無いモジュール(py

シリーズ・すこしずつがんばる streaming data 処理 (2) かんたんな処理の実行

すこしずつがんばる streaming data 処理、前回 からのつづきです。 目指していることの概要などは前回の内容をご覧ください。 いちばんかんたんな pipeline を実装してみる さて、前回では定形として用意された template 機能から実行してみることで、Dataflow で処理を行うのがどのようなことかの感覚をつかみました。 今回はそこから一歩進んで、想定した仕様にカスタマイズ

シリーズ・すこしずつがんばる streaming data 処理

パブリッククラウドでよくマネージドで提供されているサービスのうち、活用が大きなアドバンテージになると感じるものに、リアルタイムの逐次データ処理、streaming data 処理があります。これを実現するために、OSS はじめ多くのベンダーからもさまざまなものが提供されていますが、GCP で streaming data 処理といえばやっぱり Dataflow です。(独断と偏見) Streaming data 処理と

Docker でやってみる Windows container

Windows container …? ホシイです。 ふだんからひたすら container 技術についての情報を web で漁っていると、YouTube を開けば技術系の動画に混ざってコンテナ船舶 (実体) の動画もおすすめされるような状態であり、果てにはそれも視聴してしまいああこれはなるほどすごい技術だなあ。と感心したりなどする日々を過ごしております。 そんな日々の中であっても、なかなか

GitHub Flavored Markdownをローカルでプレビューしたい

日々GitHub上で管理されたファイルを編集していて欠かせないことの1つに「Pull Requestを作る」があります。 Pull Request(以下プルリク)の説明文はMarkdown記法をサポートしているので、箇条書きやWeb上にあるドキュメントへリンクなどを気軽に書くことができます。 ところで、プルリクの説明文やいわゆるREADME.mdのようなMarkdownで書かれた内容は直接GitHub上で表示されるので