TECH PLAY

データベース」に関連する技術ブログ

2355 件中 31 - 45 件目
こんにちは、SCSKでAWSの内製化支援『 テクニカルエスコートサービス 』を担当している貝塚です。 前回・前々回の記事では、AWS Systems Manager Session Managerのセッションログ記録とRDP録画の設定方法を解説しました。SSM-SessionManagerRunShellドキュメントでCloudWatch Logsへのログ記録を有効化し、Just-in-timeノードアクセスでRDP接続の画面録画を設定することで、EC2インスタンスへのすべての操作を証跡として残す仕組みを
DBRE (DataBase Reliability Engineering)チームの taka-h です。 大規模なデータ更新や削除は、やりたいこと自体はSQLで表現できても、そのまま一度に実行すると運用上のリスクが高くなります。例えば大きなトランザクションが発生すると、レプリケーション遅延やDB負荷の増大、UNDOログの肥大化などにつながり、結果としてサービス影響を招く可能性があります。 そこで私たちは、UPDATE/DELETEのような「最終的にやりたい操作」をSQLに近い形で記述しつつ、実行時には
こんにちは。 アプリケーションサービス部、DevOps担当の兼安です。 今回はKiro IDEの話で、簡単な感想記事です。 はじめに 最近のKiro IDE 想定していた技術検証の流れ 設計を自分で書いていないので指示が適当になっている 欲が出て余計な要件を入れてしまっている 自分も間違える、AIも間違える はじめに 先日ベクトルデータベースの技術検証記事を書いたのですが、この時の技術検証はKiro IDEをフル活用して書いています。 blog.serverworks.co.jp 検証用コードはこちらです
SCSKの畑です。 今回もデータベース関連の話題ですが、若干毛色の異なる内容となります。 要件とその背景 本案件における MySQL (RDS/Aurora) の各種ログは Cloudwatch Logs に出力されているような設計となっているのですが、ログの一部をマスキングできないかという相談を受けました。具体的には以下のような要件です。 本番環境用 AWS アカウントの Cloudwatch Logs に出力されたログはマスキングしない 運用保守用 AWS アカウントの Cloudwatch
ABEMA バックエンドエンジニアの大真です。 ABEMAのサブスクリプションシステムをリファクタリ ...
はじめに はじめまして。OSSソリューション統括部の松永です。 普段、私たちのチームは、PostgreSQLを主軸とするOSSの専門チームとして、社内のミッションクリティカルシステムへの開発参画および保守サポートを行っています。 ミッションクリティカルシステムの開発・運用では、プロダクトの技術仕様を正確に理解したうえでの設計判断が不可欠です。さらに、障害発生時には、原因を迅速かつ的確に特定し、暫定対処から本格対処、再発防止策の実行までを着実に進めることが求められます。 こうした要求に応えるためには、プロダ
はじめに こんにちは。基幹システム本部・リプレイス推進部・リプレイス推進ブロックの岡本です。 私たちのチームでは、ZOZOの基幹システムリプレイスの一環として、会計領域のシステムを新規構築しています。アーキテクチャにはCQRS(Command Query Responsibility Segregation)+ES(Event Sourcing)を採用しました(以降、CQRS+ESと略記します)。 本記事では、CQRS+ESを実務へ適用する中で直面した「小さな集約を保ちながら、大量の集約をまたいだ業務出力
AI Ultra Accessとは?できること、注目の機能 ※画像はGoogle公式ページより引用: https://workspace.google.com/intl/ja/products/ai-ultra/
こんにちは! 2026年3月にサーバーワークスに入社して、エデュケーショナルサービス課で研修中の勝部です。 今回は Amazon Aurora PostgreSQL-Compatible Edition(以下、Aurora PostgreSQL)の新機能「エクスプレス作成(Express Configuration)」を試してみました。 従来、Aurora のクラスター作成には数分〜十数分の待ち時間がかかっていましたが、この新機能ではたった2クリック・数十秒でデータベースが利用可能になります。 今回のアッ
はじめに 「導入したAIの予測精度をさらに引き上げたい」「AIの判定をより安定させて、現場のビジネスに深く定着させたい」――。AIモデルを開発・提供する当社にも、ビジネスを前進させるためのこうした前向きなご相談が頻繁に寄せられます。AIのみならず、データを活用したプロジェクトを成功に導き、期待以上の投資対効果(ROI)を生み出す最大の鍵。それは、AIに入力される 「データ」の品質 です。私たちAIベンダーは、日々モデルのアルゴリズムを磨き上げ、最高精度のエンジンを開発しています。 しかし、その最先端のAI
LIFULL HOME'S不動産査定 ・ ホームズマンション売却 の開発をしている、ジョン ヨンソクです。 今、私たちのエンジニアリングの世界は大きな転換期にあります。生成AIの登場によって、開発のスピード感や求められるスキルセットが劇的に変化しているからです。 そんな中、私はチーム内の「生成AI活用」を促進するための活動に取り組みました。今回は一人のエンジニアとして、チームと向き合いながら、どのようにメンバーとAIの距離を縮めていったのか、その試行錯誤のプロセスを綴ります。 一方的な「レクチャー」を避け
はじめに こんにちは、クラウドエースの木村です。 Google Cloud の Vertex AI に、完全マネージドで自己チューニング型のベクトルデータベース Vector Search 2.0 が登場し、従来の 1.0(旧称: Matching Engine)とは異なるアーキテクチャで運用が大きく簡略化されました。 この記事では、Vector Search 2.0 の概要と 1.0 との違いに触れたうえで、ハイブリッド検索(セマンティック検索 + テキスト検索を RRF(Reciprocal Rank
1. はじめに 弊社では入社一年目のエンジニアは全三期のOJTを通して部署を渡り歩き、業務や会社について知見を深めていくという制度があります。 OJTについての詳細は、私の同期が入社一年目の経験を基に記事を書いていますので、是非こちらをご覧ください! ニフティでの新卒一年目について そのOJTの第三期で、新システムへの移行に伴い旧システムの運用が停止したため、対象システムが動作していた環境を廃棄するための作業を行いました。 この記事では、システムの廃止で苦労した点、意識した点、学びを共有したいと思います。
はじめに Amazon Connect の AI エージェントを構築する際、開発者はお馴染みの課題に直面します。それは、厳しいスケジュールの中で複雑なインテグレーション要件に対応しなければならないことです。複数のバックエンド API の接続、堅牢なエラーハンドリングの実装、リアルなテストデータの生成、複数サービス間のデバッグ、これらすべてをコード品質と一貫性を保ちながら進める必要があります。10〜15 の API を統合する概念実証 (PoC) では、経験豊富なチームでも 2〜3 週間かかることも珍しくあ
1. はじめに 突然ですが、Apache KafkaとApache Flinkについて理解を深めたいと思い、AWS(Amazon Web Services)でこれらのマネージドサービスが提供されているため、使ってみようと思います。 詳細は後述しますが、Apache Kafkaに連携されたデータをApache Flinkで読み取り、連携先に送るというシナリオで実施してみます。 ※本記事に記載のサービス名や画面キャプチャ等は2026/3/8時点のものであり、今後変更される可能性がある点はご留意ください。また、