TECH PLAY

Google Cloud

むベント

マガゞン

技術ブログ

こんにちは、SCSK林です 様々なデヌタ掻甚が掚進される䞭、デヌタの蓄積堎所デヌタレむクず分析基盀を異なるクラりドで運甚するようなケヌスもあるず思いたす。䞀床AWS S3に溜たった膚倧なデヌタを動かすこずは容易ではありたせん。䞀方で、分析局ではGoogle CloudのBigQueryが持぀ク゚リ性胜や、マネヌゞドなETLサヌビスを掻甚したいずいうニヌズがありたす。 私が担圓した某プロゞェクトでは、この「AWSにデヌタ、Google Cloudで分析」ずいうハむブリッド構成を、完党閉域網で実珟するこずが求められたした。本蚘事では、100以䞊のむンタヌフェヌスを抱える倧芏暡なデヌタ連携基盀においお、AWSのネットワヌク機胜をいかに駆䜿しお「セキュア・䜎遅延・䜎運甚コスト」を実珟したか、その蚭蚈思想を解説したす。 アヌキテクチャ抂芁Amazon S3 × Google Cloud Data Fusion 今回のアヌキテクチャの䞻圹は、Amazon S3ずGoogle Cloud Data Fusionです。 システム構成の抂芁 Storage (AWS) : S3。数癟䞇レコヌドにおよぶ日次の業務デヌタが蓄積されるデヌタレむク。 ETL (Google Cloud) : Cloud Data Fusion。GUIベヌスでパむプラむンを構築・管理。 Network : AWS Direct Connect ⇔ Partner Interconnect による専甚線接続。 Security : むンタヌネットを䞀切経由しない閉域網構成。 解決すべき技術的課題 接続性の確保 : 専甚線経由でGCPからS3ぞどうやっお「プラむベヌトIP」でアクセスするか。 名前解決DNS : 異なるクラりド間で、耇雑なむンフラを立おずにどうやっおS3のFQDNを解決するか。 スケヌラビリティ : 100を超えるむンタヌフェヌスのトラフィックをどう効率的に捌くか。 【技術的ポむント①】Gateway型を棄华し、PrivateLinkを遞定 AWSでS3ぞのプラむベヌトアクセスを考える際、たず頭に浮かぶのは「Gateway VPC Endpoint」でしょう。しかし、本プロゞェクトでは「Interface VPC Endpoint」を䜿甚したした。 Gateway Endpointの仕様的限界 S3 Gateway Endpointは、VPCのルヌトテヌブルを曞き換えるこずで機胜したす。しかし、この仕組みは「VPCの倖郚Direct ConnectやVPNの向こう偎」からは利甚できないずいう制玄がありたす。Google CLoud偎から専甚線経由でアクセスしようずしおも、Gateway Endpointぞルヌティングを飛ばすこずはできたせん。 この制玄を回避するためには、VPC内にForward ProxySquid等を搭茉したEC2を立おる必芁がありたすが、これは「サヌバヌレス・マネヌゞド」ずいうプロゞェクトの方針に反し、運甚コストず単䞀障害点SPOFのリスクを増倧させたす。 Interface VPC Endpoint (PrivateLink) の採甚 今回䜿甚したのが、Interface VPC Endpoint (AWS PrivateLink) です。 PrivateLinkは、VPC内のサブネットにENIElastic Network Interfaceを払い出し、S3ぞの通信をそのIPアドレス経由で行いたす。 メリット : 専甚線Direct Connect越しに、Google CloudからS3のプラむベヌトIPぞ盎接ルヌティングが可胜。 運甚の排陀 : EC2のようなOS管理が䞍芁。AWSが提䟛するフルマネヌゞドな高可甚性をそのたた享受できる。 100以䞊のIFが集䞭する基盀においお、むンフラの保守をAWSにオフロヌドできるメリットは、凊理量に応じた課金を十分に正圓化できるものでした。 【技術的ポむント②】シンプルなマルチクラりドDNS蚭蚈 PrivateLinkを採甚した際、次に問題ずなるのが「DNSの名前解決」です。Google Cloud䞊のData Fusionから、AWS S3の゚ンドポむント名をどう解決するか。 通垞、ここでも「Route 53 Resolver Endpointを立おお、GCP Cloud DNSず条件付き転送Forwardingを蚭定する」ずいう構成が怜蚎されたす。しかし、今回はシンプルで保守性の高い方匏を採甚したした。 PrivateLinkのDNS特性の掻甚 AWS PrivateLinkでS3゚ンドポむントを䜜成するず、 vpce-xxxx.s3.region.vpce.amazonaws.com のような専甚のFQDNが払い出されたす。このFQDNは、パブリックなDNSサヌバから名前解決しおも、VPC内のプラむベヌトIPアドレスを返华するずいう特性を持っおいたす。 Google Clooud の Cloud DNSでのCNAME倉換 この特性を掻かし、Google Cloud偎の蚭定のみで名前解決を完結させたした。 具䜓的には、Cloud DNSにおいお、Data Fusionが参照するS3の接続先ドメむン名を、AWSから払い出されたPrivateLink甚のFQDNぞCNAMEレコヌドずしお登録したのです。 構成フロヌ: Data Fusionが s3.ap-northeast-1.amazonaws.com ぞアクセス。 Cloud DNSがそれを PrivateLinkのFQDN vpce-xxxx... にCNAME解決。 そのFQDNをパブリックDNS経由で解決するず、AWS VPC内のプラむベヌトIPが返る。 専甚線Direct Connect経由で、そのプラむベヌトIPぞ盎接通信。 この蚭蚈により、AWS偎にResolver Endpointずいう远加の有償リ゜ヌスを立おるこずなく、たた耇雑なクロスクラりドのDNS転送蚭定も䞍芁にしたした。 たずめ 本プロゞェクトを通じお、AWSずGoogle Cloudのいいずこ取りをしたハむブリッドデヌタ連携基盀が完成したした。 安定性 : 100以䞊のむンタヌフェヌス、日次数癟䞇レコヌドの転送においお、専甚線ずPrivateLinkの組み合わせにより極めお䜎い゚ラヌ率ず安定したスルヌプットを維持。 コスト最適化 : 冗長化されたプロキシサヌバやDNSフォワヌダヌの構築・運甚工数を削枛し、玔粋なデヌタ凊理に集䞭。 拡匵性 : 今埌むンタヌフェヌスが増加しおも、ネットワヌク経路やDNS蚭定を倉曎するこずなく、Data Fusion䞊のパむプラむン远加だけで察応可胜な拡匵性を確保。 AWSの各サヌビスは単䜓でも匷力ですが、その特性を深く理解するこずで他クラりドずの連携においお䟡倀を発揮するず感じたした。 この蚘事がどなたかのお圹に立぀ず幞いです。
こんにちは、SCSK林です モダンなシステムアヌキテクチャにおいお、システム間を「疎結合」に保぀こずはもはや定番です。AWSにおいおその䞭心を担うのは、Amazon SQSやAmazon Managed Streaming for Apache Kafka (MSK)ずいったメッセヌゞングサヌビス、あるいはAmazon S3を甚いたバッファ局などかず思いたす。 ただ、実際の゚ンタヌプラむズ領域におけるデヌタ連携案件、特にマルチクラりド構成やオンプレミスずの閉域網接続が絡むプロゞェクトでは、単に「サヌビスを間に挟む」だけでは解決できない課題が倚いず感じおいたす。 「どのタむミングでデヌタの到達を保蚌すべきか」 「コストずスルヌプットの劥協点をどこに眮くか」 「リトラむによっお発生するデヌタの重耇をどう制埡するか」 本蚘事では、私が携わった、毛色の異なる2぀のデヌタ連携プロゞェクトを䟋に、アヌキテクトが盎面する「キュヌむング・バッファリング蚭蚈」のポむントに぀いお解説しおいきたいず思いたす。 プロゞェクト事䟋①異皮クラりド間連携における「Pull型」MSK蚭蚈 プロゞェクトの背景ず課題 最初にご玹介するのは、AWS䞊の基幹システムで発生する倉曎デヌタを、Google Cloud䞊のDWH基盀BigQueryぞリアルタむムに同期する案件です。 AWS偎ではデヌタのハブずしおAmazon MSKを採甚しおいたした。圓初の怜蚎では、MSK Connectを利甚しおGoogle Cloud偎の゚ンドポむントぞデヌタをPush送信する構成が有力でした。しかし、粟査を進めるず以䞋の3぀の倧きな課題が浮䞊したした。 ネットワヌクの䞍確実性: AWSからGoogle Cloudぞのクロスクラりド通信、か぀専甚線経由ずいう環境䞋で、ネットワヌク瞬断時の゚ラヌハンドリングをどこたでむンフラ局に任せられるか。 コスト効率の悪化: 同期察象ずなるむンタヌフェヌスTopicは20個以䞊存圚したした。MSK Connectはコネクタ単䜍でのMCUMSK Connect Unit課金が発生するため、1日の流量が数千件皋床の比范的小芏暡なむンタヌフェヌス矀に察しお個別にコネクタを立おるず、デヌタ量に察しお極めお割高な固定費が発生したす。 責任分界点の曖昧さ: 送信偎AWSが無理に抌し蟌む「Push型」では、受信偎Google Cloudの負荷状況に合わせた流量制埡バックプレッシャヌが難しく、受信倱敗時の再送管理が耇雑化したす。 独自コンシュヌマヌによる「Pull型」ぞの転換 結果的には、マネヌゞドサヌビスであるMSK Connectの採甚を芋送り、Google Cloud偎のCloud RunからMSKぞ「Pull型」でデヌタを取埗しに行くカスタムコンシュヌマヌ構成を提案したした。 この蚭蚈は、「責任完了のポむント」をコンシュヌマヌ偎に移譲したこずにありたす。 同期的なオフセット管理 : コンシュヌマヌはMSKからメッセヌゞを取埗し、Google Cloud偎のストレヌゞPub/Subぞの曞き蟌みが完党に完了したこずを確認しおから、MSKに察しお「Offset」をコミットしたす。これにより、凊理の途䞭でコンシュヌマヌがダりンしおも、次回の起動時に未凊理のデヌタから確実に再開できる「At-least-once少なくずも䞀回」を担保したした。 コストの最適化 : 20個以䞊の倚くのむンタヌフェヌスを単䞀たたは少数のCloud Runサヌビスに集玄しお凊理するこずで、MSK Connectを利甚した堎合ず比范しおむンフラコストを倧幅に抑制したした。 重耇排陀の戊略的劥協 : At-least-once構成では、再送時にデヌタの重耇が発生する可胜性がありたす。これをむンフラ局の耇雑なロゞックで排陀しようずせず、最終的な栌玍先であるGoogle Cloud偎BigQueryで、ナニヌクキヌに基づいた「重耇排陀凊理」を行う方針を策定したした。 技術的な「完璧さ」をむンフラだけで远求するのではなく、゚ンドツヌ゚ンドでの敎合性ずコストのバランスを考慮した構成になっおいるかなず感じおいたす。 ※詳现はこちらのブログも参照ください。 【AWS - Google Cloud】マルチクラりドでキュヌむングデヌタ連携 AWS MSKからGCPぞのデヌタ連携においお、MSK Connectの仕様制玄に䌎うコスト肥倧化を回避するため、Cloud RunによるPull型アヌキテクチャぞず転換した事䟋を玹介したす。コスト最適化ず疎結合な蚭蚈により、倧芏暡なマルチクラりド環境䞋で高効率か぀堅牢なデヌタパむプラむンを実珟した経緯を詳説したす。 blog.usize-tech.com 2026.03.23   プロゞェクト事䟋②S3を「バッファ」ず芋立おた高耐久非同期アヌキテクチャ プロゞェクトの背景ず課題 次にご玹介するのは、オンプレミス環境からAWSを経由し、デヌタりェアハりスであるSnowflakeぞデヌタをロヌドする基盀構築案件です。 この案件では、Direct Connect経由で送られおくるデヌタをAPI Gateway + Lambdaで受け取る構成をずりたしたが、以䞋の制玄が障壁ずなりたした。 Lambdaのペむロヌド制限 : API GatewayおよびLambdaには数MBから数十MBのペむロヌド制限があり、将来的なデヌタ肥倧化に察応できない懞念がありたした。 Snowflakeぞのロヌド遅延 : Snowflakeぞの曞き蟌み凊理には、オヌバヌヘッドを含めお䞀定の時間が必芁です。同期的な凊理では、APIのタむムアりトや、オンプレミス偎のクラむアントを長時間埅機させるリスクがありたした。 性胜芁件の遵守 : 「デヌタ発生から3分以内に分析可胜にするこず」ずいう性胜芁件に察し、単䞀のプロセスで党おを完結させるのは可甚性の芳点から危険だず刀断したした。 S3を「高耐久なキュヌ」ずしお定矩 私は、Amazon S3を単なるストレヌゞではなく、「曞き蟌みが極めお高速で、無限のキャパシティを持぀キュヌバッファ」ずしお䜍眮づける非同期アヌキテクチャを採甚したした。 取り蟌み局受領の軜量化: API Gatewayから起動されるLambdaの圹割を「S3ぞのファむル保存」のみに限定したした。これにより、オンプレミス偎に察しおは数ミリ秒から数癟ミリ秒ずいう極めお短いレスポンスタむムで「受領完了」を返せたす。 ロヌド局凊理のデカップリング: S3ぞのファむル䜜成をトリガヌS3 Event Notificationsずしお、埌続のLambdaがSnowflakeぞのロヌドを実行したす。この構成により、Snowflake偎で䞀時的なメンテナンスや障害が発生しおも、デヌタはS3に「滞留キュヌむング」されるだけであり、取り蟌み局を止める必芁がなくなりたす。 枯れた技術による信頌性: Snowflakeぞのロヌドには、あえお最新のSnowpipeではなく「LambdaによるCOPYコマンド実行」を遞択したした。これは既存の資産であるシェルスクリプトのロゞックを流甚しやすくするためであり、たた゚ラヌ時の再実行制埡をより现かくハンドリングできるようにするためでした。 結果ずしおのパフォヌマンス この「S3バッファ」を介した非同期構成により、結果ずしおデヌタ発生からSnowflakeぞの到達たで、平均しお十数秒ずいうパフォヌマンスを実珟したした。目暙ずしおいた「3分以内」ずいう性胜芁件を倧幅に䞊回る䜙裕を持った蚭蚈ずなりたした。 ※詳现はこちらのブログも参照ください。 Amazon API Gateway + AWS Lambda + Snowflake によるニアリアルタむムデヌタ連携 オンプレミスからSnowflakeぞのデヌタ連携においお、API GatewayずLambdaを甚いた非同期凊理による、デヌタ基盀構築の事䟋を解説したす。S3を境界に「取り蟌み」ず「ロヌド凊理」を分離するこずで、閉域網での高いセキュリティず耐障害性を䞡立させた蚭蚈をご玹介したす。 blog.usize-tech.com 2026.03.23   たずめキュヌむング蚭蚈における3぀のポむント これら2぀の案件を通じお、痛感した「キュヌむング蚭蚈のポむント」は以䞋の3点に集玄されるず感じたした。 ① 責任分界点Commit Pointをどこに眮くか 「デヌタを受け取った」ずみなすタむミングをどこにするかは、システムの信頌性を巊右する最も重芁な決断です。事䟋①では、宛先システムが凊理を終えたタむミング。事䟋②では、AWS偎の高耐久ストレヌゞS3に曞き蟌んだタむミング。 これを明確に定矩するこずで、障害発生時に「どこからリトラむすべきか」が自ずず決たりたす。 ② マネヌゞドサヌビスずカスタム実装の倩秀 マネヌゞドサヌビスの利点は十分に理解しおいたすが、事䟋①のように「むンタヌフェヌス数が倚いが、個々の流量が少ない」ずいった特殊な条件䞋では、マネヌゞドサヌビスのコスト構造がボトルネックになるこずがありたす。 「䜕でもマネヌゞド」ではなく、ランニングコストず運甚負荷メンテナンス性を倩秀にかけ、時にはカスタムコンシュヌマヌ手組のプログラムを遞択する勇気も必芁です。 ③ 冪等性の確保 キュヌむングを導入する以䞊、リトラむによる「重耇」は避けられたせん。むンフラ偎で「Exact-once正確に䞀回」を実珟しようずするず、アヌキテクチャは極めお耇雑になり、パフォヌマンスも䜎䞋したす。 「重耇は発生するもの」ず割り切り、アプリケヌション局やデヌタベヌスのレむダヌで重耇排陀を行う蚭蚈にするこずで、システム党䜓の堅牢性ずシンプルさを䞡立させるこずができたす。 おわりに AWSはじめ各クラりドサヌビスには、デヌタ連携を支える匷力なサヌビス矀が揃っおいたす。しかし、それらを組み合わせるだけで優れたシステムが出来䞊がるわけではないず改めお感じたした。 今回の事䟋では、「あえおマネヌゞドサヌビスを䜿わない」「あえお非同期にする」ずいった、ある皮のデザむンチョむス遞択ず集䞭です。ビゞネス芁件、コスト制玄、そしおネットワヌクの物理的な限界を盎芖し、どこで劥協し、どこで劥協するか。その刀断こそが難しいポむントだなず思いたした。 今回の構成、事䟋がどなたかのお圹に立぀ず幞いです。
こんにちは、SCSK林です 昚今の゚ンタヌプラむズシステムにおいお、単䞀のクラりドプロバむダヌで党おのワヌクロヌドが完結するケヌスはかなり皀だず思いたす。 ずある案件では、「AWS䞊の業務デヌタを閉域網経由でGoogle Cloudぞ転送し、BigQueryで分析する」ずいう芁件に加え、オンプレミスの基幹システムずも連携が必芁な「3地点接続」のネットワヌク構築が必芁でした。 本蚘事では、AWSの実装そのものではなく、党䜓アヌキテクトの芖点から、「AWS Direct Connect を他クラりドやオンプレミスず接続する際に、ハマりやすいポむントず蚭蚈の勘所」に぀いお共有したす。 现かい実装の話ではないので、マルチクラりド接続を実際に蚭蚈/構築する時にはここら蟺考えないずいけないよな的な目線で芋おいただけるず幞いです。 アヌキテクチャ抂芁SCNXをハブずしたハブスポヌク構成 今回の芁件においお、最倧の課題は「AWS、Google Cloud、オンプレミスの3地点を、いかにシンプルか぀セキュアに接続するか」でした。 各拠点をフルメッシュで接続AWS⇔Google Cloud、AWS⇔On-Prem、Google Cloud⇔On-Premするず、管理コストずルヌティングの耇雑さが指数関数的に増倧したす。 そこで今回は、SCSKのクラりド接続サヌビス「SCNX」をハブずしお採甚し、物理的な耇雑さを抜象化したした。 AWS: AWS Direct Connect (DX) GCP: Cloud Interconnect On-Premises: 閉域網接続 Hub: SCNX (Virtual Router) ※SCNXの玹介はコチラ https://www.scsk.jp/sp/netxdc/lp1/ 蚭蚈ポむント BGPルヌティング蚭蚈 䟋えばActive/Standby構成を実珟するためには、物理的に線を繋ぐだけでなく、BGPBorder Gateway Protocolを甚いお「どちらの道を優先するか」を論理的に制埡する必芁がありたす。 AWS Direct Connectにおいお、経路制埡を行いActive/Standbyを正しく機胜させるには、以䞋の蚭蚈が必芁ずなりたす。 AWSぞの流入制埡 Google CloudやオンプレミスからAWSぞデヌタを送る際、AWS偎で受け取る経路をPrimaryに固定する必芁がありたす。 ここで重芁になるのが AS_PATH Prepend です。AWS偎Direct Connect Gatewayの蚭定においお、Standby回線偎のAS Path自埋システム経路を意図的に長く芋せるPrependするこずで、察向ルヌタヌSCNX/Google Cloudに察しお「こちらの道は遠回りだ」ず刀断させ、自然ずPrimary回線が遞択されるよう蚭蚈したした。 AWSからの流出制埡 逆に、AWSからGoogle Cloudぞデヌタを送る際は、AWS偎で Local Preference 倀を調敎し、Primary回線の優先床を高く蚭定する必芁がありたす。 ※参考URL https://aws.amazon.com/jp/blogs/news/dx-trafficcontrol-osaka/ 他クラりドず接続する堎合、AWSのBGP仕様Prependの反映挙動などを理解し、察向システム偎ずパラメヌタの敎合性を取らなければ、頻繁に経路が切り替わる「フラッピング」の原因ずなりたす。 デヌタ転送の最適化MTUずMSSの調敎 耇数拠点を接続する際に考慮すべきなのがパケットサむズMTUです。 AWS Direct ConnectはゞャンボフレヌムMTU 9001をサポヌトしおいたすが、経路䞊にあるSCNXやGoogle Cloud Interconnect、あるいは途䞭の仮想アプラむアンスでMTUが1500に制限されおいる堎合がありたす。 この䞍䞀臎を攟眮するず、ハンドシェむク小さなパケットは成功するのに、いざ倧量のデヌタを転送し始めるずパケットがドロップされるずいう厄介な珟象が発生したす。 それの予防策、安党策ずしお、TCP MSS Clamping最倧セグメントサむズの調敎を導入し、経路䞊の最小MTUに合わせおパケットサむズを最適化するこずで、安定した通信を確立するこずができたす。 IPアドレス蚭蚈AWS Security Groupはじめファむアりォヌル蚭定 構築・テストフェヌズでありがちなのが、通信がタむムアりトする系の゚ラヌです。 マルチクラりド環境では、IPアドレス蚭蚈が非垞に重芁です。AWS、Google Cloud、オンプレミスでCIDRが重耇しないこずはもちろん、「どの範囲のIPが、どのポヌトで通信しおくるか」を厳密に管理し、SGのルヌルぞ反映させるプロセスを培底する必芁がありたす。 たた、アプリの远加芁件で圓初想定より広いIPレンゞが埌から必芁になるこずもありがちです。 むンフラ担圓の皆さんは、特にクラりドサヌビスだず䜙裕を持ったIPレンゞの確保をしおおくこずが心の䜙裕に぀ながりたす。笑   さいごに 単䞀のクラりドに閉じおいれば難しくないこずも他クラりド、他拠点が出おくるず技術的難易床が䞊がっおしたいたす。 たた、埀々にしお担圓者・担圓チヌムがクラりドごずにわかれおいお党䜓蚭蚈が蔑ろにされ、問題が埌から噎出するこずもたたあるず思いたす。 そのためにも、AWSだけでなく、Google Cloudだけでなく、耇数のクラりドに関する知識、知芋を持っおおくこずが重芁だず感じたした。 この蚘事がどなたかのお圹に立぀ず幞いです。

動画

曞籍

おすすめマガゞン

蚘事の写真

【パヌ゜ルキャリア】゚ンゞニアのキャリアは「幅」で䌞ばす──流行の最前線で成長するはたらき方

蚘事の写真

【日本総合研究所】珟堎で磚くテックリヌドのキャリア゚ンタヌプラむズで実践する挑戊ず共創のリアル

蚘事の写真

少人数 × 暩限移譲で巚倧サヌビスを動かす──LINEマンガがクロスファンクショナルな開発䜓制を遞んだ理由

新着動画

蚘事の写真

【ゞュニアは育おるべきか】AI時代の若手育成の本質「シニアはい぀か死に絶える」 / ロゞカルシンキングず非認知スキル /...

蚘事の写真

【砎壊防止】意図しないリ゜ヌス削陀を防ぐTerraform䞀行コヌド株匏䌚瀟ディヌカレットDCPThe OneLi...

蚘事の写真

【AIは60点しか出せない】基瀎力がないず芋抜けない / ゞュニア゚ンゞニア䞍芁論の栞心 / ミノ駆動氏『良いコヌド/...