TECH PLAY

レバレジーズ 株式会社

レバレジーズ 株式会社 の技術ブログ

136

こんにちは。レバレジーズ株式会社のテックリードの竹下です。 2021/1/13に、 KARTE のサービスを運営しているプレイド社とマイクロサービスに関して、合同勉強会を開催しました。 今回は、クローズドかつ、リモートで勉強会を開催したため、リアル開催やリモート一般公開と比べてどのようなメリットがあったかをご紹介していきます。 目次 目次 開催の経緯 勉強会の内容 クローズドで内容が充実する 業務に密接に関係する話ができる 踏み込んだ話ができる 懇親会も濃密 開催者も参加者も楽できる 周知や参加者管理が楽 リモートなので参加者が楽 初めての発表の人も気が楽 まとめ レバレジーズと勉強会しませんか? 開催の経緯 これまでレバレジーズでは、社内勉強会に加え、セミナールームを勉強会に貸し出すことで、社外とも交流を持ち、エンジニアが学べて成長できる環境を作ってきました。しかし、コロナ禍によって勉強会が全てリモート開催になったり、延期になってしまったことで、勉強会の機会が減っていました。 社内での勉強会は、社内の知見共有が中心となってしまうため、世の中の技術トレンドや、他社での取り組みを知る機会は多くありません。自社でリモート勉強会を開催しようと考えましたがレバレジーズは技術的な知名度がまだ低く、集客は難しいと判断しました。(開催したのはいいけど、社員しか参加してくれなかったら悲しいじゃないですか……😥) 一般公開では集客が難しそうなので、TypeScriptでマイクロサービス化という技術スタックをすでに運用しているプレイド社に「2社で勉強会をしませんか」と声をかけたのが開催の発端です。 勉強会の内容 勉強会のタイムスケジュールは、「マイクロサービス」をテーマに15分程度で発表を2社2名づつ行い、その後に懇親会という流れで行いました。 それぞれのタイトルと資料は下の通りです。(敬称略、公開確認取れたもののみ掲載しています) レバレジーズ株式会社 住村 「マイクロサービス五里霧中」 株式会社プレイド 大矢「Tilt.dev を使ったリモート k8s 開発環境」 レバレジーズ株式会社 竹下 「開発効率爆上げを目指したインフラ技術スタック構想」 Slide@Prezi 株式会社プレイド 山内「アンチパターンから学ぶマイクロサービス」 私の発表に関しては詳しい内容は、また後日改めてブログに書きますので、ご期待ください クローズドで内容が充実する 業務に密接に関係する話ができる クローズド開催にすることで、関係者は2社のみとなるため、お互いが興味のあるテーマの勉強会を開催することが可能になります。一般公開の勉強会を行う場合、集客性や、世の中のエンジニアの人に役に立つような内容にすることを考慮する必要があるため、幅広い人に興味を持って貰えるようなテーマ設定になりがちです。 今回プレイド社とは、「TypeScript」と「マイクロサービス」という2つの共通点があり、マイクロサービスに関する勉強会を開催する運びになりました。 踏み込んだ話ができる クローズド開催になったことで、内容に関しても踏み込んだ内容まで発表することができました。一般公開した場合、その分野に詳しくない人も来ることが想定されるため、その人達にもわかるような発表をする必要があり、どうしても本題に入るのが遅くなってしまいます。 しかし、2社間だと前提とする知識が共通してあるため本題の説明に時間を多く割くことができました。(そのため、発表スライドだけを見てもらうと端折られているように感じる部分があるかもしれません。) さらに、発表内容自体も「開発環境をどう作っているか」や「どんな失敗をしたか」「どういう挑戦をしているか」など、一般論に終始しない実務に根ざした内容が盛りだくさんになっていて、普通の勉強会ではなかなか聞くことの出来ない内容になっています。 懇親会も濃密 勉強会では発表も重要ですが、懇親会も発表を補完する機能を持っています。クローズドだとお互い実務に携わっている人が多く参加しているので、発表者の人に話を聞くだけでなく、他のエンジニアに実務の中でのノウハウを聞いたり、あるある話に花を咲かせることも可能です。また、プロジェクトマネージメントや気になっている技術のことなど、普段なら相手のバックグラウンドを探ってからでないと聞きにくいようなことも聞きやすく、勉強会のテーマ以上のことを学ぶことも出来ました。 開催者も参加者も楽できる 周知や参加者管理が楽 私は前職で隔週で Scala勉強会 の会場係を7,8年務めていたり ScalaMatsuri の運営を5,6年手伝っていましたがが、参加者を集めたり内容を企画するのにいろいろ苦労をしてきました。connpass, atendなどのイベント告知サイトにイベント登録をしたり、発表を募ったり、キャパ制限があれば先着順や抽選をしたり、リアル会場なら会場への入場方法を案内したり、懇親会の店をとったりと様々な雑務が必要です。 しかし、クローズド+リモートにすることでそれらの手間がかなり軽減されました。周知はイベントサイトなど作る必要が無く、お互いの会社でSlackやメーリスで流すだけとなり、全員リモート参加なので人数制限や会場への案内も不要で、懇親会のお店の予約や準備もいりませんでした。そのため、勉強会の開催ノウハウや人員がいなくても手軽に開催が可能になります。今回は、初回ということもあり入念に準備しましたが、それでもミーティングが約1時間半くらいと、接続テスト30分程度で準備が出来ました。 勉強会を継続するには、勉強会の運営や管理をしていく人が必要になりますが、これぐらいの労力なら片手間に出来るので、ひとりでも継続して開催することができます。 リモートなので参加者が楽 リモートになったことで参加者も楽になっています。リアル開催の場合、会場へ移動する必要があるためどうしても参加障壁が上がります。今回は、19時開始でしたが、もしプレイド社(銀座本社)で開催した場合、レバレジーズは渋谷に本社を構えているため、遅くとも18時30分には退社し会場に向かう必要があります。懇親会含めると22時30分くらいまでやっていたため、家につくのは23時を過ぎてしまいます。レバレジーズ社とプレイド社ならまだ近いですが、大阪や福岡にある会社の場合は、そもそも参加すらできません。 しかし、リモートだと移動時間が全くなくなるので拘束時間は実際の勉強会と懇親会の時間だけになり、もし急遽業務の割り込みが合ったとしてもすぐに業務に戻ることも可能です。そのため、気軽に参加してもらうことが可能になり双方の参加者を増やすことが出来ます。 初めての発表の人も気が楽 私もはじめはそうでしたが、見ず知らずの人の前で発表をすることは初めての人にとってはハードルが高いものです。しかし、2社間クローズドにすることで半分は自社の人で見知った人も多くいるため、発表になれていない人にとっても発表がしやすいです。また、当日は資料を完全公開にする必要が無いため後で手直しも可能なため、発表慣れしていない人にとっては嬉しいかしれません。 まとめ 今回は、レバレジーズが現在取り組んでいるマイクロサービス化について、すでに運用して1年ほど経つプレイド社の知見を大いに学ぶことが出来ました。プレイド社のハマったポイントや、レバレジーズで現在抱えている問題をどのように解決しようとしているかなど、知りたいと思っていることを学ぶことが出来ました。 私もいろいろな勉強会に参加していますが、通常は入門的な内容が多かったり、今知りたいことと少しずれてたりするので、ここまで密度の高い勉強会はなかなか経験がありませんでした。 これは、クローズドかつリモートという形式を取ったことの効能だと感じました。 また、勉強会の開催の手間も少なく、ハードルも低いため頻繁かつ定期的に開催することも出来ると思います。今後もひとつ一の取組みとしてクローズドかつ、リモート形式での勉強会を継続して開催し、エンジニアの技術力UPの一助にしていきたいと思います。 レバレジーズと勉強会しませんか? 現在レバレジーズでは、マイクロサービス化、TypeScriptの導入、gRPCの採用、DDDやクリーンアーキテクチャの採用、Vue.js/Reactの導入、IaCによるインフラ管理など様々な 技術スタックの刷新 を行っています。もし、同じような技術を持っていたり、導入を考えている方いたら竹下や的場にご連絡ください!是非、一緒に勉強会を開催しましょう。 お問い合わせはこちら にお願いします。
アバター
はじめに こんにちは。プロジェクトマネジャーの丸山です。 最近、プロジェクトマネジメントに関する記事をたくさん見かけますが、 「社内システムのプロジェクトマネジメント」のテーマはそこまで出回ってないように思います。 そこで今回はレバレジーズの社内システムのプロジェクトマネジメントがどのように行われているのかを紹介します。 年商150億円を支える基幹システム! プロジェクトマネジメントについて紹介する前に、対象のシステムについて紹介させて下さい。 営業活動を行う時に利用するシステムを社内の事業部に提供しています。この類を営業支援システム(SFA)と呼び、有名なものではセールスフォース・Hubspotなどがあります。 このシステムは、顧客管理・案件管理・進捗管理・書類管理・金銭管理といった基本的なSFAに付いている機能に加え、 連絡機能(電話・メール・LINEなど)やマーケティング情報の管理機能なども付いているので、営業だけでなく事業の全領域を支援しています。(よって基幹システムと題させて頂きました) このシステムは、1つで4事業を支えています。看護師さんの紹介事業・派遣事業・介護士さんの紹介事業・派遣事業の4つです。 看護業界と介護業界の中身は異なる部分が多いですし、紹介事業と派遣事業のビジネスモデルも全く違いますが、人材業界という大きな枠組みでシステムを設計したことで、4事業の全領域を管理するシステムを作ることが出来ました。 このシステムが支援する4事業の年商は約150億円です。社員による月間アクセス数は250万PVとなります。 基幹システムの全体像 プロジェクトマネジメントをどのように行っているか?? それでは本題に入ります。 まず、全体の流れを簡単に示すと下記のようになります。 プランニング → 要件定義 → 基本・詳細設計 → 実装・テスト → 導入 → リリース → 効果測定 → プランニング このサイクルをおよそ1ヶ月スパンで回しています。関係者が全員社内にいるため、コミュニケーション調整コストがほとんどかからない社内システムだからこそ、この短いスパンを実現出来ています。 それでは、各プロセスについて具体的に説明します。 プランニング 今後どのようなシステム改修をしていくか、4事業の責任者と話し合い、優先順位を付けます。 4事業の売上を最大化するために、事業部の全活動の中でどこを改善するべきか(事業課題)を話し合います。事業課題の中でシステム改修によって解決可能なものがあれば、「このような改修によってこの事業課題がこのくらいのインパクトで改善される」などの提案をします。採用された提案には優先順位を付け、優先度の高い改修のスケジュール調整を行います。 採用された提案の多くがプロジェクトマネジャー発案であり、エンジニアが考えてプロジェクトマネジャーに提供した提案も採用されています。 ほとんどの改修で、自分達がやる価値があると思ったことに取り組んでいるので、開発チーム全体のモチベーションが高く保てています。 要件定義 プランニングで決まったシステム改修案の要件を定義します。 関係者を集め、どのような改修をしようとしているか説明を行い、実現可能性・課題解決の方法・役割分担などについて話し合います。 営業関連の改修なら営業部のリーダー、マーケティング関連の改修ならマーケティング部の担当者と、集める関係者は改修案によって異なります。同じ会社の仲間なので、協力的に動いて下さる社員が多く、様々な領域のプロフェッショナルと意見交換が出来るので視野が広がります。 基本・詳細設計 要件をベースに基本・詳細設計をします。 基本・詳細設計は画面設計・入出力設計・機能設計・DB設計の4つで構成されています。画面設計は、関係者に要望をヒアリングしたりプロトタイプを見せたり意見交換をしながら行います。 要望をヒアリングした際に、4事業の文化の違いやチーム体制の違いにより意見が割れることも多いです。この場合には全ての要望を汲み取るべきか取捨選択するかを意思決定し、対立意見の関係者を説得することで意見を収束させます。 4事業を支えるシステムだからこそ、難しい部分もありますが、この苦労があるからこそ4事業を支えるシステムが成立します。 また、DB設計では4事業間の整合性を担保するために抽象化・正規化が適切に行われているかを細かくチェックします。最初は上手く設計が出来ませんでしたが、経験を経て上手く設計出来るようになりました。DB設計が上手くなっただけでなく、概念的に考える力がかなり成長したと感じます。 実装・テスト 実装・テストの実行はエンジニアが担当します。 プロジェクトマネジャーの担当はスケジューリングとサポートです。 開発チームでは2週間ごとに区切りをつける、スプリント形式で開発しています。スケジューリングとは、プランニングで定めた改修のスケジュールを守れるようにタスクをスプリントに割り振っていくことです。サポートとは、エンジニアに要件や基本・詳細設計を説明をしたり、開発で発生した問題を解決したり、実装・テストを進めるための支援活動のことを指します。 複数のプロジェクトが並行して走ることが多く、スケジューリングやリソース調整は大変になりますが、「スケジュール通りに開発を進める」という、プロジェクトマネジメントで一番基本となる能力の成長に繋がりました。 導入 全てのシステム利用者に改修内容を説明します。 要件定義や基本・詳細設計において全てのシステム利用者を巻き込むことは時間制約上不可能なので、改修に関する情報があまり伝わってないシステム利用者もいます。 その方々に向けて、「どのような事業課題に対してどのような改修をしたのか」を説明します。システムの最大の目的は「4事業の売上の最大化」であるため、それに基づいてシステム利用者が表面上不便に思う改修を行うこともあります。 そのような場合にも改修の理由を事前に説明して理解してもらうことで、システム利用者との信頼関係を保つことが出来ます。 システムへの関心が薄い相手もいる中で、まんべんなく理解を得ることは難しく、このプロセスも初めは苦戦しました。ただ、試行錯誤を重ねる内に分かりやすい説明と共感性の高いメッセージの発信が身について、システム改修について大部分の人に理解してもらえるようになりました。 リリース エンジニアがリリース作業を行っている間にプロジェクトマネジャーがSlackでリリースを告知します。改修の内容が良ければ、告知後すぐにSlackのスタンプや称賛のコメントがたくさん返ってきます。反応が薄いときはもっと頑張らないとなと思いますし、反応があったときには純粋に嬉しい気持ちになります。 効果測定 システムのアクセスログや売上データを分析して、事業課題の改善インパクトを測定します。インパクトがプランニングで提案した時の基準に達していれば、システム改修によって事業課題を解決出来たと評価されます。 事業課題を解決出来た場合の達成感は、リリース時以上のものです。 リリース時の反応は重要であるものの指標の1つでしかなく、チームの最終的な使命は「事業課題の解決」と、それによる「4事業の売上の最大化」だからです。 事業課題を解決出来た際は、チームSlackで成果を共有し、達成の喜びを分かち合います。数多くの困難を共に潜り抜けたチームメンバーと共に達成の喜びを分かち合えたときは、全ての苦労が報われたように感じます。 効果測定が完了すると、その結果を踏まえて更なる事業課題が無いかプランニングで検討します。効果測定からプランニングに繋がることで、プロセスが循環しています。 まとめ レバレジーズの基幹システムのPMとは、一言で表すと「4事業の売上最大化を目的としたシステム改修の仕掛け人」です。この仕事には主に2つの魅力があります。 システムの規模が大きいこと 扱っているシステムは基本的なSFAの枠組みを大きく超え、連絡機能(電話・メール・LINEなど)やマーケティング情報の管理機能などもついているので、事業の全てを支える基幹システムと言えます。そのうえ、ひとつのシステムで4事業、年商約150億円を支えています。 裁量権が大きいこと システム開発において、上流として位置付けられる要件定義だけでなく、事業の責任者と事業課題を話し合うプランニングから参加しているため、システム開発に関する全ての意思決定について関わることが出来ます。 事業を成長させたい思いで自ら考え動かした改修案が、リリースされシステム利用者に喜ばれる、嬉しい経験も味わうことが出来ました。 4事業が関わるシステムなので、難しい意思決定が多いですが、コミュニケーション力や論理的思考力などのスキルの成長に繋がりました。 We are Hiring レバレジーズではプロジェクトマネジャー・エンジニアを募集しています。 興味を持って頂けた方はこちらからご連絡頂けると幸いです。 https://recruit.jobcan.jp/leverages/
アバター
はじめに こんにちは!エンジニアの呉です! 今回は社内で開発している電話アプリについて、Chrome拡張機能からElectronへリプレースした話をご紹介します。 リプレースしたきっかけ ■問題点 社内で開発している電話アプリでは、いくつかの問題が顕在化していました。 コードの見通し 電話という特異的な機能に加えて、Chrome拡張機能独自の お作法 によりコードの見通しが悪くなっていた 手動リリース ウェブストアのダッシュボードから審査の申請をする必要がある リリースコントロールがしにくい Chrome拡張機能の自動更新が最大5hのタイムラグが生じる( chroniumの対象コード ) ウェブストアの審査が介入するため、リリースが手間 ■解決手段 今回これらの問題を解決する手段として、Electron + Vue.jsでリプレースをすることを決めました。 コードの見通し 社内で知見の多いVue.jsを採用し、学習コストを低減 言語はTypeScriptを採用し、型宣言による開発効率、保守性の向上 表示のコンポーネント化、機能のモジュール化を行うことにより、それぞれの責務を明確にし、コード全体の見通しを向上 手動リリース GitHub Actionsを利用し、リリースを自動化 リリースコントロールがしにくい electron-builderの electron-updater パッケージを使い、自動更新タイミングを自分でコントロールできるように解決 AWS S3へのアップロードを行うだけのため、審査介入によるリリースコストダウン 出来上がったもの 今回出来上がったものを簡単なご紹介します。 ■Electronアプリケーション 主なディレクトリ構成は以下の通りです。 src ├── assets ├── background ├── components ├── constants ├── models ├── plugins ├── router ├── services ├── store └── views ディレクトリ名 役割 assets グローバルで利用するCSSやフォント、ロゴなどのリソース background Electronアプリケーションのライフサイクル制御とプロトコル設定、バージョンチェックなど components 表示部品単位でのコンポーネント定義 constants 通話で利用する結果コードの定義や外部イベントの定数を定義 models APIや通話で利用する連絡先などのモデル定義と型定義 plugins API通信で利用するaxiosやGoogle OAuth、Slackなど外部ライブラリのラッパーを定義 router ページのルーティング定義 services 業務ロジックをサービス層として抽出し定義 store モジュール単位での状態管理とアクション定義 views ページ単位単位でのコンポーネント定義 ■リリースフロー リリースフロー これまで他のプロジェクトでは、 CircleCI を使ったリリースの自動化をしていましたが、今回は GitHub Actions を使ったリリース方法を採用しました。 理由としては、 社内でElectronを使ったプロジェクトが多く発足する可能性を考慮し、プロジェクト独自のリリースフローで良いと判断 GitHub Actionsのワークフローを定義のみで設定作業のコストを削減 CircleCIのmacOSビルド環境(executor)を追加で契約する必要があったため、ランニングコストを削減 よかった点 今回電話アプリの開発を実際に担当している身として、前述の問題点に対してどうすべきなのか、どうしたらやりやすくなるのかをエンジニアサイドから考えた上での行動に起こしました。 ■運用保守コスト 結果として、リプレースによる利用者の満足度を向上させるようなダイレクトなインパクトはありませんでしたが、エンジニアサイドの心理的安心感や運用保守コストダウンにより、間接的に利用者に機能提供するまでの開発効率を向上することができました。 ■スキル ElectronやGitHub Actionsなど社内でもあまり導入実績のない技術に対して挑戦することで、個人の成長を実感することができました! ■意思決定 今回のリプレースの提案に対しても「イイじゃん!イイじゃん!」と共感してもらった上で、その場で「じゃあいつまでにできそう?」とスピード感に若干驚きました(笑) ボトムアップの提案に対してもスピーディに対応し、承認までの間隔が短く、提案することに対して億劫にならない環境だなーと私個人としてとても印象に残りました。 大変だった点 …ここまで良いことばかり書いてきましたが、もちろん良いことだけではありませんでした。 ■Twilio 元々前任者がベースを開発していたこともあり、全容を完璧に把握できていたわけではなかったので、動作が変わらないように全体を見渡す時間がとてつもなくかかってしまいました。 ■Appleの公証 macOSを利用している方もいるため、Appleの公証(アプリ署名)を行う必要がありました。 Apple Developer Programからの証明書発行、発行した証明書を用いてビルド・リリースの自動化で苦戦をしました。 最終的には electron-notarize を使うことで解決しました。 まとめ いかがでしたでしょうか? 社内のカイゼン事例として、社内電話アプリのChrome拡張機能からElectronにリプレースした話をご紹介いたしました。 今回エンジニアによるボトムアップからの提案に対してスピーディに実現ができたことが素直にとても嬉しかったです。 みなさんも「やりたい!」と思ったことをまずは声に出してみるところから始めてみてはいかがでしょうか。 We are Hiring レバレジーズでは、一緒に今をより良くしていく仲間を募集しています。 弊社に少しでも興味を持っていただいた方は是非ご連絡いただけると幸いです。 https://recruit.jobcan.jp/leverages/
アバター
はじめに こんにちは!エンジニアの藤野です! 今回は キャリアチケット が運営するキャリアチケットカフェの iOS/Android向けアプリ をFlutterにフルリプレイスした話をご紹介します。 なぜFlutterに移行したのか 元々アプリ開発はiOSはSwift, AndroidはKotlinを使用し、開発を進めていましたが、開発を進めていく上で生産性が上がらない問題が発生していました。 最終的には1人でモバイル開発をしていたため、iOS/Androidのどちらとも実装する時間がなく、iOSのみに実装するといったOSによって機能が違うアプリになっていました。また、1人で仕様検討から実装・リリースまでを行っていたため、開発効率も下がっていました。レビュワー等もいなかったため、プルリクエストを投げた後もセルフマージで対応していました。 以上のような問題を解消するために、Flutterにフルリプレイスすることを決めました。Flutterにした理由は下記2つです。 未経験でも取っ付き易い OS関係なくひとつの言語で統一できる 他のチームメンバーにもFlutterを触ってもらうことで、開発できる人を増やせること、さらに生産性を向上させるメリットがあったため、Flutterへのフルリプレイスへ踏み切りました。 構成 今回使用した状態管理手法やディレクトリ構成を紹介します。 状態管理の手法はChangeNotifier+Providerパターンを採用しています。Providerは Pragmatic State Management in Flutter (Google I/O'19) で公式に推奨されています。 設計当初にはまだ登場していませんでしたが、最近はStateNotifier+Freezed+Providerを使った状態管理や Riverpod の登場などがあります。 ディレクトリ構成 ディレクトリ構成は以下の通りです。どのような役割になっているかも、ひとつずつ簡単に説明しています。 lib ├── config │ └─ route.dart ├── models │ └─ tmp │ ├─ tmp.dart │ ├─ tmp.freezed.dart │ └─ tmp.g.dart ├── resources │ ├─ api │ │ └─ tmp_api_provider.dart │ └─ repositories │ └─ tmp_repository.dart ├── screens │ ├─ common │ └─ tmp │ ├─ widgets │ └─ tmp_screen.dart ├── services ├── utils ├── assets ├── viewmodels │ ├─ common │ └─ tmp │ └─ tmp_view_model.dart └── main.dart config 設定ファイルを配置(ルーティングを設定するファイルなど) models 作成するモデルのディレクトリを作ってその中にdartファイルを配置する freezedパッケージ を使用 resources api APIとのやり取りをするファイルを配置 ファイル名 : xxxx_api_provider.dart repositories apiからデータを取得して各モデルの形にマッピングしたり、データ送ったりする ファイル名 : xxxx_repository.dart screens 各画面ごとにディレクトリを作成してその中にファイルとwidgetsディレクトリを作成する 基本的には1画面1screenを作成し、widgets配下に画面内で使用するWidgetを配置 services 主に外部サービスとの連携周りの処理を書いたものを配置 utils 定数などのファイルを配置 assets 画像などの素材系を配置 viewmodels screenの状態管理をここで全て行う provideパッケージ を使用(Provider & ChangeNotifier) 構成は以上のようになっています。伝わりづらい部分はサンプルとして、 APIからデータを取得して表示するだけの簡単なアプリを作成しながら詳しく説明します。 1. パッケージの導入 providerパッケージやfreezedパッケージを利用するため、pubspec.yamlを以下のようにします。 dependencies: flutter: sdk: flutter - cupertino_icons: ^0.1.3 + provider: + freezed_annotation: + http: dev_dependencies: flutter_test: sdk: flutter + json_serializable: + build_runner: + freezed: 2. モデルの作成 モデルはFreezedパッケージを使用しているため、以下のように書いた後に以下のコマンドを実行します。 flutter pub run build_runner build これによって event.freezed.dart ファイルと event.g.dart が生成されます。 詳しいFreezedパッケージの使い方は ドキュメント を参照してください。 import 'package:freezed_annotation/freezed_annotation.dart' ; import 'package:json_annotation/json_annotation.dart' ; part 'event.freezed.dart' ; part 'event.g.dart' ; @freezed abstract class Event implements _$Event { factory Event ({ int id, String title, @nullable @JsonKey (name : 'created_at' ) String createdAt, }) = _Event ; factory Event . fromJson ( Map < String , dynamic > json) => _$EventFromJson (json); } 3. APIからの取得処理実装 APIから実際にデータを取得する部分をプロバイダーとして作成します。 import 'package:http/http.dart' as http; class EventApiProvider { Future getAll () async { return await http. get ( 'http://localhost:8080/events' ); } } Repositoryでは上記で作成したプロバイダーから取得したデータをモデルの形にマッピング import 'dart:convert' ; import 'package:sample/models/event.dart' ; import 'package:sample/resources/api/event_api_provider.dart' ; class EventRepository { Future < List < Event >> getAll () async { final _response = await EventApiProvider (). getAll (); return json. decode (_response.body) . map < Event > ((json) => Event . fromJson (json)) . toList (); } } 4. ViewModelの作成 ここで先ほど作成したEventRepositoryを利用してデータを取得し、画面側へ結果を伝えます。 import 'package:flutter/material.dart' ; import 'package:sample/models/event.dart' ; import 'package:sample/resources/repositories/event_repository.dart' ; class EventViewModel extends ChangeNotifier { final EventRepository _repository = EventRepository (); List < Event > events = [] ; Future getAll () async { events = await _repository. getAll (); notifyListeners (); } } 5. Screenの作成 ボタンを押すとAPIからデータを取得し、取得結果を表示するような画面を作成します。 ボタン押下時にViewModel側の getAll() を呼び出してデータを取得、 notifyListeners() が呼び出されたタイミングでListViewが再描画されます。 import 'package:flutter/material.dart' ; import 'package:provider/provider.dart' ; import 'package:sample/viewmodels/event_view_models.dart' ; class EventScreen extends StatelessWidget { @override Widget build ( BuildContext context) { EventViewModel _viewModel = Provider . of < EventViewModel > (context); return Scaffold ( appBar : AppBar ( title : Text ( 'Event List' ), ), body : Center ( child : Column ( children : < Widget > [ FlatButton ( onPressed : () async => _viewModel. getAll (), color : Colors .lightBlue, child : const Text ( '取得' ), ), Expanded ( child : ListView . builder ( itemCount : _viewModel.events.length, itemBuilder : ( BuildContext context, int index) { return ListTile ( title : Text ( " ${_viewModel.events[index].id} : ${_viewModel.events[index].title} " ), ); }, ), ), ], ), ), ); } } 6. main.dartの修正 各画面の遷移先は以下のようにルーティングファイルに記載します。 import 'package:flutter/material.dart' ; import 'package:sample/screens/event_screen.dart' ; final Map < String , WidgetBuilder > routes = { '/' : ( BuildContext context) => EventScreen () }; そして MaterialAppのroutesに先ほど作成したルーティングを設定することによってEventScreenが呼び出されるようになります。 import 'package:flutter/material.dart' ; import 'package:provider/provider.dart' ; import 'package:sample/config/route.dart' ; import 'package:sample/viewmodels/event_view_models.dart' ; void main () { runApp ( MyApp ()); } class MyApp extends StatelessWidget { @override Widget build ( BuildContext context) { return MultiProvider ( child : MaterialApp ( routes : routes, ), providers : [ ChangeNotifierProvider (create : (context) => EventViewModel ()), ], ); } } 完成! 取得ボタンを押すと、APIからデータを取得し表示します。 実際にリプレイスしてみて メリット 開発工数の削減 Flutterで開発すると、SwiftとKotlinの別々で書いていたときよりも 体感4割ほど工数が削減できました。ただ、全て共通で同じ実装をできるかと言われるとそうでなく、OSに依存する機能などは個別に実装する必要があるため、その部分に関しては工数がかかってしまいます。 また、Flutterの大きな特徴の一つである ホットリロード機能 がとても便利で、開発中のデバッグにかかる時間がかなり削減されました。 未経験でも開発が容易 今回のリプレイス作業は、自分以外のチームメンバーのほとんどがFlutter未経験者でしたが、全員スムーズに開発をすることができました。公式ドキュメントが充実していて、UI部分に関してもSwiftやKotlinよりも簡単に実装ができるため、Flutter未経験でも簡単にモバイルアプリを開発することができます。 UIの実装が簡単 こちらもFlutterの大きな特徴ですが、UI部分は全てWidgetで構成されており、マテリアルデザインなどといった、様々なデザインが備わっています。そのため、ある程度のデザインであれば公式のライブラリを使用することで、簡単に実装をすることが可能です。 コードレビューが楽 SwfitやAndroidではそれぞれStoryBoardとレイアウトファイル(xmlファイル)で実装していたため、コードレビューの際に変更箇所の差分が分かりにくく、苦戦していました。Flutterに移行したことで、変更箇所が分かりやすく、コードレビューが楽になりました。 デメリット OSに依存する機能などは個別に実装が必要 OS依存の機能を使わない場合に関しては、特に問題ありません。通知機能やAppleサインインなどのOS依存の機能を実装する場合は、その部分に関する知識が必要になってきます。 また、リリース時もiOSとAndroidで証明書が異なるため、別々に管理することが必要となります。 パフォーマンスを考慮した設計 さまざまなWidgetを組み合わせて簡単にUI部分を実装することは可能ですが、何も気にせずに実装を進めていくと、ネイティブよりもパフォーマンスが低下し、アプリ実行時に全体的にもっさりした感じになります。そのため、複雑なUIなどの場合にはパフォーマンスを考慮して設計をしなければいけません。 開発を行ったチームメンバーの感想 モバイルアプリ開発未経験にも関わらず、リプレイス作業に携わってもらったチームメンバーから、以下のような感想を貰いました。 環境構築がそこまで複雑ではないのですぐに開発をすることができた UI部分はWidgetがHTMLみたいで直感的で書きやすい UIパーツを組み上げる感覚で、思ったほど苦労せずに実装できた Flutterの進歩が早い 開発がスムーズ進められた(デバッグツールが使いやすい、ホットリロード機能最強!など) メリットでもあるUI部分に関しては、直感的で未経験者でも開発がしやすいとのことです。 Flutter移行中に起きた問題とその対応 Flutterに移行する際にさまざまな問題等に直面したので、その内容と解決方法、注意点などをいくつかご紹介します。 UI設計をあらかじめした方が良い 今回は画面単位で担当者を割り振ったため、コンポーネント化出来るWidgetがコンポーネント化されていなかったりと煩雑になってしまいました。他にもContainer Widgetを使う実装があったので、パフォーマンスなども考慮して適切なWidgetを使うことをおすすめします。 iOSのバージョンアップデートには事前に対応しておくべき 今回iOS側には Universal Links 機能を実装していたのですが、アプリのリリース前にiOSのバージョンがiOS 14に上がったことで Associated Domains 周りの仕様が若干変更されました。そのため、サーバサイド側の設定変更を余儀なくされました。 iOSの次バージョンがリリースされる3ヶ月ほど前の6,7月頃にはBeta版がリリースされるので、事前にBeta版を使ってあらかじめ対応するべきでした。 審査に落ちてしまった iOS側の話が続きますが、いざリリース申請に出したところ、 App Store Reviewガイドラインの5.1.1(xi) に引っ掛かっている理由のため、リジェクトにされました。 ガイドラインに引っ掛かった原因は、アプリ内に下記のようなRSSから記事を取得して表示する機能を実装していたものの、その中に「新型コロナウイルス」に関する記事が表示されていたため、リジェクトされていました。 そのため、サーバサイド側でRSSから記事を取得する際、タイトルに「新型コロナウイルス」に関する単語が入っている場合は表示しないよう、一時的に対応しました。その後、もう一度審査に出したところ、何の問題もなく審査を通過しました。 外部からの取得したデータを表示する場合などは、念のため気をつけましょう。 リリース周りが大変 iOSとAndroidではデメリットのひとつ目にも記載していますが、リリースまでの手順が異なるため、OSごとに対応が必要となってきます。ビルドからデプロイまで全て手動で行うのは大変でしたが、現在ではFlutterなどモバイルに特化したCI/CDツールである Codemagic の導入を検討しています。 終わりに 今回、SwiftとKotlinで実装されたアプリをFlutterに移行した話をご紹介しました。チームメンバーのほとんどがFlutter未経験にもかかわらず、スムーズに移行を進めることができました。 この移行プロジェクトは自分からチームリーダーに提案をしたものですが、快く承諾していただきました。メンバーが提案しやすい環境があること、感謝しています。 未経験者でも、簡単にモバイルアプリ開発をすることができます。Flutterを触ったことのない方は是非、Flutterを触ってモバイルアプリ開発をしてみてください。
アバター
はじめに レバレジーズ株式会社 エンジニアの高橋です! 本日から、社内で毎週金曜日に行なっている勉強会、通称「てっくらんち」を皆さんにお伝えします!! 「てっくらんち」ってどんな勉強会? お昼にやっているゆる〜い勉強会です。 毎週金曜日に開催しており、社内エンジニアの発表をお昼ごはんを食べながら聞くスタイルの勉強会です。 発表者は毎回一人で、発表時間は15分〜30分程度、質疑応答も含めると30~45分ほどの内容になっています。 ジャンルは様々で、エンジニアの生存戦略的な内容から、Dockerの踏み込んだ話まで、技術に関する内容であれば何でもOKな形をとっています。 発表者も様々で、あらゆる部署のエンジニアや、フリーランスでJoinされている方、支店や外勤のエンジニアなど、社内の多くのエンジニアが参加しています。 本日のてっくらんち 発表日:2020/06/19 発表者:住村 翼 題目:クリーンアーキテクチャ入門 てっくらんち ~ クリーンアーキテクチャ入門 ~ 感想 今回は、住村さんから弊社でシステム化をしているお米予約システム&お米を炊く例にして、クリーンアーキテクチャの概要から、実際に実装をするときどうするかをお話していただきました。 特にDIに関して、メリット、デメリットを踏まえて教えていただいたので、実装するときに今後の実装に活かしていこうと思います。 We Are Hiring レバレジーズ では「てっくらんち」のような社内での勉強会や「レバテックラボ」という外部の講師を招いたパブリックな勉強会も開催しております。 また、横浜に開発拠点ができるなど、新たな働き方も創出しています。 弊社に少しでも興味を持っていただいた方はご連絡いただけると幸いです。 https://recruit.jobcan.jp/leverages/list?category_id=5142 recruit.jobcan.jp
アバター
こんにちは、msatoです。 AWS re:Invent2019のワークショップ「ENT206 Optimize AWS costs and utilization with AWS management tools」のレポートになります。 概要 この実践セッションでは、AWSのツールとサービスを使用して、ビジネス全体のコスト最適化を推進する方法を学びます。 AWS IAMポリシー、AWS予算、AWSコストエクスプローラーなど、コスト管理のコアツールを検討します。これらのツールを習得した後、Amazon Athenaを使用した高度な課金分析と、Amazon QuickSightを使用した視覚化について詳しく説明します。 原文 In this hands-on session, you learn how to use AWS tools and services to drive cost optimization throughout your business. We look at the core tools of cost management, such as AWS IAM policies, AWS Budgets, and AWS Cost Explorer. After mastering these tools, we go deeper into advanced billing analysis with Amazon Athena and visualizations using Amazon QuickSight. スピーカー Nathan Besh Cost Lead, Well-Architected , Amazon Web Services Arthur Basbaum AWS Cloud Economics , Amazon Web Services レポート Governance AWS BudgetsとIAM Policiesでコストの統制を行います。 AWS Budgets 使用量と支出を通知することができる(予算を超えたらアラートを飛ばす) 予算の使用状況をレポートにして、配信することが可能 IAMポリシー ユーザが起動できるインスタンスのタイプを指定することができる(t3.larage以下を起動できるようにするなどができる) Visualization and Analysis Cost ExplorerやGlue、Athena、QuickSightを使ってコストを可視化します。 Cost Explorer 無料で使えるコスト分析ツール コストと使用状況を分析し傾向やコスト要因を把握することができる Glue マネージド型 ETL (抽出、変換、ロード) サービス Athena Amazon S3 内のデータをSQLを使用して分析できるサービス GlueとAthenaを活用したコスト可視化 コストのレポートをS3に保存する(請求ダッシュボードから可能) Glueを使ってデータを分析しやすい形に整えます Athenaで分析する クエリの例) Top10 アカウントIDごとのコスト select "line_item_usage_account_id", round(sum("line_item_unblended_cost"),2) as cost from "workshopcur"."workshop_c_u_r" where month(bill_billing_period_start_date) = 12 and year(bill_billing_period_start_date) = 2018 group by "line_item_usage_account_id" order by cost desc limit 10; Top10 EC2 Costs select "line_item_product_code", "line_item_line_item_description", round(sum("line_item_unblended_cost"),2) as cost from "workshopcur"."workshop_c_u_r" where "line_item_product_code" like '%AmazonEC2%' and month(bill_billing_period_start_date) = 12 and year(bill_billing_period_start_date) = 2018 group by "line_item_product_code", "line_item_line_item_description" order by cost desc limit 10; Right Sizing インスタンスのサイズを適切にして、コストをカットします。 インスタンスのサイズを一つ落とすと、料金は半分になる Cloudwatch インスタンスで使用しているリソースの状況を確認する Cost Explorer EC2 Optimaization cloudwatchで取得しているメトリクスからインスタンスサイズをレコメンドする cloudwatch agentからのメトリクスもレコメンドに使える Pricing Models Savings Planを使って、コストの割引を受けます Savings Plans 1年間または3年間、一定の利用料をコミットするだけで、その利用料に対して割引がてきようされる Cost Explorer > Savings Plansから見積もりを確認することができる RI report Cost Explorer > Savings PlansからRIのレコメンドを確認できる Well-Architected Tool AWSのベストプラクティスにそったアーキテクチャにすることで、コストを最適化します。 Well-Architected Tool サービス > Well-Architected Toolから使用できる 運用上の優秀性、セキュリティ、信頼性、パフォーマンス効率、コスト最適化の5つの柱からなる質問に答えることで、現状とベストプラクティスを比較できる まとめ 弊社でもリザーブドインスタンスを購入するなど、コストカットの取り組みは行ってきました。 このセッションを聞いてまだまだできることはありそうだと感じました。 コストについて知って、お得にAWSを使いましょう。
アバター
こんにちは、msatoです。 AWS re:Invent2019のワークショップ「DOP202-R2 - [REPEAT 2] Implementing GitFLow with AWS tools」レポートになります。 概要 短命の機能ブランチを利用することは、多くのチームにとって最適な開発方法です。このワークショップでは、AWSツールを使用してマージとリリースのタスクを自動化する方法を学びます。 AWS CodePipeline、AWS CodeCommit、AWS CodeBuild、AWS CodeDeployを使用してGitFlowを実装する方法の高レベルフレームワークについて説明します。また、事前に構築された例を見て、個々のユースケースにフレームワークをどのように採用できるかを調べる機会もあります。 原文 Utilizing short-lived feature branches is the development method of choice for many teams. In this workshop, you learn how to use AWS tools to automate merge-and-release tasks. We cover high-level frameworks for how to implement GitFlow using AWS CodePipeline, AWS CodeCommit, AWS CodeBuild, and AWS CodeDeploy. You also get an opportunity to walk through a prebuilt example and examine how the framework can be adopted for individual use cases. スピーカー Ashish Gore Sr. Technical Account Manager , Amazon Web Services Amit Jha Sr. Solutions Architect , Amazon Web Services GitFlowとは git-flowは、正確にいうと Vincent Driessen 氏が提唱する「A successful Git branching model」というブランチモデルをサポートするツール(コマンド)の名称です。 一般的には、モデルとツールのどちらの名称としても使われています。git-flowでは、役割が決められた5種類(場合によっては6種類)のブランチを切り替えながら開発を進めていきます。 ブランチの作成やマージに決まりを設けることで、複数人での開発時にもブランチをわかりやすい状態に保つことができ、不用意なマージによる問題を避けることが可能です。 [参考 Git-flow ~Gitのブランチモデルを知る~] ( https://tracpath.com/bootcamp/learning_git_git_flow.html ) 資料 AWS TOOLS GITFLOW WORKSHOP レポート Codeシリーズを始めとしたAWSサービスを使って、Gitflowを実現するワークショップです。 使用するAWSサービスの概要 今回のワークショップで、使用するAWSサービスの概要です。 CodeCommit: Gitリポジトリをホストするサービス CodePipeline: 継続的デリバリーサービス CodeBuild: ビルドサービス(ソースコードのコンパイル、テスト) CodeDeploy: デプロイを自動化するサービス Lambda: サーバレスでコードを実行できるサービス Cloudformation: AWSリソースのプロビジョニングサービス Elasticbeanstalk: ユーザがインフラを管理しなくても、アプリケーションをホスティングできるサービス ブランチが作成された際の流れ ブランチが作成された際に、自動で環境が立ち上がりコードがデプロイされます。 流れは以下です。削除時も同様です。 ユーザがCodeCommitリポジトリにブランチを作成する Codecommitトリガーで、ブランチが作成されたのを検知してLambdaを呼び出す LambdaではCloudformationを実行する Cloudformationでは、CodePipelineとElasticBeanstalkが作成される。 まとめ ブランチを作るだけで、環境が立ち上がりデプロイされるのはとても楽ですね。 個人的には、CodeCommitのトリガーが便利だと思いました。 AWSのサービスなので、Lambdaとの連携が簡単です。 (githubでもwebhook使えばできます) Gitのブランチモデルに合わせて、最適なデプロイの流れを作っていきたいです。
アバター
こんにちは、msatoです。 12月1日よりはじまったAWS re:Invent 2019に、当社からは私を含むエンジニア2人が参加しました。 re:Inventでの学習効果を最大限に高めるために、快適に過ごすためのTipsを紹介します。 移動編 reinventは複数の会場があり、会場によってはバスで数十分かかります。 地図上はさほど離れていない用に見えますが、端から端までで 約4km あります。 (MGM GrandからEncoreまで、徒歩で約50分) 会場内もとにかく広いです。 移動で消耗しないためのTipsを紹介します。 歩きやすい靴は必須 re:Inventでは、とにかく歩くことになります。 日によっては、歩数が 20000歩 を超えたこともありました。 (日本人の1日あたり平均歩数は、約8000歩) 靴ずれや移動で疲れないために、歩きやすい靴必須です。 帰国日が一番多かったですが、reInvent期間中は平均15,000歩くらいになっています。 セッションはできるだけ同じ会場にまとめる できるだけ移動を少なくできるように、予定を組むことをおすすめします。 会場間の移動で、30分以上かかることもあるので時間を無駄にしてしまいます。 有意義に過ごすために、日によって会場をまとめる・overfloowルームを活用するなどしたほうがいいです。 こまめな給水を心がけよう 周りが砂漠のため乾燥しています。 疲労をためないために、こまめな水分補給をおすすめします。 給水スペースは会場の至るところにあるので、活用しましょう。 宿泊編 ホテルは「ザ・ベネチアン/パラッツオ」おすすめ 「ザ・ベネチアン/パラッツオ」 がおすすめです。 理由は、メイン会場だからです。 メイン会場では、Keynoteや前夜祭(MidnightMadness)が行われます。 単純に行く回数が多いと思われるので、宿泊先にしてしまえば移動時間を短縮できます。 (私自身も、期間中毎日1回は「ザ・ベネチアン/パラッツオ」行きました) 水の確保が大切 ホテルの部屋にも水のペットボトルがありますが、高いです。 また自販機もないため、水の確保が面倒です。 近くのドラックストアでまとめて買うのがおすすめです。 「WealthMart」「CVS」などで買うことができます。 1ガロン(約4リットル)の容器で買うとコスパがいいです。 初日に1人 1~2本買っておけば手間が少ないです。 同じことを考える人は多いみたいで、初日は売り切れてました。 できるだけ早めの時間に買いに行くことをおすすめします。 写真撮り忘れましたが、こんな感じです。 ポータブル加湿器を持っていこう ラスベガスはとにかく乾燥してます。 私は1日目、就寝時に口の中が乾きすぎて起きました。 日中のパフォーマンスを低下させたいために、睡眠の質は確保したいところです。 タオルを濡らして加湿するのもいいのですが、最近は持ち運びに便利な小型の加湿器があります。 値段もリーズナブル(1000~2000円)なので、日本で買っておくことをおすすめします。 セッション編 予約できなかったセッションでも、当日並べば受けれる事が多い セッションは事前に予約することができます。 しかし、人気のセッションを予約するのはなかなか難しいです。 「どうしても受けたいけど、予約を取れなかった」場合は、 当日並んでみましょう。 当日席が用意されているため、並んでみると受けれることが多いです。 開始の30分~1時間前に行けば高確率で受けれます。 人気のセッションは、1時間半前くらいに並ぶのをおすすめします。 ハードウェア系のワークショップ受けてみよう ハードウェア系(Deepracer、Deepcomposer、Alexa、IoT系)のワークショップおすすめです。 おすすめの理由は、2点あります。 普段触る機会がない人が多いと思うので、刺激になる ワークショップでハードウェアを貰えることがある 今回は、DeepcomposerやDeepracerがもらえたそうです。 (聞いた話では、昨年はAlexaとかももらえたとか。) 知識も増えて、帰国後も学習できるハードウェアが手に入り一石二鳥ですね。 AWS Deepcomposer セッションカタログはこまめに確認しよう reInventの期間中もセッションやワークショップは追加されます。 追加されたセッションは一瞬で埋まってしまうこともあります。 こまめに確認して、受けたいセッションを逃さないようにしましょう。 「 new launch 」とかでセッションカタログを検索すると見つけやすいです。 最後に 実際にreInventに行ってみて、知っていたら便利そうなことをまとめました。 快適に過ごして、reInventの学習効果を最大限にしましょう。
アバター
こんにちは、msatoです。 AWS re:Invent2019のワークショップ「ARC313 Architecting Global Storage with AWS Lambda and storage Gateway」のレポートになります。 概要 企業は、AWSテクノロジーのベストプラクティスを使用して、オンプレミスとクラウドの両方で世界中の生産施設に資産を同期する方法を探しています。このセッションでは、AWS Lambda、Amazon API Gateway、Amazon Simple Storage Service(Amazon S3)、AWS Storage Gateway、AWS Directory Service、およびAWS Fargateを使用して、世界中の従業員のコラボレーションを可能にするサーバーレスグローバルストレージプラットフォームを構築する方法を学びます。 Companies are searching for ways to synchronize their assets to their production facilities around the world, both on-premises and in the cloud, using best practices with AWS technologies. In this session learn how you can use AWS Lambda, Amazon API Gateway, Amazon Simple Storage Service (Amazon S3), AWS Storage Gateway, AWS Directory Service, and AWS Fargate to build a serverless global storage platform to enable employee collaboration around the world. スピーカー Paul Roberts Rob Hilton Principal Solutions Architect , Amazon Web Services レポート 構成図 動画ファイルを格納できるグローバルストレージの構築です。 具体的にはアテナに動画編集者がいて、トロントから確認したいというケースでした。 (アテナは読み書きが可能で、トロントでは読み込み) AWSのマネージドサービスを使用して、サーバレスで作ります。 使用するサービス S3 動画ファイルを置きます masterとstudio(読み込み専用)というバケットを作ります(masterがアテナで、studioがトロント) StorageGateway クライアントからSMBでS3をマウントさせるためです AWS Fargete  - フロント部分に使います AWS API Gateway リクエストを受けて、lambdaを起動します AWS Lambda masterにアップロードされた際に、studioのバケットにコピーします まとめ オンプレで作ったらかなり手間がかかりますが、AWSのサービスを使うことで簡単に作れました。 また、サーバレスのためコストや運用の手間もほとんどありません。 StorageGateway使ったことがなかったので、ワークショップで実際手を動かしながら作れたのはいい経験になりました。 グローバルストレージを構築する機会はなかなか無いと思いますが、このアーキテクチャは色々応用が効く気がします。
アバター
こんにちは、msatoです。 reInventで学んだことのアウトプットのために、JAWS-UG 初心者支部でLTしてきました。 JAWS-UG 初心者支部とは 以下 引用 です。 AWSをこれから活用したい人や一緒に勉強する仲間が欲しい人を主なターゲットとしています。 AWSへの理解を深めていただくお手伝いをすることはもちろんのこと、みなさまがより楽しく学び、よりステップアップしていくためには不可欠となる、初心者支部の卒業→JAWSの他支部へと巣立つためのお手伝いをします。 イベント概要 12/6-12/6にラスベガスで開催されたre:InventのreCap(振り返り)と、LT大会が行われました。 JAWS-UG 初心者支部#21 reInventReCap&LT大会 登壇してきました「IAM Access Analyzer使ってみた」 reInvent期間中に発表されたサービス「IAM Access Analyzer」について話してきました。 資料は公開していますので、ご興味のある方は是非ご覧になってください。 伝えたかったことは以下です。 ポリシーの設定ミスによる意図しないアクセスを防ぐとことができるサービス 無料で簡単に有効化できる 「AWSアカウント作成時のやることリスト」に入れたほうがいいと思うほど、有用なサービス 最後に 「アウトプットしないことは知的な便秘」LTで度々出てきて印象的でした。 いい言葉ですね。アウトプットしなきゃという気持ちになります。 JAWS-UGではアウトプットの機会を提供してくれています。 特に初心者支部はLT初心者でも、発表しやすい雰囲気があります。 今回のようなLT大会もたまにやっているので、初めてのLTにおすすめです。
アバター
Leverages Advent Calendar 2019 - Qiita 最終日を担当します。ITインフラの研究職からSREを経て、現職ではいつの間にかVPoEのようなことをやっています 久松 です。キャリアを拗らせて唸っているうちにこういうキャリアになった、と説明しています。 今回はHRE(Human Resource Engineering)と題しましてエンジニア組織のカタチとマネージメントについてお話させていただきます。昨今のエンジニア組織マネージメントの難しさに悩む方々は多いかと思います。組織図や開発関係者一覧、タスク量計算をしていて「何だこれは」と思っている方々も多いのではないでしょうか。私自身、VPoE的な業務に取り組むにつれ、ふとインフラエンジニアだったあの頃と似通った着想に至りました。組織図をCDPっぽく描くというのが今回の主テーマです。何故EMやVPoEといったソフトなスキルを持ったポジションが求められるのか、エンジニア組織運営の難しさを理解する一助になれば幸いです。 従来型の会社組織 データセンター(会社)の中で全てが収まっています。室温から空調まできちんと整えられています。オンプレミス環境のオペレーションに関わったことのある方は思い当たると思いますが、物理サーバのホスト名に拘ったりして可愛がりますね。落ちると悲しいし、涙します。 増設(採用)は好ましいことですが、ラック(会社の物理空間)に限界もあります。計画はしっかりとデータセンター管理会社(バックオフィス)と連携しておく必要があります。 サーバやプロセスの監視も必要です。異常発生時はその現場に駆けつけましょう。ハードウェア(フィジカル)・ソフトウェア(メンタル)・ネットワーク(人間関係)など様々な課題が有りえますので、それらを吸い上げる仕組みや関係性づくり(1on1等)が必要です。 従来型組織 遠隔開発拠点 都内でのエンジニア採用が難しいと感じた場合、遠隔地で採用をかけるケースも多く見られます。海外でオフショアだったり、国内でニアショア、もしくは地方支店の一角を開発拠点にするケースもあります。その場合、意識すべきは意思疎通です。遠隔地に居る分、伝送遅延はありますので何往復も意思疎通するとその分ロスが発生します。何の機能を本社に残し、何を機能を外に出すのかが重要になります。社内組織として設ける場合は「外注感」「下請け感」が出ないようにしなければならず、機能ごと任せてしまうというのは一つの解法だと考えています。 遠隔開発拠点 SES 正社員でまかなえない業務が発生した場合、SESが登場します。フリーランスだったり所属会社の正社員だったりします。契約単位は時間のケースが多いですね。さながらパブリッククラウド的な形。同じドメイン(社内)で稼働をお願いするためにDirect Connect利用のケースもあるでしょう。ALB(タスク分配)やCloudWatch(勤怠管理)も必要です。 SES 請負、コンサル 機能を部分的に他社に依頼するケースもあります。アプリケーション開発を受託開発に出すケースもあれば、チューニングといったスポット依頼のケース、AI開発や分析のような専門性の高いケースもあります。 AWSで言うところのManaged Service利用のようなセットアップと運用を丸々委託するパターンもあれば、Facebook APIやTwitter APIなどをインターネット経由利用するように基盤に乗っかるパターンもあります。 重要なこととして障害・仕様変更・サービス終了などにより依頼先が(一時的にでも恒久的にでも)応答しなくなった場合、極力本番環境に影響しない形での実装と運用が必要です。私も前職ではFacebookベースのサービスのインフラを担当していましたが、先方都合の部分はいかんともし難いものでした。「他人の褌で相撲を取っている」という感覚を忘れてしまうと大事になりがちです。 請負、コンサルとの契約 社内副業 俄に流行の兆しですね。新卒採用イベントにて他社さんの会社説明などを聞いていると「実は取り組んでいます」という会社さんがちらほら居られます。これはつまり外注という選択を取る前に社内の余剰リソースでタスクを消化させようという動きです。余剰リソースを有効活用という意味合いでは仮想化のようなものですね。 加えて 弊社調査でも言及 させて頂きましたが、若手エンジニアには限られた時間でできるだけ複数の経験を積みたい(複業)というタイムパフォーマンス志向が見られます。 余剰リソースの有効利用や、複業に応える解答としては肯定できる社内複業制度ですが、労務や制度的な難易度が高いです。実務的な観点で問題となるのは「タスクの切り分けとマネージメント」が挙げられます。 社内副業制度 クラウドソーシング タスクを細切れにして外部に依頼します。特にインフラを構築せずともリクエストを投げるとリザルトが返ってくる様はさながらLambdaです。ただしプロセスの信頼性は低く、タイムアウトする可能性もありますのでプロセス管理が重要となります。 クラウドソーシング (エンジニア)組織のミライノカタチ 経営層の視点で「働き方改革は誰のためにあるのか?」と問われると「メンバー層」を対象にしたものではないかと答えています。特に能動的な行動を好むメンバー層への働き方改革の影響は大きく、所謂自社メディアと呼ばれる企業、それも他社との比較がしやすいITベンチャー密集区ではその直撃を免れていないように思います。 あるスタートアップ事業さんでは正社員は数名のみが在籍し、タスク分解を徹底し、残りは全てフリーランスで事業展開をされています。出勤日は固定ではなく、カレンダーに稼働時間を登録して貰った上で消化していくというスタイルを取られていたりもします。稼働可能な時間(スキマ時間)に稼働するスタイルはスポットインスタンスと言えます。 経営目線で考えると会社とは何か(少なくとも社員数は重要ではなくなる)、正社員には何を期待し何を残すのかを考えなければならない時代に来ています。オンプレミスとパブリッククラウドのハイブリッド構成だとデータベースをオンプレミスに残すケースが多いですが、会社組織であれば事業イメージをカタチにする企画職や、開発管理をするPM業務が該当するかと思われます。こうした人達をどこから連れてくるのか、育てるかというのも課題となってきます。事業コンセプトだけが会社に残るケースもあるのではないでしょうか。 一方、メンバー視点で考えると働き方改革を前に「ええじゃないか」と踊るのではなく、前回記事の 指名される理由 が必要になってきます。自分の自己責任が叫ばれる時代の中、どの立ち位置で、時間・成果のいずれの報酬体系で、どう渡り歩いていくのかを意識しなければなりません。また、弊社レバテック事業においてもこうした流動性の高い不確実な時代の流れを捉えつつ、日本一の相談相手として歩まなければならないと考えています。 タスク細分化による組織のミライノカタチ 最後に 働き方の多様化が進み、自社のみでの開発組織の完結が難しくなってきた現在、人的マネージメントは困難を極めています。だからこそEMやVPoEといったソフト面の職種が登場したのだと考えています。 こうしたデザインパターンに載せて考察していくとHRとSREで共通点が見つかったり、マネージメント上の課題が発見できたりするというのが今回提唱したHREです。インフラエンジニアの基本であるトポロジ図やCDPに倣って、自社の組織図を書いてみるのも一興ではないでしょうか。 今回は書くと棘のあることはあえて伏せているのでいつの日かあるかも知れない書籍化に取っておきます(DRとかオートスケーリングとかマルチクラウドとかクラウド移行とかリプレイスとか)。 qiita.com
アバター
はじめに はじめまして! Leverages(レバレジーズ)Advent Calendar 2019 18日目担当の吉澤です。 普段は、看護師向けの転職サイトや社内システムの開発・運用などをしています。 今回は、LINEでの顧客対応に用いられるチャットシステムの構築についてと実際運用してみてどうなの?みたいなところを書いていこうと思います。 何作ってるの? ↓ざっくりこんな感じのやつを作っています。 開発に至った背景については以下の記事に書かれています。 markezine.jp LINEのMessaging APIとFirestoreを用いて、社内のSFA/CRMシステムから顧客とLINEのやり取りができるような機能です。 以下、内製のSFA/CRMシステムを社内システムと略します。 構成 全体的な構成としては以下の様になっています。 サーバーサイド まず、ユーザーがメッセージを送るとLINEサーバーからWebhookを受け取ります。受信時のメッセージの取りこぼしがあると、そもそものコミュニケーションツールとしての役割を満たせなくなってしまうため、ここは特に気を使わなければならない部分でした。 そのため、Webhookを受け取ったらペイロードをそのまますぐにキューに追加し、仮に後続の処理に問題があったとしても、ログから復旧できるような構成にしています。 サーバーサイドは慣れ親しんでいたという理由もありlaravelを利用しています。 キュードライバはAmazon SQSを使おうかとも思いましたが、当時SQSがFIFOに対応していなかったこともあり1回のみのメッセージを保証したかったのでRedisを利用しています。 後は順にキューから取り出し、Firestoreへの保存など受信時の処理を行っています。 クライアントサイド 次にメッセージを表示するクライアント画面ですが、ここはVue.jsとfirebaseのsdkを用いて、該当ユーザーのメッセージのcollectionをリッスンし、変更があればステートに追加していくといった割と一般的な処理になっています。 自力でWebSocket使って...みたいなことをしなくていいのでfirebaseほんと楽で便利ですね! ただ当時、「Firebaseの読み取り超過で○百万円飛んでった 😇」みたいな記事が上がっていたのと、実際にリリース後どのくらいの読み取りが発生するかが予想しづらい状況であったため、ドキュメントの読み取り数には警戒していました。 そのため対策としてメッセージを20件ずつローディングするようにしたり、オフラインキャッシュを利用するなどして読み取り数を削減していました。今思うとFirestoreの無料枠も大きいのでそこまで警戒する必要もなかったかもと思っています。 通知機能 メッセージ受信時の通知に関しては、FirebaseCloudMessagingとServiceWorkerを使ってプッシュ通知をしています。 普段、通知許可を求められると不快に感じてしまうタイプではあるんですが、こういう利用用途が限られていてユーザーに使ってもらうことが前提の場合はサクッと実装できて便利だなと思いました。 社内システムにおいては、サポートブラウザが限定できる点や実装効率の面でもPWA周りの技術のメリットを享受しやすいのではないかと思いました。 ーーー 全体的には、このような構成で何とか一年近く運用できています。 加えてメッセージのやり取り以外の面でも、LINEログインを用いたオウンドサイトからの登録や定期的なメッセージ配信など集客面での機能追加なども行っています。 最近、LINE側でも頻繁に機能追加されているので、いろいろできそうで面白いですね😉 運用してみて このプロジェクトにおいては、技術面以外でも多くの学びがありました。 まず、これまで顧客とのLINEでの連絡は通常のLINEを利用していました。 これを内製のシステムに乗り換えるとなると提供されていない機能があったり、実装工数などの兼ね合いでどうしても今まで出来ていたことが出来なくなる機能が存在します。 狩野モデル *1 でいうところの当たり前品質が「本家のLINEで出来ていたこと」に該当していたように思います。 当然、利用者からすれば不便に感じる部分があったかと思います。 また、移行において仮にLINEで出来ていたことを実現できていたとしても、それだけではただ代替性が高いだけで、移行コストの方が高く感じてしまうのではないかと思います。(自分に置き換えてもそうなので、w) そのような状況の中で、社内システムの開発・運用において以下のような点が重要だと感じました。 背景・目的への理解 何か新しいものを導入する際にはその背景や目的を明確にすることはもちろん、それが現場の人たちの中でも共有され、腑に落ちているかが重要だと思います。 よく職種間のやり取りにおいて、専門的な用語でなく相手が理解しやすい言葉でのコミュニケーションを心がけようと言われますが、たとえ言っている内容を理解できたとしても、それがどのくらい重要であるかという温度感は担当する役割によって違っていたりします。 全員が納得するのは中々難しいかもしれないですが、そういった認識のギャップを埋めていく動きも必要であると感じました。 ただ納得してもらうために、不用意に決定を曲げてしまうと本来の目的から逸れていってしまうこともあるので、その塩梅は中々難しいように感じます。 実際にはチームメンバーが現場への説明、疑問や不安の払拭、改善要望に対する対応目処の伝達など、とても献身的に働きかけてくれたこともあり、理解が得られていったように思います。 エンドユーザーの視点を持つ ここでいうエンドユーザーはサービスにおける最終的な顧客のことを指します。 社内システムの開発において、システム自体の利便性を高めるということはとても重要ですが、それが最終的にどうユーザーに還元されるのかという視点を持つことも必要だと思います。 例えば システムのレスポンス速度を改善することによって、現場の業務効率が上がり、ユーザーへの対応速度が上がる データを入力しやすくすることによって、今まで個人の中に埋もれていたような情報が蓄積されるようになり、ユーザーがより詳細な情報を得られるようになる などのようなことです。 普段、開発をしていると目の前のタスクの消化だけに目が行ってしまったり、自分は何のサービスを作っているのかが分からなくなってしまう時があるので、立ち返るという意味でも重要であるように感じます。 また、担当の職域が違うとその担当内での視点に寄ってしまいがちですが、同じ視点で議論することによって共通認識が取れやすくなるように思います。 同じサービスを提供する者同士として、目的は共通であるという前提の理解と、お互いがユーザーの視点に立ち、何ができるかを一緒に考えていくという姿勢が重要だと感じました! We Are Hiring ! レバレジーズでは一緒に働く仲間を募集しています! 創業14年目を迎え、より一層テクノロジーでの課題解決が求められるフェーズになってきたように思います。 技術での事業貢献、ユーザーファーストでのサービス作りなどなど、ご興味ある方、是非ご連絡お待ちしております!! https://recruit.jobcan.jp/leverages/show/b01/7682 recruit.jobcan.jp *1 : 顧客満足度に影響を与える製品やサービスの品質要素を分類し、それぞれの特徴を記述したモデル | wikipedia:狩野モデル
アバター
はじめに レバレジーズメディカルケア株式会社CTOの内田です! 横浜に開発拠点を作ってみたらイイ感じだったので書いてみました、興味ある方どうぞ! 本題 福岡など地方にサテライトオフィスなど聞く事も増えました。 IT会社(だけではないですが割愛)は東京に集中していて、これは諸説ある所だと思っています。 なので本社は渋谷スクランブルスクエアですが今回、 横浜にも開発拠点を作ってみました 。 社長と拠点作成の話をしたあと「身体バキバキに鍛えたいッス!」と雑談してたら、 ここの本格的な筋トレ器具 も何機か横浜に送ってくれる事に、オフィスは ここ の3F、キレイだし横浜駅も徒歩圏で、鍛えれるし、素敵です。 ↓いきなりですがかわいい横浜拠点のメンバーたちw それでは、実際に 横浜を選んだ自身とメンバーたちによる比較を感じたままに紹介します。 比較 (体感比) 通勤 渋谷本社への電車はギュウギュウなのに対し、横浜支店は逆方向だから空いています。横浜近郊に住んでいる人以外にもメリットがあるようで、朝の集中力はチームとしても大事にしているので嬉しいです。 家 賃貸相場情報をHOME'sで見てみました。(2019/12時点) 渋谷駅 不動産・住宅情報サイトLIFULL HOME'S - 渋谷駅の家賃相場 1K 12.13万円 1LDK 28.08万円 2LDK 51.59万円 横浜駅 不動産・住宅情報サイトLIFULL HOME'S - 横浜駅の家賃相場 1K 8.61万円 1LDK 14.11万円 2LDK 21.69万円 駅付近の相場だと思いますが参考にはなりそうです、思ったよりもすごい差でした。(横浜駅から一本離れれば更に安いですがそこは一旦割愛) 入外出 (出勤やランチ) 渋谷 どこを歩いても人が沢山でお店も混みがち、エレベーターもなかなか来ない。色々と待ったり混雑が多めです。 横浜 意外にも平日は混まなくて、エレベーターもすぐ来る。色々と待たなかったり混雑が少なめです。 まとめ 総合した効果として皆がいうのを要約すると以下、 集中力が上がった 通勤コストの削減と、スモール化による周りの目の減少と考えています。 会社への好感度が上がった 働き方の多様化に応えて貰えたことや、この総合点の高い環境に感謝しているのかも。 これがQoLの重要性なのだと感じる日々です。 オマケ スカイスパのコワーキングスペースでの1on1 スカイスパに仕事上がりに徒歩数分で行けるのも最強ポイントですw ちなみに、 プロサウナー達の厳正な審査による"今行くべき全国のサウナ11選" で6位の施設がスカイスパです。 ぜひお試しあれ!
アバター
メディアシステム部 部長の 久松 です。 今回のテーマに関わってくるので自己紹介させて頂きますと 2000年からIT革命真っ只中のIT業界にインフラの研究開発から入り、20年が経とうとしています。 20代 大学教員を目指す インターネット動画配信、P2Pをテーマに研究員として活動 博士進学翌年にリーマンショック、その後 事業仕分け・震災 30歳 学術からビジネスへの転身 博士取得と共にポスドクのポジションが無期延期になり、就活も難航し、就職課に「進路未定」で提出 高学歴ワーキングプアとしてアルバイトプログラマに(額面で月給15万円) ベンチャー企業に就職後、やがてインフラ責任者をやりながら気がつけばリクルーターに 現職への転職 エンジニアの取りまとめの役割ですが、ほぼVPoE エンジニア紹介事業のレバテックでは技術顧問としてエージェントの専門性向上を担当 エンジニアキャリアに悩んだり採用したりするうちに新卒・中途採用、オンボーディング、新卒・博士キャリアをテーマにしたセミナーをするようになる 今回は私が現在、レバレジーズ社員やエージェント教育の過程でお話しているエンジニアの生存戦略とその機会提供についてご紹介させて頂きます。 エンジニアを勤め上げるにあたっての脅威 生き残りやすいエンジニアの特徴 ベースとなる基礎知識 専門性 2つを時流に合わせて変化 コミュニケーション力 リーダーシップ、マネージメント、プレゼンテーション、教育、採用より2つ以上 プレゼンテーション 教育 採用 まとめ エンジニアを勤め上げるにあたっての脅威 人生100年時代と言われている中、年金の支給タイミングの後ろ倒しを加味すると80歳程度までは 何かしらのキャリアチェンジ・ジョブチェンジを繰り返しながら行きていく必要があります。 特にITエンジニアとしては 技術トレンドの移り変わり AIによる自動化 Sketch2CodeだったりAmazon CodeGuru Reviewerだったり足音は聞こえますね 「巨人の肩の上」に乗ったできる若手 構築がスムーズな開発環境、溢れる教材、溢れるソースコード、 QA環境 ・・・ 海外からの高度人材 フリーランスやクラウドソーシングの一般化による有期のスポット人材の増加 を考えなければなりません。 生き残りやすいエンジニアの特徴 私自身が事業仕分けられたということで需要の底を経験したということもありますが、20年の間に ITバブル クラウドバブル SNSバブル ソーシャルゲームバブル AIバブル と各種のバブルと共に数多くのエンジニアの栄枯盛衰を見ることができ、生き残りやすいエンジニアの特徴が見えてきました(図)。 これを意識し、メディアシステム部のエンジニアには様々な機会に挑戦してもらっています。 エンジニア生存戦略 ベースとなる基礎知識 計算機の基礎、インターネットの基礎が挙げられます。特にインターネットの低レイヤについての知識はJavaScriptのフレームワークのようなハイレイヤーの技術に比べると革新速度はゆっくりですし、パケット交換方式は当面続きそうなので臆することなく身につけておくことをおすすめします。 専門性 2つを時流に合わせて変化 ヒトとは基本的に怠惰なものなので「可能であれば身につけた一つの技術で生涯食べていきたい」と思いがちです。 ただIT業界とは無情なもので5年程度でパラダイムシフトが発生し、身につけた技術は骨董品になります。 加えていかにも流行りそうな顔をして近づくバズワードというのもあります。 どちらか一方の専門分野が廃れても良いように2つの専門性、加えて時流に合わせて変化させることが必要です。 コミュニケーション力 他業種とのコミュニケーション力です。よくあるできるエンジニアの凋落パターンとして、 「いつも何をやっているのかよく分からないし、何を話しているか分からないし気難しそうなので話しかけにくいけど流行りの技術を身に着けているらしいので今は仲良くしておくと得だ」 と、周囲に思われているうちは需要があるものの、流行の終焉と共に周りから人が居なくなるというものです。 いざというときに周りに助けを求めるためにもコミュニケーションは取りましょう。転職してもフリーランスになっても繋がりは役に立ちます。 リーダーシップ、マネージメント、プレゼンテーション、教育、採用より2つ以上 いくつか補足をしておきます。 プレゼンテーション プレゼンテーションはブログの投稿でも構いません。その人が何をしているかを自分以外に積極的に知ってもらう術を持っているかということです。 短期的には予算の出どころに対する説得や説明に繋がります。中期的には「指名をもらう」ことに繋がりますし、怠ると控え目に表現して「忘れられてしまう」ということになるケースも多くあります。   教育 教育は自分の持っている技術や知識を後進に伝えられるかどうかです。特に知識の更新の早いIT業界では、知り得た事柄をまとめて周りに拡散していくという能力が強く求められるようになっています。 採用 採用はチームビルディングに繋がります。人材不足という中でどれだけ自分の属している組織に勧誘し、人を引き込むことができるかというスキルは年々高まっています。 まとめ 1990年前後の金融バブルを解説する専門家の間でも目にしますが「バブルの中に居る人はバブルだと思わない」と仰っしゃります。先に述べたIT界隈のバブルの中の人も、永遠の需要と反映を信じている人が多く居ましたが、今のエンジニア売り手市場もバブルですし弾けてから改めて認知されるでしょう。 良いのか悪いのか分かりませんが80歳まで労働しなければならないと仮定した場合、ジョブチェンジやキャリアチェンジを想定して生きなければなりません。   一つのヒントとして「これは自分の仕事じゃないな」という仕事が目の前に現れたとき、それを受け入れるか拒否するかというのが分かれ目になるのではないかなと考えています。 Engineering Manager vol.2 Advent Calendar 2019 qiita.com
アバター
ogp はじめに メリークリスマス!(早い) レバレジーズ株式会社エンジニアの村本です! 12月も半ばに差し掛かり、ようやく冬らしい天気になってきました。皆様はどうお過ごしでしょうか。 我が家では電気カーペットを購入したのですが、あれは人をダメにしますね。最高です。 ということで、 Leverages Advent Calendar 2019 11日目の記事です。 今回は、有志のエンジニアで開催している勉強会「てっくらんち」についてご紹介したいと思います。 TL;DR ランチの時間に勉強会を始めました ゆる〜い雰囲気作りを目指しています 発表希望者が増加中...! Youtube Liveで配信する(かも)...!? 「てっくらんち」ってどんな勉強会? お昼にやっているゆる〜い勉強会です。 毎週金曜日に開催しており、社内エンジニアの発表をお昼ごはんを食べながら聞くスタイルの勉強会です。 発表者は毎回一人で、発表時間は15分〜30分程度、質疑応答も含めると30~45分ほどの内容になっています。 ジャンルは様々で、エンジニアの生存戦略的な内容から、Dockerの踏み込んだ話まで、技術に関する内容であれば何でもOKな形をとっています。 発表者も様々で、あらゆる部署のエンジニアや、フリーランスでJoinされている方、支店や外勤のエンジニアなど、社内の多くのエンジニアが参加しています。 この勉強会の目的としては「お昼の時間を使い、自分が知ってる技術を自慢して、社内の技術力を底上げをしよう!」というものを掲げています。 元々社内の勉強会には、エンジニアミートアップという社内のエンジニア全員が集う会があり、そこに発表枠が設けられていたのですが、 発表ハードルが高く、開催頻度が低いこと から、発表者が少なく、社内でのアウトプットがあまり活発ではない印象でした。 そこで、 お昼の時間にローカルな場で勉強会を開催すること で、 発表ハードルを下げ、アウトプットの場を増やそう というのが「てっくらんち」の成り立ちです。 運営は有志のエンジニア数名で行われており、2019年7月頃から始めて累計16回開催されました。 ちなみに「てっくらんち」はひらがなで固定しているのですが、名前の由来も以下のように かなりゆる〜く ベンチャーらしい素早い意思決定がされています。 chat 「てっくらんち」のる〜る 「てっくらんち」では堅苦しくならない程度で、会の目的や存在意義がズレないように3つだけルールを定めています。 1. 発表者は次々回の発表者を指名できる権利を持つ 勉強会を重ねるにあたって発表者が固定化されることを防ぐために、発表者には次々回の発表者を指名できる権利を持たせています。 俗に言う「いつものメンバー」だけでやっている勉強会では参加しづらく、そういう勉強会はメンバーの意思が弱くなった時点で衰退していきます。このルールを定めることで、発表者の新陳代謝を促し、参加しやすく続きやすい勉強会になることを意図しています。 またこのルールでは、知り合いのエンジニアから指名されることになるため、普段アウトプットの少ないエンジニアも発表しやすくなるのではないかという狙いもあります。 実際に、自分から発表したいです!と手を挙げるより、知り合いから「お前のこの話聞きたいから話してよ〜」って言われる方が気持ちが楽ですよね。 とはいえ、いきなり「次はお前だ m9(^Д^)」とか言われて揉めても困るので、予め「指名するかも」ということを指名予定者に伝えることを推奨しています。 実際にこのルールを運用してみて、新卒エンジニアや、普段前に出て話すことの少ない人が発表者になっていたりするので、想像以上にうまく機能しているように思います。 あと、嬉しい誤算としては、当初は隔週開催予定だったのですが、発表者希望者が増えたことにより、毎週開催に切り替わりました 😆 2. 堅苦しくしない (お昼だもんw) これは会の雰囲気を定めつつ、発表のハードル下げるために設けているルールです。 折角お昼ごはんを食べながら発表を聞くので、殺伐とした空気にするのではなく、一エンジニアとして、技術を楽しめるような会にしたかったという思いがあります。 発表者としても殺伐とした空気より、和やかな雰囲気の方が話しやすいですよね。 とはいえ、外部の発表の練習として真剣なフィードバックが欲しいという方もいますので、発表者のリクエストがある場合には答えるように柔軟な対応をしています。 ただ、正直これはまだ完璧には機能できていないと思います。 やはり発表を聞くとなると発表者以外喋らないので、少々堅苦しい空気になってしまいます。 この空気を打破するために、発表スライドにコメントを流してみるなどアイディアでの解決を考えています。 最終的には発表中に良い野次が飛ぶくらいゆる〜い雰囲気になれば良いなと思っています。 3. チャレンジングな姿勢を忘れない 折角アウトプットのハードルが低い勉強会なので、失敗や間違えを恐れずに、大胆な意見が出やすいようにこのルールを設けています。 正確な情報をアウトプットするのはとても良い事ですが、自分の意見や思いを伝えることも同じく重要だと考えています。自分の意見をアウトプットする際には、反論やマサカリなどが飛ぶ 恐れ がありますが、 ローカルな場でご飯を食べながらアウトプットするようなゆる〜い場所 では、失敗をしても大した痛手にならないし、むしろ大胆に自分の意見を披露することで今までなかった視点からフィードバックを貰える可能性も出てきます。 また、フィードバックに関しては質疑応答の時に貰えなくても、同じ職場で働いている社員同士なので、雑談のタイミングや社内のチャットツールの中で貰えたりします。なので、発表に対する意見はかなり貰いやすい環境であるということは実感しています。 質疑応答やフィードバックで技術的な議論が活発にされるのが理想です。 実際の様子 event1 event2 event3 まとめ アドベントカレンダーの11日目ということで弊社の勉強会をご紹介いたしました。 ランチタイム に ローカルな場 で行うことで、 アウトプットのハードルを下げ つつ 発表者を増やす仕組み を作っています。 また、実際に4ヶ月程運用してみて、以下のような傾向が見受けられました。 アウトプットする人が増えた! 社内エンジニアの技術スタックを知る良い機会になった! 全然知らない技術に触れる機会が増えた! 個人的な感想としては、一人のインプットには限界があるので、自分が深堀りができていない技術や体験できていない技術を、身近な社内のエンジニアを通して学ぶことができるのは最高だと思っています。 (人間の集合知ってすごい...!) 今後について 「てっくらんち」は既に次々回まで発表枠が埋まっており、引き続き開催する予定です。 また、徐々にアウトプットの範囲を広げていくことも検討しています。 その第一歩として、Youtube Liveでの配信を検討しています。 元々、支店や外勤のエンジニア用にMeetを使ってストリーミング配信を行っていましたが、アーカイブが残らず、参加できなかった場合の救済策がありませんでした。そのような流れから、Youtube Liveで見逃し配信を可能にし、シェアしやすいようにしようとしています。 また、Youtube Liveに移行することで、外部公開が可能になるので、内容によっては公開するなどして、徐々にアウトプットの範囲を広げていく計画です。 ということで、今後も「てっくらんち」を通して技術力の底上げに寄与しつつ、もっと盛り上がるように努力し続けていこうと思います。 We Are Hiring レバレジーズでは「てっくらんち」のような社内での勉強会や「ヒカラボ」という外部の講師を招いたパブリックな勉強会も開催しております。 また、最近では横浜に開発拠点ができるなど、新たな働き方も創出しています。 弊社に少しでも興味を持っていただいた方はご連絡いただけると幸いです。 https://recruit.jobcan.jp/leverages/ we_are_hiring
アバター
はじめに はじめまして。19新卒SREチームの id:t-kusakabe です。 入社して3ヶ月。僭越ながらtech blogを書かせていただくことになりました。頑張っていきます! 目次 ビアバッシュと題してLT大会を開催した お前たちの1ヶ月の成長を見せてみろ!! 実際にやってみて ビアバッシュと題してLT大会を開催した 新卒の皆さんはいかがお過ごしでしょうか。 入社して3ヶ月。配属先も決まりタスクをバリバリとこなし始めたのではないでしょうか。 弊社でもエンジニア職は5月末頃に各事業部へと配属され、それぞれ活躍するようになりました。 実際にタスクをこなしていくのは楽しいのですが、他の事業部に配属された同期との関わりが薄くなってしまい、少し寂しくもありました。 そんな時、エンジニアならどうするか。 そうですよね、LT *1 ですよね!!! みんな、大好きLTです!!! そんなことで去る6月25日、弊社で19卒エンジニア限定でビアバッシュと題してLT大会を実施しました! ※残念なことに、開催した場所が来客者の方も居られるところであったためビアはお預けでした。残念。。。 お前たちの1ヶ月の成長を見せてみろ!! 配属されてから1ヶ月の振り返りをテーマに、 お前たちの1ヶ月の成長を見せてみろ!! というタイトルでLTを行いました。 各事業部で新卒たちはどのようなことをしていたのか。 配属される前と配属された後でどのように変わったのかを見せつけるテーマにしました。 実際、配属先の事業部でこういうことやったぞ!こういうチームにアサインされたぞ!こういう能力が身についたぞ! という話がたくさん出てきました。 とはいえ普通にLTをやっても面白くないですよね。 というわけで色々コンテンツも用意してみました。 用意したコンテンツ 目標とゴールまでの道のりを可視化 コメント活性化ツール「マサカリカード」 リーダー陣からのありがたいお言葉 目標とゴールまでの道のりを可視化 新卒それぞれがなりたい姿を宣言し、その姿を目指して山を登っていく、というのをイメージしてこんなものを作りました。 毎月、 目標にどれだけ近づけているのか しっかり頂上を目指して走れているのか を可視化出来るようにしました。 この山を見つつ、 今月はどれくらい登ることができたのか 頂上に向かって登れているのか 同期はどの辺りを登っているのか 今のペースで本当に頂上にたどり着けるのか がわかるのと、楽しみながら自分の状態を把握出来るのでとても効果がありました。 自分の現在地をどこにするかが悩みどころですが、僕の場合は新卒なのと経験をたくさん積みたいということで一番長い道のスタート地点を現在地にしました。 ここから一気に駆け上がっていく予定です! 今後はこの山を見ることで新卒たちの成長が伺えますね。 全員で頂上を目指せるように頑張っていきたいです。 ちなみにこれらは全て弊社のデザイナーに作っていただきました!!! 新卒たちが目標に向かって走っている感じを表現したい、と伝えるとこのような素敵なものを用意してくださりました。 新卒だけでなく、たくさんの社員に好評でした!!! コメント活性化ツール「マサカリカード」 LTと言ったらマサカリですよね! しかし、意外と誰もマサカリを投げなかったり攻撃的なこともあるので、優しくマサカリを投げれるコンテンツも用意しました。 発表終了後に新卒全員でカードを引き、書かれている内容に沿って質問をします。 カードに書かれている内容によっては、笑いが起こるものであったり、クリティカルな質問になったりなど意外と面白い試みでした。 質問者:「〇〇さんの成長が自分ごとのように嬉しかったです!!!」 全員: 「(笑)」 質問者: 「ところで、来月の取り組みで気になったのですが、具体的にはどういうことをどれくらいされるのですか?」 のようなやりとりが行われ、笑いを生みつつマサカリを投げるということできました。 カードを引く人はランダムで決められるので全員が発表者のLTを集中して聞くようになったのも良かったです。 リーダー陣からのありがたいお言葉 新卒だけでLTをしてもただの発表会になりそうだったので、リーダー陣の先輩方に質問役をお願いいたしました。 1ヶ月で何をして、何ができるようになったのか。エンジニアとして何を意識すべきなのか。 などなど、1ヶ月の振り返りをさらに深掘りする機会をいただき、かつアドバイスもいただきました。 なんとしても翌月からの行動に取り入れていきたいです。 実際にやってみて みんなでわいわいするのはやっぱり楽しいですね。 同期が活躍していることを知って自分も負けていられないなと感じます。 また、先輩方からも「面白かった」「良い会だった」と言っていただけたので良かったです。 思いつきベースでの企画ではありましたが、やってみなよと後押ししてくれる先輩に感謝をしつつ、今後もこのような活動をどんどんやっていきたいと思います!!! *1 : ライトニングトーク
アバター
はじめまして。 目指せ、カイゼンマスター! まえしょうです。 レバレジーズのマーケティング部CRMチームに所属しており、日々「最適なタイミングで最適なコンテンツを最適なチャネルで届ける」ため奮闘しています。 今日は、そんな私の重要なチャネルの1つであるメールの話です。 このブログの読者さんは嫌いかもしれませんね・・・。実は、そんなメールが生まれ変わろうとしています! サービス・プロダクトのグロース手段としてメールを見直してもらえるよう、3月25日にGoogleから正式リリースされたAMP for Emailを取り上げます。 [ 目次 ] そもそも、AMPとは? AMP for Email誕生の背景 ふむふむ、なにができるの? さっそく、試してみた まだ、できていないこと これからのメールの未来について そもそも、AMPとは? モバイル端末におけるウェブページの高速表示を実現して、ユーザー体験向上させようぜってやつ。 Googleが中心となって開発した新しいHTML規格のことです。 AMP for Email誕生の背景 ここ10年で世の中のコンテンツは静的なものから動的で対話的なものにがらっと変化しました。 ぱっと上げるだけでも、LINE、Slack、Amazon、ニュースアプリ、マンガアプリ・・・。 そんな中、古の連絡ツールであるメールはどのような進化を経たのでしょう。 ・・・し、進化してねぇ!!!! メールで通知がきたり、おすすめが飛んでくるのに、メールからどっかに遷移させられる!!!! そりゃ、まぁ、嫌われますよね。 しかし、AMP for Emailによって、メールは動的かつ対話的なツールに生まれ変わろうとしているのです! ふむふむ、なにができるの? 例えば、メール上で次のようなことが可能になります。 アンケートに回答 おすすめ商品の内容を確認して購入 配送状況が常に現在のものにアップデートされる 既に、開発に着手している企業もあるようで、メールというよりはウェブサイトのようなユーザー体験が期待できます。 出典: TechCrunch - Google makes emails more dynamic with AMP for Email さっそく、試してみた エンジニアでも、デザイナーでもないので上記サンプルに比べるとしょぼいですが、1時間くらいあればこんなのが作れます。 大まかな構造や画像は、 amp.dev のチュートリアルから拝借しています。 (セレクターなど、開発途中で時間切れになってしまいました。やろうと思えば、永遠にできる。) サンプル (所要時間: 1時間) HTMLにCSS直書きしたりして頑張った経験まである筆者は完成時、感動で涙しました。 メール屋さんな方は共感できるかと思います。 なお、メール作成者向けで、もう少し詳細な内容も書く予定です。少々お待ち下さい。 GitHubにコードを公開 していますので、待ちきれない方はそちらを御覧ください。 まだ、できていないこと 本格的な実装や検証を今後やっていく必要があります。 Gmailでのサンプルメール受け取り (Gsuite側の設定問題?) 既存のHTMLメールと共存させるコーディング 各種配信ツールでのテスト 動的なコンテンツの埋め込み より対話的なコンテンツの作成 これからのメールの未来について 賛否両論あり、まだまだこれからな技術ですが、大きな可能性を秘めている、と思っています。 きっとユーザーに「お、便利やん!」と言ってもらえるはず!! そして、メールの進化に伴い、メール作成者に必要とされるスキルセットも大きく変化していきそうです。 静的で自由度の低いオワコンから、動的で対話的な今風のコンテンツになっていくにあたり、ぱっと思いつくだけでも、メール内での情報設計、フロントエンドデザイン、ウェブ系のエンジニアリング・・・。 そんなわけで、CRMチームは技術に興味のある方、腕に覚えのある方を募集しております。 We are hiring! それでは、また次回、どこかでお会いしましょう。
アバター
はじめに こんにちは、18卒のおでんとよばれているものです。 7月から 看護のお仕事 の実装をやっていく中、ABテストの検証結果待ち状態で新しい実装が着手できないという問題が発生しました。 これに対して、BayesianABテスト方法を提案してみところ、検証が終わるまでに2週間〜3週間かかっていたものが、わずか1週間で終えることができるようになりました。 今回は、その使い方について紹介したいと思います。 ABテストとは Webサイトで画像や文章などをAパターンとBパターンの2パターンを用意して、 どちらの方がよりユーザーに行動を促した を検証するものです。 Webマーケティングの施策検証方法の1つとして実施されています。 インターネット広告では、 CV数(コンバージョン数) や CVR(コンバージョンレート) を高くすることが求められており、ABテストを実施して広告を出し分けるようにしています。 活用方法 A社のおでんの広告を使った時とB社のおでんの広告を使った時に、どちらのCV率(コンバージョン率)が高くなるかの施策をして、次のような結果が得られたとします。 ABテスト例 クリック数 CV数 CVR ページA 30000 425 1.42% ページB 28000 340 1.21% ABテストを実施して計測したCV数やCVRが、A社とB社の違いで本当に効果があるかどうかを検証する必要があります。 この検証をする際に、 カイ二乗検定 がよく使われています。 しかしカイ二乗検定には欠点がありサンプルサイズが小さい場合、効果があるかの判定が出にくいです。 ABテストサンプルサイズが小さい例 クリック数 CV数 CVR ページA 2255 32 1.42% ページB 1985 24 1.21% 冒頭での、ABテストの結果待ち状態になっている課題の原因が、サンプルがたまるまでの時間が長いことでした。 このサンプルサイズの問題を解決したのが、BayesianABテストです! ABテスト実戦 では実際に上の2つのデータを使って、カイ2乗検定とBayesianABテストを用いた検証を用いた検証をして比較してみたいと思います。 使う言語は、解析でよく使われているRを使います。 カイ2乗検定を用いた検証 カイ2乗検定とは カイ2乗検定について例を元に説明したいと思います。 Webページでテストをした結果、以下の結果が得られたとします。 ボタン押した ボタンを押さなかった 赤いボタン 70 180 青いボタン 30 120 この時に、赤いボタンと青いボタンと関係があるかないかを検証できるのがカイ2乗検定です。 詳しい説明に関しては以下の参考サイトをみてください。 独立性の検定―最もポピュラーなカイ二乗検定 | ブログ | 統計WEB サンプルサイズが大きい場合の検証 まずは、サンプルサイズが大きい例を使い検証をしてみます。 実行プログラム > AB <- matrix(c(30000-425, 425, 28000-340, 340), ncol=2, byrow=T) #データを入力 > chisq.test(AB) #検証結果出力 検証結果 Pearson's Chi-squared test with Yates' continuity correction data: AB X-squared = 4.4033, df = 1, p-value = 0.03587 この結果で重要なのはこいつです → p-value p-value は、有意確率と呼ばれています。カイ2乗検定では、有意確率が 0.05以下の場合、要因の違いによってCV数に効果を与えていると判断されています。 今回の結果では、 p-value が 0.0359(有意確率が 0.05以下) でした。 この結果から、A社の広告を使った方がCV数が良くなると判定をすることができます。 サンプルサイズが小さい場合の検証 次にサンプルサイズが小さい例を使い検証をしてみます。 実行プログラム > AB <- matrix(c(2255-32, 32, 1985-24, 24), ncol=2, byrow=T) #データを入力 > chisq.test(AB) #検証結果出力 検証結果 Pearson's Chi-squared test with Yates' continuity correction data: AB X-squared = 0.21426, df = 1, p-value = 0.6434 今回の結果では、 p-value が 0.6434 でした。 この結果からは、別の広告を使ってもCV数に効果がないと判定されます。 このようにカイ2乗検定では、同じCVRであってもサンプルサイズが小さい場合、効果があるかの判定が出にくいと言われています。 BayesianABテストを用いた検証 BayesianABテストとは BayesianABテストは、ベイズ推定の手法を取り入れた検証方法です。 事前確率と実際に得られたデータを元に、A社のおでんの広告がB社のおでんの広告に比べて何%の確率で良いかを検証をすることができます。 ベイズ推定については、参考書籍がとても分かりやすいのでぜひ合わせて読んでみてください。 参考書籍 完全独習 ベイズ統計学入門 著者 小島 寛之 2015/11/20 事前準備 BayesianABテスト用のパッケージを以下のコマンドでパッケージをインストールをします。 > install.packages("bayesAB") ミラーサイトをどこにするかというメッセージが表示されたら、japanを選択をしてください。 インストールが完了したら準備は終わりです。 サンプルサイズが大きい場合の検証 先ほどと同じように、サンプルサイズが大きい例を使い検証をしてみます。 実行プログラム > library(bayesAB) #パッケージ読み込み > set.seed(10) #乱数固定 > A<-rbinom(30000,1,425/30000) #Aページのクリック数、CV数を入力 > B<-rbinom(28000,1,340/28000) #Bページのクリック数、CV数を入力 #ベルヌーイ分布の事前分布をベータ分布として初期パラメータを一様分布を仮定してa=1,b=1とし、シミュレーションを行う > AB <- bayesTest(A,B,priors = c('alpha' = 1, 'beta' = 1),distribution = 'bernoulli') > summary(AB) #検証結果出力 > plot(AB) # グラフ出力 検証結果 Quantiles of posteriors for A and B: $Probability $Probability$A 0% 25% 50% 75% 100% 0.01175708 0.01402836 0.01448583 0.01495520 0.01764696 $Probability$B 0% 25% 50% 75% 100% 0.009160405 0.011274530 0.011707422 0.012143179 0.014543185 -------------------------------------------- P(A > B) by (0)%: $Probability [1] 0.99852 -------------------------------------------- Credible Interval on (A - B) / B for interval length(s) (0.9) : $Probability 5% 95% 0.09790378 0.39482144 -------------------------------------------- Posterior Expected Loss for choosing B over A: $Probability [1] 3.125861e-05 グラフ結果1 グラフ結果2 結果1 先ほど出力した結果の中で、最初に確認して欲しいのが P(A > B) by (0)%: の部分です。 この数字は、AのページがBのページよりもいい結果が得られる確率を表しています。 P(A > B) by (0)%: $Probability [1] 0.99852 今回の結果では、 $Probability が 0.99852 でした。 グラフ結果1のCVRと発生頻度を注目すると、AとBの間に差が開いていることがわかります。 また、グラフ結果2はCVRの相対効果値を示したヒストグラムです。このグラフからは、ページAがページBよりもいい結果が得られる確率がどれぐらいあるかを確認をすることができます。 これらのことから、 AページのCVRが99.9%の確率でBページよりもいい結果が得られる という判定ができます。 結果2 次に確認して欲しいのが Credible Interval on (A - B) / B ~ の部分です。 この数字は、信用区間(credible Interval)に対してどれぐらいの効果が見込まれるかを表しています。 Credible Interval on (A - B) / B for interval length(s) (0.9) : $Probability 5% 95% 0.09790378 0.39482144 この数字がちょっとイメージがしにくいので図を作ってみました。 解釈図 ここの数字では、CVRの効果が出る確率を示しています。 まず、 5% 0.0979... は、AページをBページと比較した際に、Aページが109.7%以下の効果を出す確率が5%であることを示しています。 また、 95% 0.394... は、AページをBページと比較した際に、Aページが139.5%以上の効果を出す確率が5%であることを示しています。 以上の結果から、AページをBページと比較した際に、 Aページが90%の確率で109.7%〜139.5%の効果を出す と判定をすることができます。 サンプルサイズが小さい場合の検証 次にサンプルサイズが小さい例を使い検証をしてみます。 実行プログラム > library(bayesAB) #パッケージ読み込み > set.seed(10) #乱数固定 > A<-rbinom(2255,1,32/2255) #Aページのクリック数、CV数を入力 > B<-rbinom(1985,1,24/1985) #Bページのクリック数、CV数を入力 > AB <- bayesTest(A,B,priors = c('alpha' = 1, 'beta' = 1),distribution = 'bernoulli') #計算 > summary(AB) #検証結果出力 > plot(AB) # グラフ出力 検証結果 Quantiles of posteriors for A and B: $Probability $Probability$A 0% 25% 50% 75% 100% 0.007731823 0.015774076 0.017579264 0.019503243 0.032946183 $Probability$B 0% 25% 50% 75% 100% 0.004870983 0.011291718 0.012934394 0.014705932 0.027729893 -------------------------------------------- P(A > B) by (0)%: $Probability [1] 0.8921 -------------------------------------------- Credible Interval on (A - B) / B for interval length(s) (0.9) : $Probability 5% 95% -0.09560675 1.06632725 -------------------------------------------- Posterior Expected Loss for choosing B over A: $Probability [1] 0.01438976 グラフ結果3 グラフ結果4 結果1 P(A > B) by (0)%: $Probability [1] 0.8921 今回の結果では、 $Probability が 0.8921 でした。 グラフ結果3のCVRと発生頻度を注目すると、サンプルサイズが大きい時と比べて、AとBの間に差が開いていないことがわかります。 また、グラフ結果4のCVRの相対効果値に注目すると、ページAがページBよりもいい結果が得られる確率が89.2%であることが判断できます。 これらのことから、 AページのCVRが89.2%の確率でBページよりもいい結果が得られる という判定ができます。 結果2 Credible Interval on (A - B) / B for interval length(s) (0.9) : $Probability 5% 95% -0.09560675 1.06632725 解釈図 ここの数値では、AページをBページと比較した際に、5%の確率でAページが 90.5%以下で悪化させる ことを示しています。 また、AページをBページと比較した際に、5%の確率でAページが206.6%以上の効果が出ることを示しています。 これらの結果と結果1の数値を考慮すると、AページをBページと比較した際に、Aページの方が 89.2%の確率でCVRの効果が期待できる と判定することができます。 このように、BayesianABテストの検証では、サンプルサイズが小さい場合でも いい結果が得られる確率 と 信用区間に対する効果 の2つの結果から検証をすることができます。 そのため、サンプルサイズが小さい時の検証には、カイ2乗検定よりもBayesianABテストがむいていると思います。 おわりに 感想 BayesianABテストを調査&実践してみて、大学時代に勉強したことが結構でてきたので、学生時代にちゃんと取り組んでよかったなぁと思いました。いろんな場面で統計学は使えると感じたので、これからも統計については追っていきたいと思います。 次挑戦すること 今回は1つ1つコマンドを入力してBayesianABテストを行っていましたが、次はGASなどを使ってスプレッドシートから自動で検証をしていきたいと考えています。 最後までお読みいただき、ありがとうございました。
アバター
はじめに こんにちは! 18卒の いっちー と呼ばれている者です。もう入社してから1年が経ちました。そんな1年のほとんどの期間で実装を行ってきたSlackbotについての記事をここで投稿しておこうと思います。 今回は僕がSlackbotを実装する上で苦労した所を書きます。 僕のこの記事を読んで一人でも同じ失敗をしない人が増えればいいなぁと思います。 TL;DR 学んだこと 長いので簡単にまとめると、大変だからこれは心がけよう!と学んだことは次の3つです。 なるべくチャンネル間のやり取りを行う場合は、データベースを使ったほうがいいということ ダイアログの要素のサイズに注意すること ライブラリのチェックはこまめに行うようにリポジトリの通知をつけること 実際の申請画面のスクショはこちら。 申請画面 対象読者 これからSlackbotでチャンネル間のメッセージをダイアログで実現しようとしている人 ライブラリのチェックをしてないとどんなことがあるのか気になる人 社内ツール(Slack) 弊社では、コミュニケーションツールとしてSlackを使っております。 最近よく聞く「オープンな文化」を目指し、みんなパブリックなチャンネルで意見を述べ、質問もしています。僕個人では、必要な情報が過去の投稿から見つかることがあり、コミュニケーションコストが削減されているのを感じています。 また、弊社ではチャンネルの乱立を防ぐべく、チャンネル作成者の制限を行っています。以前は、チャンネルを作成する際は、担当者にメンションをつけて作成依頼をしておりました。 しかし、メンションをつけると、相手に通知が飛ぶだけではなく、送り手も送っていいのかなぁ、迷惑じゃないのかなぁ、といった不安を感じてしまう側面もあり、なかなかチャンネル作成を依頼できない、、、といった状況が頻発しました。 そこでBotになら気兼ねなく送れるのでは?という発想の元、Slackbotプロジェクトが発足しました。 Slackbot SlackbotとはSlack上で動くBotのことです。 社内では、「チャンネルを作成して」という依頼をSlackbotに送ることで、その依頼を権限持ちの「誰か」が実行してくれるように、申請承認チャンネルに投稿してくれます。 実装について Techblogという位置づけ上、技術的な話もしておきます。 使用環境 言語: Golang 1.11.2 パッケージ管理: dep slack用のパッケージ nlopes/slack サーバ: AWS EC2 機能一覧 現在搭載されている機能としては大きく分けて次のとおりです。 ユーザ招待機能 チャンネル作成機能 チャンネルリネーム機能 チャンネルアーカイブ機能 実装で苦労した所 別チャンネルに対してのThreadでの返信機能実装が大変だった 作ってきたSlackbotは基本的にはThreadとチャンネル間でのやり取りを行います。つまり、Slackbotを通して申請用と承認用の2つのチャネルに投稿されます。 Slackの仕様として、Threadで返信するためには、Threadで返信したい対象メッセージのタイムスタンプ情報が必要です。つまり、申請用のチャンネルで申請を出したあと、申請メッセージのタイムスタンプを承認用のチャンネルで保持しないといけないのです。普通なら、ここでKVSのようなもので保持するんですが、初期段階では用意してませんでした。 KVSなどが無い状態でどうしたのか、というと次の画像が語っているのですが、申請メッセージの中にタイムスタンプ情報を入れてます。そうすることで、ダイアログで承認を実行すると、今の実装では、タイムスタンプ情報をリクエストの中に乗せて、送信してくれます。 あとは、ダイアログ送信時の処理部分で、タイムスタンプ情報を扱うことで、実現しました。 承認画面 // 本来のコードとは違います // GetTimestamps ... get timestamp from message func GetTimestamps(message slack.AttachmentActionCallback) ( string ) { fieldLength := len (message.OriginalMessage.Msg.Attachments[ 0 ].Fields) applyTimestamp := message.OriginalMessage.Msg.Attachments[ 0 ].Fields[fieldLength- 1 ].Value return applyTimestamp } 別チャンネルの投稿と紐付いているタイムスタンプを返り値として渡すという関数を作りました。 タイムスタンプは、一番最後の要素にするので、 fieldLength を使って最後の要素の Value を取得しています。 最後に、申請結果をThreadで返す機能を作ったということもあり、この大変さに気づくまで遅くなりました。 というのもCallbackなどを設定しているので、てっきり前のダイアログ送信イベントでトリガとなったメッセージのタイムスタンプ情報を持っていると思っていたからです。(持っているはずがなかった…) Dialogを使用した別チャンネルへの投稿が大変だった このテーマだと、 message APIをSubmission時に叩けばいいんじゃないか?と思われるかもしれません。まさしくその通りで僕もそのまま実装しました。 でも、なんのエラーもなく、投稿されないという状況に陥りました。 原因は確実にこれ!と言えるわけではありませんが、いろいろ試してみたところ、Submission時に渡せる要素の長さに制限がありそうでした。 timestamp情報を先程持たせているという話をしましたが、そのtimestamp情報は申請元と承認側のtimestampを一度に送信しているため、文字列の長さが比較的長くなります。 画像にあるように、 1552527866.001200 が2つある状態でそれに追加で originalTimestamp というようなstructのフィールド名もつけているため1要素で渡す情報が長くなりました。 最初は定義したstructに問題があったのか、とか受け取り側のプログラムに問題があったのかなど考えました。 最終的に、渡すデータを短めの適当な値で試したところ、思った通りに動作したため長さに原因があることがわかりました。 なので、もともと originalTimestamp: 1552527866.001200, timestamp: 1552527866.100000 としていたところを、 originalTs: 1552527866.001200, ts: 1552527866.100000 に変更することでギリギリしのげました。 長さについては特に言及されていなかったので、試行錯誤が大変でした。 原因っぽいところに気づいて、無事動く状態に持っていけたのは非常に良かったですが、この原因調査が全実装のなかで一番大変でした。 ライブラリ自体に大きな変更があったときの対処が辛かった 例えば次のコードは、メッセージをThreadに対して送信するための関数です。 // 変更前のコード // ReplyMessageToThread ... Threadで返信するための関数 // message: 返信する投稿内容, ts: Threadの対象の投稿のTimestamp, p: 投稿メッセージのパラメータ func (s *SlackListener) ReplyMessageToThread(channelID string , message string , ts string , p slack.PostMessageParameters) error { p.ThreadTimestamp = ts if _, _, err := s.Client.PostMessage(channelID, message, p); err != nil { return fmt.Errorf( "faild to post message: %s" , err) } return nil } // 変更後のコード // message: 返信する投稿内容, ts: Threadの対象の投稿のTimestamp, p: 投稿メッセージのパラメータ func (s *SlackListener) ReplyMessageToThread(channelID string , message string , ts string , p slack.PostMessageParameters, a slack.Attachment) error { p.ThreadTimestamp = ts if _, _, err := s.Client.PostMessage(channelID, slack.MsgOptionText(message, false ), slack.MsgOptionPostMessageParameters(p), slack.MsgOptionAttachments(a)); err != nil { return fmt.Errorf( "faild to post message: %s" , err) } return nil } PostMessageParameters に、AttachmentsというPropertyが入っていたことで、スッキリとかけていましたが、ライブラリの変更により、 PostMessageParameters のstructから、Attachmentが分離されました。その変更により、すごい長くなりました…。 このように、 PostMessageParametesrs の Attachments を使っていた部分はほとんどが使えなくなりました。変更履歴を確認した所その変更が取り込まれたのが気づいた月の約3ヶ月ほど前でした… ライブラリの変更を追わずに、実装をし続けることで、こんなに大変なことになるんだ…ということの勉強になりました。 それからは、Slackにライブラリの変更通知を飛ばすように設定しました。 現状の辛い運用 Threadで返信するために、タイムスタンプ情報が必要だ、と述べたんですがそのタイムスタンプ情報は申請メッセージの中にあります。 ただ、それは運用している人にとっては全く意味のないものなので、表に出すようなものではないです。本来必要なものは、申請メッセージとの紐付け、つまり申請メッセージへのパーマリンクです。 若干申請者とのやり取りをThreadで行うことがあるのですが、それを手助けする機能が今無いのです。 これは非常に辛いと思うので、改善していこうと考えています。 改善への道 まず、KVSを導入しメッセージ間の紐付けをそこで行います。 KeyとValueとしては、それぞれ 申請元メッセージのタイムスタンプ と、 承認メッセージのタイムスタンプ とします。 そうすることで、承認メッセージのタイムスタンプ情報を元に、元のタイムスタンプ情報を得ることができます。 また、元メッセージのタイムスタンプ情報がKVSの中に保持されているので、承認メッセージにタイムスタンプ情報が不要になるため、代わりにパーマリンクを貼ることができます。 パーマリンクを取得するAPIとしては、 chat.getPermalink - slack を使用します。 おわりに 学んだこと OSSのライブラリを使うときは、アップデートを気にしておかないと、動かなくなる 通知を飛ばすことでちゃんとアップデート情報を追う SlackのAPIについての知識 ダイアログを送信したときのリクエストの長さに上限があり、正常なステータス返しても処理が実行されないこと 今後の改善 KVSのような仕組みを導入 タイムスタンプ情報ではなくパーマリンクを乗せる 以上の2つをこれから取り組んでいこうと考えています。 感想 全社で職種関係なく使うコミュニケーションツール内で、実現したいことをサポートをするBotを作って、色んな人に使ってもらえる経験をできてよかったなーと思います。社内で使用していることもあり、すぐにフィードバックを貰え、改善できる環境っていうのはエンジニアにとって非常に楽しい環境でもあります。 また、この開発を通して、Slack APIについては社内でも詳しい方になった気がして、なんか嬉しいです! 今後も社内で使っているSlackbotがより良いものになるようにしていきたいと思います。 ありがとうございました!
アバター
はじめに こんばんは。もうすぐ新卒1年目が終わりそうで焦ってるM.Kです。 先日、予約したら1年待ちと噂のカンバン運用で有名な「 株式会社ヴァル研究所 」(以下、ヴァル研究所)のオフィス見学ツアーにマーケ・エンジニアの計7名で参加しましたので、その様子について書きたいと思います。 ヴァル研究所とは? ヴァル研究所とは、路線検索のパイオニアとも言われている「 駅すぱあと 」を始めとする様々な有名サービスを提供している1976年に設立された会社です。 今回のツアーの案内もしていただいた、 カイゼン・ジャーニー の著者である新井剛さんが所属しており、新井さんの知識と経験も加味されて、会社全体で多くの業務カイゼンが進んでいます。 ヴァル研究所エントランス オフィス見学ツアーとは? 今回参加したオフィス見学ツアーは、ヴァル研究所が実際に業務カイゼンのために導入している「見える化・カンバン・カイゼン」の活用事例を紹介してもらえるツアーです。 ツアーの内容は、開発部やマーケティング部、総務部など、様々なチームのメンバーが、各々で導入しているカンバンやカイゼンの方法について実際に使用しているカンバンの前で説明してもらえる贅沢なものになっています。 予約したら1年待ちのこのツアーですが、弊社森實がもともと新井さんと面識があり、入社前から予約をしていたため、今回は参加することができました。 オフィス見学ツアーの様子 ロビー ツアー前に集合したロビーですが、すごくおしゃれで、様々な賞も飾られていました。 中でも、弊社社員一同が最も盛り上がったのは、電光掲示板に弊社への歓迎のメッセージを表示してもらえたことです。 なかなか電光掲示板での歓迎はされないので、とても新鮮で嬉しいおもてなしでした。 エントランスの歓迎電光掲示板 ツアー開始 実際のカンバンを見せて頂く前に、ヴァル研究所の歴史についても学ばせてもらいました。 私達の後ろにあるのが歴代の紙の時刻表なのですが、今でも一部はここから手作業でデータを入力したり、実際に徒歩にかかる時間を計りに現地へ行ったりしているそうです。 弊社社員での集合写真 業務カイゼン用カンバン紹介 本当に多くのカンバンを拝見させて頂けたので、その中でいくつかピックアップして3つ紹介していきます。 チーム内タスクの見える化 最初に、お邪魔させていただいた総務部で、週・日単位でのタスク管理のカンバンを見ました。 カンバンとしては、 今週の予定 今週のタスク 待ちタスク(他の人に渡しているタスクを置いておく) 本日のタスク 完了したタスク に分類されています。 そして、チーム内でのフローとしては、次の日にやるタスクは毎週金曜日に決める。毎朝の朝会でその日に取り組むタスクを決めて、タスクを「今週のタスク」から「本日のタスク」に移動する。最後に、終わったらタスクを「完了」に移動するとのことです。 タスクの見える化の役割もありますが、タスクを消化していくことで達成感も味わうこともできるのでモチベーションが上がる方法だなと感じました。 タスクの見える化用カンバン 非効率の見える化 監査部では、VSM(バリュー・ストリーム・マッピング)と呼ばれている業務のプロセスを見える化して無駄を改善していくためのカンバンが印象的でした。 自分たちの業務のプロセスを全て書き出し、より効率化できる部分はないかをチームで洗い出しているそうです。 具体的には、エクセルの作業をモブプログラミングでの改善などをして、以前は42時間かかっていた作業を17時間ほどまで短縮できたとのことでした。 非効率の見える化用カンバン 残業の見える化 マーケティング部で見たのは、各社員がどれだけの残業をしたかを「う○ち」の絵で見える化したカンバンです。 フレックス制度を利用し、定時前に帰れたらお金の絵を書いて溜まった「う○ち」は相殺できるとのことです。 残業が多いことを見える化することによって、忙しい理由の分析をより正確にやることができ、結果的に残業時間の削減につながっているといいます。 残業の見える化用カンバン 社員サポート用のカンバン紹介 ここからは、業務上のタスクの管理ではなく、目では見えない心やスキルに焦点を当てたカンバン運用について2つご紹介します。 スキルの見える化 1つ目のカンバンは、誰が何のスキルが得意で何を身に付けたいと思っているのかを見える化させたカンバンです。 スキルを見える化することで、「〇〇については〇〇さんに聞こう」「〇〇君は〇〇をもっとやりたいから次は任せよう」などの行動をサポートすることができるようになったとのことです。 スキルの見える化用カンバン 気持ちの見える化 出社したときと退社するときに、社員が今の心理状態を色で分けて貼るためのカンバンです。 心の状態を見える化することで、管理者は「この人最近落ち込んでる」「この人出社と退社で心の状態が落ち込んでる。仕事で何かあったのかな?」などを考えることができ、いち早くサポートをしてあげることができるとのことです。 気持ちの見える化用カンバン 他にも「モヤモヤの見える化」や「チーム目標の見える化」、「価値観の見える化」など多くの「見える化」の施策が実践されていました。 チームごとで使用してるカンバンも異なり、日々カイゼンをしていることがとてもよく伝わってきました。 おまけ カンバンとは違いますが、とても面白いかつ便利な見える化がされていました。 それが、「エラーの見える化」です。 毎分リクエストをサーバーに送り、もしもエラーが返ってきたらダ◯スベイダーが音を立てるのだそうです。 コンソールを毎回見に行かなくてもエラーがわかる仕組み作りとそれをみんなが見えるようにする施策はとてもいいですね。 エラーの見える化用 まとめ ヴァル研究所はまさに「見える化」を全社的に取り組んでいる企業であることがとてもよくわかるツアーでした。 「カンバン」と言っても種類が豊富で、チームによって全く違いました。 どのチームも各々にあった方法を模索し、実践し続けていることが、説明していただいた内容からも、社内に置いてあるカンバンからもよくわかりました。 チームで施策全体や各メンバーの業務、心理、スキルについて共通認識を持つのはとても大変なことです。 そこを、ヴァル研究所のようにカンバンを使って「見える化」を進めていくと、問題発見から話し合い、そして解決までのスピードが加速する気がしますね。 弊社もまだまだカイゼンしていく課題が多い会社ではありますので、少しずつ、ヴァル研究所の皆さまを見習ってカイゼンをしていきたいと思います。
アバター