入社から3か月のデータアナリストの業務紹介
こんにちは、Data Groupのデータアナリストをしている加藤です。
2024年10月1日よりLuupで働き始め、早くも3か月以上が経過しました。(諸事情により公開が遅れました)
今回はLuupを転職先に選んだ理由と、データアナリストとしての日々の業務についてお話しします。
前職について
新卒で金融機関に入社し、2年半にわたり自治体向けのキャッシュレス決済プロジェクトのデータ分析やデータ関連の事務を担当しました。
1~2年目では、事業の理解を深めながら、BIツール(Tableau・Qlik Sense)を使って、決済状況や予算の進捗状況のダッシュボードや顧客向けレポートの作成をしました。
システム開発やデータ基盤の構築はベンダーに委託していたため、データウェアハウスからデータマートを作成し、そのデータを可視化・分析していました。
自治体ごとにキャンペーン(キャッシュバック型・ポイント給付型)の内容は異なるため、データウェアハウスにある決済データをそのまま集計すると、正しい決済総額と乖離が生じてしまい、データの前処理も担当していました。
(金融機関なので、金額は1円も間違えられないプレッシャーがありました)
新機能のリリースが年に2,3回程度で扱うデータやKPIも変わらなかったため、2年目の途中にはデータ分析の業務はルーティン化され、挑戦している感じが薄れてきました。
また、金融機関特有の厳しい社内ルールがあったため、事務作業に多くの時間を割いていました。
例えば、PUSH通知を送るには、複数部署の各部署2名以上から承認を得る必要があり、通常は2週間以上かかります。
期日直前でキャンペーン情報などの通知内容が確定することもあったため、期間を短縮できるよう各部署との社内調整にも尽力していました。
2年目の途中から、ビジネス領域にも携わるようになり、顧客やユーザーの意見を直接聞くことが多くなりました。
アカウント登録時に一定数のユーザーが離脱していたため、ユーザビリティの改善を提案しました。
しかし、システム開発はベンダーに委託しているので、承認フローの長い社内手続きや予算の制約を考慮すると、改善には1年以上かかる状況でした。
ユーザーの声に耳を傾けプロダクトへ反映する重要性と、変化の激しい市場において事業成長とプロダクトの迅速な改善・成長が不可欠だと痛感しました。
当時の環境では、私が重視する「ユーザーの声を迅速にプロダクトへ反映し、成長させていく」というスピード感を十分に実現できないと感じていました。また、データ分析業務がルーティン化しており、変化の激しい市場においてデータに基づいた高速なPDCAサイクルを回し、事業を成長させることのできる環境を求めて転職を決意しました。
まとめると、転職理由は2つです。
- データ分析に集中できる環境で働きたい
- 事業とプロダクトがともに成長している環境で働きたい
Luupへの転職理由
転職活動の軸は、転職理由の2つと「一緒に働く人が魅力的か」の3つがありました。
-
データ分析に集中できる環境で働きたい
面接を通じて、業務の多くをデータ分析に充てられることを確認できた点は、大きな魅力でした。実際にLuupでは、バッテリー交換や車両の再配置といったオペレーション業務がデータ分析を基に短期間で実行されており、分析結果が具体的なアクションに直結するスピード感にも惹かれました。さらに、データ分析基盤を自社で管理しているため、必要なデータを柔軟に活用できる環境が整っていることも、Luupを選ぶ決め手の1つとなりました。 -
事業とプロダクトがともに成長している会社で働きたい
サービスは1年ほど前から知っていましたが、選考期間中に自宅近くのポートが設置されたり、街中でLUUPの車両を見かける機会が増えるなど、プロダクトの急成長を実感しました。自分の生活に近いプロダクトの成長に関わることは、面接中でも大きなモチベーションになりました。さらに、入社までの間にアプリのUIが使いやすく改善されており、自社内にエンジニアがいることで、プロダクトがこのスピード感で進化していることに驚きました。 -
一緒に働く人が魅力的か
面接やカジュアル面談でお会いしたData Group GMの小林や小笠原の人柄に惹かれたことも、Luupを選んだ大きな理由です。面接を通じてLuupではデータがどのように活用されているのか、今後どのように活用していきたいかをお聞きでき、データを重視する文化が根付いていそうだと感じました。魅力的な方たちと一緒に働き、Luupのサービスを広めていきたいと思いました。
Luupのデータアナリスト業務
Luupに入社してから3か月間のデータアナリストの主な業務についてご紹介します。
会社の全体像を把握するため、オンボーディングやミーティングを通じて、Luupの今までの取り組みや現在注力していることについて学びました。
Data Groupの方や接点の多い他部署の方々とランチに行かせてもらい、MTG内で疑問に思ったところや各部署の役割・業務内容について知る機会がありました。
このランチをきっかけに、データが必要な背景や目的を気軽に聞きやすくなったので、とてもありがたかったです。
業務で扱うデータを理解するため、関連するテーブルやデータ分析環境について学びました。
ユーザーや車両、アプリの遷移データなど、多種多様で膨大なデータがありますが、データカタログや分析環境の使い方に関するドキュメントが整備されており、それを参考に理解を深めました。
実際にデータを扱う中で、初めて使用するデータや指標に戸惑うこともありましたが、Data Groupや他部署のメンバーが親身にサポートしてくれたおかげで、安心して業務に取り組むことができました。
「LUUP for Community」という、自治体・企業・団体が主体となってLUUPを導入・運営できるサービスを展開しており、自治体ごとの利用状況や登録状況を確認したいニーズがあり、テーブルを作成しました。
前職では意識していなかったBigQueryのコストを考慮しながらクエリを書くことに慣れず、何度もレビューをいただき修正を重ねました。さらに、定常的に利用状況を把握するためのテーブルを、dbtというツールでモデリングしました。
SupersetというBIツールを活用し、↑で作成したテーブルを可視化するダッシュボードを作成しました。
初めて触れるツールでしたが、前職で使用していたTableauと操作性が似ていたため、スムーズに習得できました。
ダッシュボード上でフィルターをかけられない項目があったりと、SQLの設計が不十分で、何度もSupersetとBigQueryを行き来しながら、なんとか完成させました。
参考:新BIツール「Superset」を導入した話
シェアリングサービスということもあり、位置情報データを分析する機会が多く、DekartというBIツールを用いて可視化を進めました。
そのまま可視化するだけでは意思決定に役立つ示唆を読み解くのが難しく、H3(位置情報データのグリッド化ツール)を活用した可視化にも挑戦しました。
他にも、ニーズの推定やライド傾向の分析など、色々なリクエストが来るので、まだまだ勉強中です。
アドホックで作成したコードは、GitHub上のdbtプロジェクト内にあるanalysesディレクトリーで管理されていて、CIやレビューを通すことで品質を保っています。
また、初めて触れるlinter(コードの品質チェックツール)に苦戦しつつも、コードの品質向上に努めました。
(自己流のクエリを書いていたことに気付かされ、日々反省しています)
入社後の3か月間で似たようなデータリクエストが複数あり、コードを再利用しやすい環境を整えておくことの重要性を実感しました。
コードの管理には多少の手間がかかるものの、長期的には業務の効率化につながるため、継続的に取り組んでいます。
今後の目標
Luupでは、データを重要な資産として捉え、活用するカルチャーが根付いています。
その一方で、まだ十分に活用しきれていない領域もあると感じています。
- マーケティングの効果検証や、アプリのUI改善の効果測定を効率化
- Data Groupを中心とした、意思決定をサポートできるような環境の整備
これ以外にも取り組みたいことは数えきれないほどあり、これからのチャレンジが非常に楽しみです!
おわりに
今回はデータアナリストとしての業務内容をご紹介しましたが、実際の業務はこれだけに留まりません。
さまざまな課題解決に向けてデータを活用する機会が豊富にあり、幅広いスキルを身につけながら、専門性をさらに深めることができる環境も整っています。
データ活用や機械学習、最適化、データ基盤構築などに興味がある方は、ぜひ一度お話ししましょう。
Discussion