【業務内容】
▼概要
分析者やソリューション開発者が利用するデータ基盤を構築するエンジニアとしてご活躍いただきます。
▼詳細
※これまでのご経歴や経験に基づき、以下のいずれかの業務をリーダーとしてご担当頂きます。
・データ分析基盤及びデータ処理・連携システムの要件定義/設計/開発/運用(案件のフェーズは踏まえつつも、希望に沿う形で様々な工程をご担当いただきます)
・顧客企業の課題を解決するためのソリューションコンセプトやシステムブループリントの検討
・アジャイル開発/ウォーターフォール開発におけるプロジェクト推進
・顧客との折衝/リレーションの確立
また実務をこなしながら下記のような技術スタックに触れる機会があります
クラウド
・AWS(Redshift, EMR, EKSなど)
・GCP(BigQuery, Composerなど)
・Salesforce
SaaS
・Snowflake
・Databricks
ライブラリ・ツール
・Tableau
・Hadoop/Spark(大規模データ分散処理)
・Airflow
・Terraform
・Docker/kubernetes
言語
・Python
・SQL
▼具体案件事例:
・分析基盤構築:KDDIの約4,000万人規模のお客様から得られるテラバイト級のデータをもとに、分析や機械学習によって示唆を出し、業務改善、マーケティング等に活用するための基盤構築。利用者:ARISE社内分析者、KDDIのマーケティング施策担当/分析担当など
・アクセスログ収集基盤構築:KDDIの各種サービスにおけるテラバイト級のアクセスログをニアリアルタイムで収集、蓄積、加工し、分析・BI・他システムへ連携する基盤構築。利用者:KDDIのマーケティング施策担当/分析担当など
・配信基盤構築:KDDIのお客様に対して、個々のニーズに合わせつつ、大量配信を実現するマーケティングオートメーション基盤の構築。利用者:KDDIのマーケティング施策担当など
【勤務地】
リモートワークと出社のハイブリット
※2025年12月に高輪ゲートウェイに移転予定
【転勤】
無
【求めるご経験・スキル】
<必須条件>
・パブリッククラウドによる商用インフラ構築・運用経験(3年以上)
・Python、Java、Scala等のプログラミング経験(1年以上)
・基本的なSQL(DML)の使い方を理解していること
・システム構築におけるクライアント相対のご経験
※ データ基盤構築やデータマネジメント経験は必須ではありません。
<歓迎条件>
・チームリーダーとしてのプロジェクト推進経験
・データ基盤構築経験
・データウェアハウス(BigQuery,RedShift、Snowflakeなど)構築・運用の経験
・ワークフローエンジン(Digdag,Airflowなど)の導入・運用
・アプリケーションなどのログ収集基盤の構築経験
・データマネジメント
・TableauやLookerなどのBIツールの導入・運用
・そのほか開発スキル
・TerraformなどのIaCを用いたインフラ構築経験
・CI/CDの構築・運用
【求める人物像】
・未経験分野でも貪欲に吸収しようとする学習意欲のある方
・他メンバやクライアントなど業務に応じて必要な相手とコミュニケーションを意欲的に取りながら、チームとして動いて行ける方
・ものごとを体系的に整理し、筋道を立てて考え、課題を解決する力を持つ方