転職・求人情報の詳細をご覧になる場合は会員登録(無料)が必要です
部署・役職名 | 【データエンジニア/年収~1200万円】日本を代表するフードテック・サステナビリティ推進カンパニー/東証プライム上場 |
---|---|
職種 | |
業種 | |
勤務地 | |
仕事内容 |
各事業部/部署の分析担当者が自身で簡単にデータ分析を行って意思決定できる環境の実現を目指しています。 本ポジションはデータマネジメントオフィスのメンバーとして、多種多様なデータソースから収集したデータをDWHに準備し、データ活用目的に即した質の高いデータを供給する信頼できるデータパイプラインの構築・管理・運用を行っていただきます。 また、ビジネス側からの新たなニーズやテクノロジーの進化に伴うアーキテクチャの更新も担当していただきます。 *【Key Job Responsibilities】* ・業務、分析、データサイエンスチームのデータ活用目的に即した質の高いデータをDWH、BI/AI基盤に供給する信頼性の高いデータパイプラインの構築・管理・運用 ・自動化を最大限に活用し、テストに基づいた信頼できるデータを供給するデータパイプラインの構築&運用 ・データパイプラインとそちらで処理されるデータの質のモニタリング、問題発生時の関係者コミュニケーション、原因究明と解決 ・分析目的に適したDWHの構築(データモデル、スキーマ) ・既存DWHの新DWHへの移行 ・分析チーム、業務チームなどの関連部署と連携したデータに関する要件定義 ・社内分析基盤と導入ツールの監視・管理、OSSであればそのメンテナンス ・ビジネスのニーズや技術の進化に基づくデータパイプラインのアーキテクチャ変更 【開発環境】 ・DWH : Snowflake ・メトリクスレイヤー:LookML ・BI : Looker ・ELT:AWS DMS ・Data Observability : dbt test, Grew DataBrew ・Orchestration : Airflow(MWAA), Digdag ・CI/CD: Jenkins, GitHub Actions ・IaC:Terraform ・ソースコード管理:GitHub, GitLab ・コミュニケーションツール:Slack, Google Chat ・監視:Datadog, NewRelic, Mackerel |
応募資格 |
【必須(MUST)】 ・業務システムなどの多様なデータソースを処理し、分析できる形のデータマートを準備するデータパイプラインを構築・運用した2年以上の経験・SQLの高いコーディングスキル(2年以上) ・ビジネスのニーズに基づいた適切なデータモデルの構築経験(ディメンショナルデータモデル、Data Vault) ・AirflowやDigdagなどのワークフローエンジンの運用経験 ・Snowflake, Redshift, BigQueryなどのDWHの運用・管理経験 ・関係事業部、分析チームやデータサイエンティスト/データエンジニアと円滑なコミュニケーションが可能なコミュニケーション力 ・新しい技術を常にキャッチアップしていく技術への好奇心 ・ビジネスレベル以上の日本語力 |
リモートワーク | 可 「可」と表示されている場合でも、「在宅に限る」「一定期間のみ」など、条件は求人によって異なります |
受動喫煙対策 | 屋内禁煙 |
更新日 | 2024/04/04 |
求人番号 | 3429296 |
採用企業情報
この求人の取り扱い担当者
転職・求人情報の詳細をご覧になる場合は会員登録(無料)が必要です