転職・求人情報の詳細をご覧になる場合は会員登録(無料)が必要です
| 部署・役職名 | 【中途】データエンジニア |
|---|---|
| 職種 | |
| 業種 | |
| 勤務地 | |
| 仕事内容 |
職務内容 当社では「アイデアを持つパートナー(起案者)」に対して、サービスデザインから技術選定、開発までを一気通貫で提供しています。 スタートアップの開発支援から大手企業の新規サービス立ち上げまで様々な規模のプロジェクトがあり、その中でもパブリッククラウド環境でのデータウェアハウス構築を担うデータエンジニアとして業務を担っていただきます。 【業務詳細】 ・パブリッククラウド(AWS、GCP、Azure など)上でのデータ基盤・データパイプラインの設計、構築、運用 ・データ収集、加工、ストレージに関わるシステムの開発 ・大規模データを対象としたETL (ELT) 処理の最適化 ・リアルタイムデータの処理 ・データクレンジング処理やデータマートの構築 ・データの可視化および分析基盤の構築支援 ・データパイプラインの品質管理、パフォーマンスの向上 ・データウェアハウスの運用保守 ・ステークホルダー(データアナリスト、データサイエンティストなど)との連携 ・顧客との要件定義や設計フェーズでのコミュニケーション 【風土・働き方】 当社は個人がベストのパフォーマンスを発揮できる働き方を推奨しています。コアタイムなしのマンスリーフレックス制度を導入しており、プライベートな予定や家庭の事情に合わせて勤務時間を調整したりリモートワークを活用したり、様々なフィールドのメンバーがそれぞれのスタイルで力を発揮しています。 |
| 応募資格 |
【必須(MUST)】 応募資格(必須)■パブリッククラウド(AWS、GCP、Azure)を利用したデータ基盤の構築経験 Amazon Redshift、Google BigQuery、Azure Synapse Analytics など ■ETLプロセスの設計・開発経験 dbt、dagster、Airflow、Glue、Dataform、DataFactory、Kafka、Amazon Kinesis など ■Python、Java、またはScalaを用いたデータ処理の実務経験 ■SQLの高度なスキル ■CI/CDツールを用いたパイプラインの自動化経験 応募資格(歓迎) ■TerraformやCloudFormationを利用したIaC(Infrastructure as Code)の経験 ■BigQuery、Redshift、Snowflake などのクラウドデータウェアハウスの知識 ■Apache Airflow、Kafka、Sparkなどのデータ処理ツールの利用経験 ■クエリ最適化やインデックス設計などデータベースのチューニング経験 ■データセキュリティやコンプライアンスなどデータガバナンスに関する知識 ■アジャイル開発プロセスの経験 求める人物像 ・必要なタスクやリスクについて主体的に検知し対応していただける方 ・テクノロジーを駆使してプロダクトを実現させることに喜びを感じる方 ・プロダクト志向が強い方 ・クライアント志向の近い方 ・事業やサービス、プロダクトに真摯に向き合うことが出来る方 ・当社の考えやビジョンに共感できる方 ・新しい技術を取り込み試していきたい方 |
| 受動喫煙対策 | その他 「就業場所が屋外である」、「就業場所によって対策内容が異なる」、「対策内容は採用時までに通知する」 などの場合がその他となります。面接時に詳しい内容をご確認ください |
| 更新日 | 2025/07/10 |
| 求人番号 | 5091683 |
採用企業情報

- 企業名は会員のみ表示されます
- 会社規模501-5000人
この求人の取り扱い担当者
-
- ?
- ヘッドハンターの氏名は会員のみ表示されます
会社名は会員のみ表示されます
-
- コンサルティング IT・インターネット 商社
-
転職・求人情報の詳細をご覧になる場合は会員登録(無料)が必要です
