転職・求人情報の詳細をご覧になる場合は会員登録(無料)が必要です
| 部署・役職名 | 【データレイクエンジニア】※リモート可/Uターン・Iターン歓迎※ |
|---|---|
| 職種 | |
| 業種 | |
| 勤務地 | |
| 仕事内容 |
九州北部を地盤とする4つの地方銀行と国内初のデジタルバンクを中心に、証券会社、カード会社、コンサルティング会社などをグループ傘下にもつ、地銀総資産規模トップクラス、国内で最大規模を誇る地域金融機関です。 同社の「長期戦略」は、私たちが注力する「地域の産業振興」や「人々のゆたかな生活の後押し」を通じて、地域に「経済的・物質的・精神的なゆたかさ」つまり「真のゆたかさ」をもたらす、という未来への道筋を描いています。 こうした未来を実現するためには、M&A・エクイティビジネスに関する能力や、GXの知見や投融資の能力、スタートアップを支援する力、資産運用ビジネスの高度化などが必要です。そのために、外部プレイヤーとの共創関係を積極的に構築します。 あわせて、収益獲得とノウハウを吸収するために九州域外のビジネスも強化します。また、ビジネス拡大に必要な体力を備えるために、市場運用等を通じた新たな収益の獲得にも積極的に取り組みます。 概要 ・同社では持続的な成長の実現を目指し、DX推進体制の強化を進めています。 ・デジタル化の進展により生み出される膨大で多様なデータを効率的に蓄積・管理・活用するためのデータレイク基盤の開発・運用・保守を担当する専門人材を募集します。 ・データレイク基盤は、当行のデータ駆動型意思決定の中核を担う重要なインフラであり、競争優位の源泉となります。また、近年急速に発展しているLLM(大規模言語モデル)や生成AI、さらには画像・音声などのマルチモーダルデータ処理技術の活用を見据えた次世代データ基盤の構築も視野に入れています。 仕事内容 ・当行のデータ活用基盤であるデータレイクの開発・運用・保守を担当していただきます。 ・データエンジニアとして、多様なデータソースからのデータ取り込み、データの品質管理、データパイプラインの構築・最適化、データレイク基盤の安定運用などを通じて、ビジネス部門やデータサイエンティストが効率的にデータを活用できる環境を提供していただきます。 ・また、LLMや生成AI、マルチモーダルデータ処理に対応したデータ基盤の拡張も重要な業務となります。 ▼具体的な業務内容 ・AWS上でのデータレイク基盤の設計・構築・運用・保守 ・ETL/ELTプロセスの設計・開発・運用(データの抽出・変換・ロード処理) ・データパイプラインの構築・最適化・監視およびパフォーマンス調整 ・データ品質管理とデータガバナンスの実装、メタデータ管理とデータカタログの整備 ・データセキュリティとアクセス制御の実装、コンプライアンス対応 ・障害対応とトラブルシューティング、システム安定運用の維持 ・LLMや生成AIのための学習データ準備とRAG(Retrieval-Augmented Generation)システム構築支援 ・画像・音声・動画などのマルチモーダルデータの取り込み・処理・保存基盤の構築 ・データサイエンティストやビジネス部門との連携によるデータ要件の定義と実装 ・新技術の評価と導入検討、生成AIを活用したデータ処理の自動化・効率化 仕事の魅力 ・データドリブン型意思決定を支えるインフラ整備や、AWS上でのデータレイク設計・運用、ETL/ELTプロセスの設計・開発、データ品質管理・ガバナンスの実装など、データ基盤全体の構築に一貫して関与できる。 ・LLM・生成AI・マルチモーダル処理・RAGシステムといった最新技術を活用し、学習データ準備や革新的なデータ処理領域に携わることで、専門性と技術力を大きく高められる。 ・データサイエンティストやビジネス部門と連携して課題解決に貢献しつつ、金融機関特有のドメイン知識や、データセキュリティ・コンプライアンスといった社会的責任の高い分野での実践経験を積むことができる。 ▼働き方の特徴 ・リモートワーク可 ※出社可能エリアに居住していることが条件 ・フルフレックス / 裁量労働制 選択可 ・服装はオフィスカジュアル ・開発PCはMac / Windows 選択可 ・自分で選べる 5営業日連続有給制度 ・本社ビル内 社員食堂あり ・業務時間内の技術コミュニティ / アイデア創出活動 ・デジタル資格取得支援(基本情報技術者:1万円 等) |
| 応募資格 |
【必須(MUST)】 必須スキル・経験・データエンジニアリングに関する実務経験(3年以上)をお持ちの方 ・クラウド環境(AWS)でのデータレイク構築経験がある方 ・Python(必須)、SQL、Sparkなどのデータ処理技術に精通している方 【歓迎(WANT)】 歓迎スキル・経験・金融機関でのデータエンジニアリング経験 ・ビッグデータ技術(Hadoop、Spark、Kafka等)の実務経験とデータガバナンスフレームワークの実装経験 ・MLOpsやデータサイエンスプラットフォームの構築経験 ・ETL/ELTツールの使用経験がある方(特にGlue) ・クラウドサービスの認定資格(AWS認定ソリューションアーキテクト、Azure Data Engineer等) ・LLMや生成AI(OpenAI API、LangChain、Hugging Face等)の実装経験 ・ベクトルデータベース(Pinecone、Weaviate等)の構築・運用とRAGシステムの設計・実装経験 ▼技術スタック・環境 ・言語:Python、VBA、PowerShell ※後者2つは内部ツール開発など副次的に利用 ・データベース:DB2、TERADATA、SQLServer、PostgreSQL、MySQL ・ソースコード管理:AWS CodeCommit(GIT) ・プロジェクト管理:nulab ※チケット管理 ・情報共有ツール:Teams、Mattermost、GLOWI ・その他:ソースコード開発環境 → AWS Sagemaker notebook (JupyterLab) 求める人物像 ・新たな技術にチャレンジしていきたい方 ・周囲と協力しながら開発を進めていける方 ・ユーザーとの対話を重ね、責任をもって開発に取り組んでいただける方 |
| リモートワーク | 可 「可」と表示されている場合でも、「在宅に限る」「一定期間のみ」など、条件は求人によって異なります |
| 受動喫煙対策 | 屋内禁煙 |
| 更新日 | 2026/02/11 |
| 求人番号 | 7286205 |
採用企業情報

- 企業名は会員のみ表示されます
- 会社規模5001人以上
この求人の取り扱い担当者
-
- ?
- ヘッドハンターの氏名は会員のみ表示されます
会社名は会員のみ表示されます
-
- コンサルティング IT・インターネット メーカー
-
転職・求人情報の詳細をご覧になる場合は会員登録(無料)が必要です
