データアーキテクト・開発リーダー / 「データ基盤・パイプライン」 の構築・自動化 #管理職ポジション
職種: データエンジニア
雇用形態: 正社員
エリア: 東京都千代田区九段南1丁目6番5号九段会館テラス

業務内容
①担当業務内容
AI検索サービスの根幹となるデータアーキテクチャの設計、およびデータ管理プロセスの最適化・自動化をリードします。
1.AIモデルのためのデータ基盤構築・パイプライン設計:50%
AI/MLモデルの学習・推論に必要なデータを、高品質かつタイムリーに供給するための基盤を作ります。
・データ収集・加工: 多様なログデータや商品データを収集し、モデルが学習可能な形式へ加工(ETL/ELT)するパイプラインの設計・構築
・特徴量管理(Feature Store): 特徴量の作成・管理を一元化し、学習時と推論時のデータ不整合(Training-Serving Skew)を防ぐ仕組みの導入
・データ品質管理: データの欠損や異常を検知し、常にクリーンなデータを維持するための監視・通知システムの構築
2.データ管理プロセスの最適化および自動化推進:30%
属人化しがちなデータ抽出・加工作業を排除し、自動化されたワークフローを確立します。
・データ運用の自動化: 手動SQLやスクリプトに依存しているデータ作成フローを、Workflow Engine(Airflow等)を用いて自動化・コード化(IaC)
・MLOps基盤の強化: データサイエンティストがスムーズにモデル実験・デプロイを行えるよう、インフラ側からの環境整備
・メタデータ管理: どのデータがどこにあり、どう加工されたかを追跡可能にするデータカタログの整備
3.チームマネジメント・戦略策定:20%
・セクションリーダーとしてメンバー(正社員・パートナー)のタスク管理、技術指導、評価
・事業目標に基づいた中長期的なデータ戦略・アーキテクチャロードマップの策定
②仕事のやりがい(面白さ)
単にデータを溜める箱を作るのではなく、「AIを賢くするためのデータ戦略」を技術面からリードできるポジションです。
3000万点の商品データと年間1億件の検索ログという膨大な資産を使い、いかに効率よく特徴量を作り出し、モデルに供給するか。この「データエンジニアリング×MLOps」の領域において、ゼロベースで設計し、プロセスの自動化まで裁量を持って推進できる点は、エンジニアとして大きな醍醐味です。
③3~5年後の想定されるキャリアパス
・AI/データ基盤のスペシャリストとして、全社のデータ戦略を担うデータアーキテクト
・データエンジニアリング組織を統括するマネージャー
・MLOps領域を極め、開発と運用の架け橋となるテックリード
④業務上の課題
AI活用の高度化に伴い、データ加工や特徴量作成のプロセスが複雑化しており、一部のエンジニアによる手動対応や属人化した運用がボトルネックになっています。
データサイエンティストがモデル開発に専念できるよう、データ準備にかかる時間を極小化し、システムによる自動化・最適化を強力に推進することが急務です。
⑤使用ツール
・クラウド・インフラ : Google Cloud Platform (GCP) を主軸にAWSとハイブリッド構成
・AI/MLプラットフォーム : Vertex AI (Pipelines, Feature Store, Model Registry)
・データウェアハウス・加工 : BigQuery, Dataform, Redshift
・コンテナ・サーバレス : GKE (Google Kubernetes Engine), Cloud Run, Cloud Functions
・IaC・CI/CD : Terraform, GitHub Actions
・言語 : Python, SQL
・コミュニケーション・管理 : MS Teams, GitHub Projects , GitHub Issues
⑥その他
リモートワークと出社のハイブリッド勤務、フリーアドレス制など、柔軟で働きやすい環境です。
AI検索サービスの根幹となるデータアーキテクチャの設計、およびデータ管理プロセスの最適化・自動化をリードします。
1.AIモデルのためのデータ基盤構築・パイプライン設計:50%
AI/MLモデルの学習・推論に必要なデータを、高品質かつタイムリーに供給するための基盤を作ります。
・データ収集・加工: 多様なログデータや商品データを収集し、モデルが学習可能な形式へ加工(ETL/ELT)するパイプラインの設計・構築
・特徴量管理(Feature Store): 特徴量の作成・管理を一元化し、学習時と推論時のデータ不整合(Training-Serving Skew)を防ぐ仕組みの導入
・データ品質管理: データの欠損や異常を検知し、常にクリーンなデータを維持するための監視・通知システムの構築
2.データ管理プロセスの最適化および自動化推進:30%
属人化しがちなデータ抽出・加工作業を排除し、自動化されたワークフローを確立します。
・データ運用の自動化: 手動SQLやスクリプトに依存しているデータ作成フローを、Workflow Engine(Airflow等)を用いて自動化・コード化(IaC)
・MLOps基盤の強化: データサイエンティストがスムーズにモデル実験・デプロイを行えるよう、インフラ側からの環境整備
・メタデータ管理: どのデータがどこにあり、どう加工されたかを追跡可能にするデータカタログの整備
3.チームマネジメント・戦略策定:20%
・セクションリーダーとしてメンバー(正社員・パートナー)のタスク管理、技術指導、評価
・事業目標に基づいた中長期的なデータ戦略・アーキテクチャロードマップの策定
②仕事のやりがい(面白さ)
単にデータを溜める箱を作るのではなく、「AIを賢くするためのデータ戦略」を技術面からリードできるポジションです。
3000万点の商品データと年間1億件の検索ログという膨大な資産を使い、いかに効率よく特徴量を作り出し、モデルに供給するか。この「データエンジニアリング×MLOps」の領域において、ゼロベースで設計し、プロセスの自動化まで裁量を持って推進できる点は、エンジニアとして大きな醍醐味です。
③3~5年後の想定されるキャリアパス
・AI/データ基盤のスペシャリストとして、全社のデータ戦略を担うデータアーキテクト
・データエンジニアリング組織を統括するマネージャー
・MLOps領域を極め、開発と運用の架け橋となるテックリード
④業務上の課題
AI活用の高度化に伴い、データ加工や特徴量作成のプロセスが複雑化しており、一部のエンジニアによる手動対応や属人化した運用がボトルネックになっています。
データサイエンティストがモデル開発に専念できるよう、データ準備にかかる時間を極小化し、システムによる自動化・最適化を強力に推進することが急務です。
⑤使用ツール
・クラウド・インフラ : Google Cloud Platform (GCP) を主軸にAWSとハイブリッド構成
・AI/MLプラットフォーム : Vertex AI (Pipelines, Feature Store, Model Registry)
・データウェアハウス・加工 : BigQuery, Dataform, Redshift
・コンテナ・サーバレス : GKE (Google Kubernetes Engine), Cloud Run, Cloud Functions
・IaC・CI/CD : Terraform, GitHub Actions
・言語 : Python, SQL
・コミュニケーション・管理 : MS Teams, GitHub Projects , GitHub Issues
⑥その他
リモートワークと出社のハイブリッド勤務、フリーアドレス制など、柔軟で働きやすい環境です。
※本求人は、株式会社キッカケクリエイションによる職業紹介での求人ご紹介となります。
求める人物像
■必須条件
いずれもの条件を満たす方
・大規模データの収集・蓄積・加工(ETL/ELT)基盤の設計・構築経験
・Python/SQLを用いたデータ処理の実務経験(目安:3年以上)
・AWS/GCP等のパブリッククラウドを活用したデータパイプラインの構築経験
・開発チームのリーダーまたはマネジメント経験(3名以上、進捗管理・技術指導含む)
■求める人物像
「データはAIの燃料である」と理解し、その燃料をいかに効率よく、高品質に供給し続けるかに情熱を持てる方。
現状の泥臭いデータ加工作業を「仕方ない」と諦めず、「どうすれば自動化できるか?」「どうすればプロセスを最適化できるか?」を常に考え、チームを巻き込んで改善を実行できるリーダーシップを持った方を求めています。
■歓迎要件
<経験>
・GCP (BigQuery, Vertex AI等) を活用したデータパイプラインおよびMLOps基盤の構築経験
・Dataform または dbt を用いたデータモデリング・ELT処理の開発経験
・OpenMetadata や DataHub 等のツールを用いたデータカタログ・データガバナンス基盤の導入・運用経験
・機械学習モデルのライフサイクル管理(実験管理、モデルデプロイ、監視)の自動化経験
<知識・スキル>
・モダンデータスタック(Modern Data Stack)に関する最新の知見
・データ品質(Data Quality)やデータリネージの可視化に関する知識
・Infrastructure as Code (Terraform) によるGCPインフラ管理スキル
・ビジネスレベルの英語力(ドキュメント読解等)
いずれもの条件を満たす方
・大規模データの収集・蓄積・加工(ETL/ELT)基盤の設計・構築経験
・Python/SQLを用いたデータ処理の実務経験(目安:3年以上)
・AWS/GCP等のパブリッククラウドを活用したデータパイプラインの構築経験
・開発チームのリーダーまたはマネジメント経験(3名以上、進捗管理・技術指導含む)
■求める人物像
「データはAIの燃料である」と理解し、その燃料をいかに効率よく、高品質に供給し続けるかに情熱を持てる方。
現状の泥臭いデータ加工作業を「仕方ない」と諦めず、「どうすれば自動化できるか?」「どうすればプロセスを最適化できるか?」を常に考え、チームを巻き込んで改善を実行できるリーダーシップを持った方を求めています。
■歓迎要件
<経験>
・GCP (BigQuery, Vertex AI等) を活用したデータパイプラインおよびMLOps基盤の構築経験
・Dataform または dbt を用いたデータモデリング・ELT処理の開発経験
・OpenMetadata や DataHub 等のツールを用いたデータカタログ・データガバナンス基盤の導入・運用経験
・機械学習モデルのライフサイクル管理(実験管理、モデルデプロイ、監視)の自動化経験
<知識・スキル>
・モダンデータスタック(Modern Data Stack)に関する最新の知見
・データ品質(Data Quality)やデータリネージの可視化に関する知識
・Infrastructure as Code (Terraform) によるGCPインフラ管理スキル
・ビジネスレベルの英語力(ドキュメント読解等)
募集要項
| 職種 | データエンジニア |
|---|---|
| 雇用形態 | 正社員 |
| 勤務体系 | フレックスタイム制度 |
| 就業時間 | 09:00~17:30 |
| 休日 | 年間休日124日, 土日祝休み,完全週休二日制,有給休暇,年末年始休暇,慶弔休暇, ※ただし、業務の都合で休日を他の日に振替えることがある ・特別休暇 |
| 給与 | 年俸:7,000,000円 〜 10,000,000円 固定残業:なし 賞与:年2回(6月,12月) ※時間外勤務手当・休日勤務手当は支給無し。深夜勤務手当有り。 |
| 試用期間 | 試用期間:あり 期間:3ヶ月 条件:本採用時と同様 |
| リモートワーク制度 | ハイブリッドリモート |
| 通勤手当 | あり |
| 待遇・福利厚生 | 通勤手当,退職金制度,企業型確定拠出年金,リモートワーク制度,研修制度 |
| 加入保険 | 健康保険あり・労災保険あり・厚生年金あり・雇用保険あり |
| 受動喫煙防止措置 | 屋内禁煙 |
| 育児休業取得実績 | あり |
| 学歴 | 専門学校卒以上 |
| 就業場所 | 東京都千代田区九段南1丁目6番5号九段会館テラス |
| 沿線・最寄駅 | 九段下駅(東京メトロ半蔵門線・東西線、都営新宿線)より徒歩1分 |
| 勤務先名 | 株式会社ミスミグループ |
| 勤務先本社所在地 | 東京都千代田区九段南一丁目6番5号九段会館テラス |
| 勤務先ウェブサイトURL | https://www.misumi.co.jp/ |
| 勤務先事業内容 | FAなどの自動機の標準部品を主に扱うFA事業、自動車や電子・電気機器などの金型部品を主に扱う金型部品事業、新たな流通事業としてミスミブランド以外の他社商品も含めた生産設備関連部品、製造副資材やMRO(消耗品)などを販売するVONA事業で構成されております。 |
| 応募書類等 | 履歴書、職務経歴書 |
紹介会社情報
| 企業名 | 株式会社キッカケクリエイション |
|---|---|
| 業種 | 人材派遣・人材紹介 |
| 代表者名 | 川島 我生斗 |
| 所在地 | 東京都渋谷区桜丘町22番14号 N.E.Sビル N棟3階 |
| 事業内容 | 有料職業紹介・派遣事業 有料職業紹介許可番号:13-ユ-312698 労働者派遣許可番号:派13-316232 |
| 電話番号 | 090-8226-6875 |
